Secondo uno studio condotto da Michael Walters (Gaia Lab, Norimberga, Germania), Rafael Kaufmann (Primordia Co., Cascais, Portogallo), Justice Sefas (Università della British Columbia, BC, Canada) e Thomas Kopinski (Gaia Lab, Fachhochschule, Fachhochschule Sudwestfalen, Meschede, Germania), un nuovo approccio ispirato alla fisica alla sicurezza dell’IA potrebbe rendere i sistemi multi-agenti, come veicoli autonomi, significativamente più sicuri.
Il loro documento, “Metriche a rischio di energia libera per AI sistematicamente sicura: studio multi-agente gatekeeping“, Introduce un nuovo metodo di misurazione del rischio che migliora il processo decisionale nei sistemi di intelligenza artificiale prevedendo i rischi in anticipo e intraprendendo azioni preventive.
Qual è il principio di energia libera (FEP) e perché importa?
Al centro della loro ricerca c’è il Principio di energia libera (FEP)un concetto originariamente sviluppato in fisica. In termini semplici, FEP aiuta a spiegare in che modo i sistemi si bilanciano Accuratezza (energia) E semplicità (entropia) Quando si fanno previsioni.
Pensalo in questo modo: un sistema di intelligenza artificiale che cerca di navigare nel mondo deve trovare un equilibrio tra raccogliere informazioni dettagliate e agire in modo efficiente. Se il sistema è troppo complesso, diventa difficile da gestire; Se è troppo semplice, può trascurare i rischi critici. Gli autori usano questo principio per creare a Nuova metrica del rischio Ciò evita la necessità di grandi quantità di dati o modelli eccessivamente complicati, rendendo la sicurezza dell’IA Più pratico e trasparente.
L’intelligenza artificiale sta imparando a guidare come un essere umano, guardandoti panico
L’esposizione al rischio cumulativo (CRE) è un modo più intelligente per misurare il rischio
I ricercatori propongono un nuovo sistema di misurazione del rischio chiamato Esposizione al rischio cumulativo (CRE).
In che modo Cre è diverso?
- A differenza dei modelli di rischio tradizionaliche si basano su ampi modelli mondiali, CRE consente alle parti interessate di definire cosa significa “sicuro” specificando i risultati preferiti.
- Questo fa processo decisionale trasparente e flessibilepoiché il sistema si adatta a diversi ambienti e esigenze.
- Invece di fare affidamento Dati del sensore eccessiviCRE stima il rischio attraverso simulazioni predittive per brevi tempi.
CRE fornisce un altro efficiente e adattabile modo per valutare il rischio nei sistemi basati sull’IA, riducendo la dipendenza dai calcoli ad alta intensità di risorse.
Gatekeeper: Ai che interviene prima che le cose vadano male
Per applicare la metrica CRE in scenari del mondo reale, i ricercatori introducono gatekeeper—Moduli che monitorano le decisioni di intelligenza artificiale e intervengono quando necessario.
Come funzionano i gatekeeper?
- Nel caso di veicoli autonomi, I gatekeeper simulano costantemente possibili scenari futuri per determinare il rischio.
- Se rilevano un risultato non sicuro, loro Sostituire l’attuale modalità di guida del veicolo e passare a un comportamento più sicuro.
- Ciò consente ai sistemi di intelligenza artificiale di anticipare Pericoli prima che accadessero piuttosto che reagire dopo il fatto.
Simulando strade più sicure con veicoli autonomi
Lo studio ha testato questo modello in a ambiente di guida simulato. I ricercatori hanno diviso i veicoli in due gruppi:
- “Ego” – Veicoli monitorati e controllati dai gatekeeper.
- “Alters” -Veicoli di fondo con comportamento di guida fisso e preimpostato.
In questo Simulazione dell’autostradaad alcuni veicoli dell’ego è stato permesso di essere controllati dai gatekeeper, mentre altri non lo erano.
Risultati chiave:
- Anche quando solo un piccolo numero di veicoli era sotto il controllo del gatekeeper, La sicurezza generale della strada è migliorata.
- Meno collisioni si è verificato, dimostrando che l’intervento proattivo ha fatto una differenza misurabile.
- Veicoli mantenuti Alte velocità quando è sicuro ma passò alla guida cauta quando i livelli di rischio sono aumentati.
I risultati suggeriscono che anche adozione parziale dell’IA controllata da gatekeeper potrebbe portare a Condizioni di traffico più sicure senza compromettere l’efficienza. Mentre lo studio si è concentrato sui veicoli autonomi, il Il modello CRE e Gatekeeper potrebbe applicarsi a molti altri campi guidati dall’intelligenza artificiale.
Le potenziali applicazioni includono:
- Robotica: Garantire che i robot alimentati dall’intelligenza artificiali funzionino in sicurezza insieme agli umani.
- Sistemi di trading finanziario: Prevedere movimenti di mercato ad alto rischio e strategie di adeguamento.
- Automazione industriale: Prevenire i macchinari controllati dall’intelligenza artificiale di prendere decisioni non sicure.
Credito immagine in primo piano: Kerem Gülen/Midjourney