Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

Come l’IA ispirata alla fisica sta rendendo le nostre strade più sicure

byKerem Gülen
7 Febbraio 2025
in Research
Home Research
Share on FacebookShare on Twitter

Secondo uno studio condotto da Michael Walters (Gaia Lab, Norimberga, Germania), Rafael Kaufmann (Primordia Co., Cascais, Portogallo), Justice Sefas (Università della British Columbia, BC, Canada) e Thomas Kopinski (Gaia Lab, Fachhochschule, Fachhochschule Sudwestfalen, Meschede, Germania), un nuovo approccio ispirato alla fisica alla sicurezza dell’IA potrebbe rendere i sistemi multi-agenti, come veicoli autonomi, significativamente più sicuri.

Il loro documento, “Metriche a rischio di energia libera per AI sistematicamente sicura: studio multi-agente gatekeeping“, Introduce un nuovo metodo di misurazione del rischio che migliora il processo decisionale nei sistemi di intelligenza artificiale prevedendo i rischi in anticipo e intraprendendo azioni preventive.

Qual è il principio di energia libera (FEP) e perché importa?

Al centro della loro ricerca c’è il Principio di energia libera (FEP)un concetto originariamente sviluppato in fisica. In termini semplici, FEP aiuta a spiegare in che modo i sistemi si bilanciano Accuratezza (energia) E semplicità (entropia) Quando si fanno previsioni.

Pensalo in questo modo: un sistema di intelligenza artificiale che cerca di navigare nel mondo deve trovare un equilibrio tra raccogliere informazioni dettagliate e agire in modo efficiente. Se il sistema è troppo complesso, diventa difficile da gestire; Se è troppo semplice, può trascurare i rischi critici. Gli autori usano questo principio per creare a Nuova metrica del rischio Ciò evita la necessità di grandi quantità di dati o modelli eccessivamente complicati, rendendo la sicurezza dell’IA Più pratico e trasparente.


L’intelligenza artificiale sta imparando a guidare come un essere umano, guardandoti panico


L’esposizione al rischio cumulativo (CRE) è un modo più intelligente per misurare il rischio

I ricercatori propongono un nuovo sistema di misurazione del rischio chiamato Esposizione al rischio cumulativo (CRE).

In che modo Cre è diverso?

  • A differenza dei modelli di rischio tradizionaliche si basano su ampi modelli mondiali, CRE consente alle parti interessate di definire cosa significa “sicuro” specificando i risultati preferiti.
  • Questo fa processo decisionale trasparente e flessibilepoiché il sistema si adatta a diversi ambienti e esigenze.
  • Invece di fare affidamento Dati del sensore eccessiviCRE stima il rischio attraverso simulazioni predittive per brevi tempi.

CRE fornisce un altro efficiente e adattabile modo per valutare il rischio nei sistemi basati sull’IA, riducendo la dipendenza dai calcoli ad alta intensità di risorse.

Gatekeeper: Ai che interviene prima che le cose vadano male

Per applicare la metrica CRE in scenari del mondo reale, i ricercatori introducono gatekeeper—Moduli che monitorano le decisioni di intelligenza artificiale e intervengono quando necessario.

Come funzionano i gatekeeper?

  • Nel caso di veicoli autonomi, I gatekeeper simulano costantemente possibili scenari futuri per determinare il rischio.
  • Se rilevano un risultato non sicuro, loro Sostituire l’attuale modalità di guida del veicolo e passare a un comportamento più sicuro.
  • Ciò consente ai sistemi di intelligenza artificiale di anticipare Pericoli prima che accadessero piuttosto che reagire dopo il fatto.

Simulando strade più sicure con veicoli autonomi

Lo studio ha testato questo modello in a ambiente di guida simulato. I ricercatori hanno diviso i veicoli in due gruppi:

  • “Ego” – Veicoli monitorati e controllati dai gatekeeper.
  • “Alters” -Veicoli di fondo con comportamento di guida fisso e preimpostato.

In questo Simulazione dell’autostradaad alcuni veicoli dell’ego è stato permesso di essere controllati dai gatekeeper, mentre altri non lo erano.

Risultati chiave:

  1. Anche quando solo un piccolo numero di veicoli era sotto il controllo del gatekeeper, La sicurezza generale della strada è migliorata.
  2. Meno collisioni si è verificato, dimostrando che l’intervento proattivo ha fatto una differenza misurabile.
  3. Veicoli mantenuti Alte velocità quando è sicuro ma passò alla guida cauta quando i livelli di rischio sono aumentati.

I risultati suggeriscono che anche adozione parziale dell’IA controllata da gatekeeper potrebbe portare a Condizioni di traffico più sicure senza compromettere l’efficienza. Mentre lo studio si è concentrato sui veicoli autonomi, il Il modello CRE e Gatekeeper potrebbe applicarsi a molti altri campi guidati dall’intelligenza artificiale.

Le potenziali applicazioni includono:

  • Robotica: Garantire che i robot alimentati dall’intelligenza artificiali funzionino in sicurezza insieme agli umani.
  • Sistemi di trading finanziario: Prevedere movimenti di mercato ad alto rischio e strategie di adeguamento.
  • Automazione industriale: Prevenire i macchinari controllati dall’intelligenza artificiale di prendere decisioni non sicure.

Credito immagine in primo piano: Kerem Gülen/Midjourney

Tags: AIfisicaIn primo piano

Related Posts

Come l'intelligenza artificiale ha creato il malware VoidLink in soli sette giorni

Come l'intelligenza artificiale ha creato il malware VoidLink in soli sette giorni

20 Gennaio 2026
OpenAI GPT 5.2 risolve il problema di matematica di Erdő in 15 minuti

OpenAI GPT 5.2 risolve il problema di matematica di Erdő in 15 minuti

19 Gennaio 2026
Appfigure: la spesa per le app mobili ha raggiunto il record di 155,8 miliardi di dollari

Appfigure: la spesa per le app mobili ha raggiunto il record di 155,8 miliardi di dollari

15 Gennaio 2026
La carenza globale di chip di memoria fa impennare i prezzi dei PC

La carenza globale di chip di memoria fa impennare i prezzi dei PC

14 Gennaio 2026
Gli ingegneri costruiscono robot ispirati alle cavallette per risolvere il problema del consumo della batteria

Gli ingegneri costruiscono robot ispirati alle cavallette per risolvere il problema del consumo della batteria

14 Gennaio 2026
Lo studio Nature prevede 2 miliardi di dispositivi sanitari indossabili entro il 2050

Lo studio Nature prevede 2 miliardi di dispositivi sanitari indossabili entro il 2050

7 Gennaio 2026

Recent Posts

  • Come l'intelligenza artificiale ha creato il malware VoidLink in soli sette giorni
  • ASUS segnala una potenziale uscita dal mercato globale degli smartphone
  • Tesla riavvia il progetto del supercomputer Dojo3 mentre il chip AI5 si stabilizza
  • Powell McCormick definisce la trasformazione dell’intelligenza artificiale a "sport di gruppo"
  • Affermazione: NVIDIA ha dato il via libera ai download di libri piratati per la formazione sull'intelligenza artificiale

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.