L’intelligenza generale artificiale (AGI), una forma teorica di intelligenza artificiale in grado di imitare l’intelligenza di livello umano, potrebbe apportare cambiamenti radicali al mondo della tecnologia. A differenza dell’intelligenza artificiale ristretta di oggi, programmata per compiti specifici come identificare difetti nei prodotti o riassumere articoli di notizie, l’AGI promette adattabilità a un’ampia gamma di sfide basate sul pensiero. Tuttavia, figure del settore come il CEO di Nvidia Jensen Huang sono comprensibilmente caute quando si tratta di prevedere una tempistica concreta per la sua apparizione.
L’AGI potrebbe essere a 5 anni di distanza
Le implicazioni etiche e sociali dell’AGI sono enormi. Se questi sistemi sviluppassero obiettivi disallineati rispetto a quelli umani, le conseguenze potrebbero essere gravi. Il timore è che un’AGI sufficientemente avanzata possa diventare incontrollabile, con esiti che sfidano le previsioni o l’inversione.
Pur esitando a impegnarsi negli scenari apocalittici favoriti dai media, Huang riconosce la complessità dello sviluppo dell’AGI. Un ostacolo chiave è stabilire criteri oggettivi per definire ciò che costituisce una vera AGI. È puramente basato sulle prestazioni? L’AGI potrebbe essere misurata in base alla sua capacità di ragionare, pianificare o apprendere in modo indipendente?

Huang ha colto l’occasione per condividere con i media il suo punto di vista su questo argomento. Egli ipotizza che la previsione dell’arrivo di un’AGI fattibile dipenda dalla definizione stessa di AGI. Fa un paragone, notando che, nonostante la complessità introdotta dai fusi orari, c’è chiarezza su quando cade il Capodanno e quando inizierà l’anno 2025.
“Se specificassimo che l’AGI è qualcosa di molto specifico, una serie di test in cui un programma software può funzionare molto bene – o forse l’8% meglio della maggior parte delle persone – Credo che entro 5 anni ci arriveremo”, osserva Huang. Propone ipotetici traguardi dell’AGI, come superare gli esperti negli esami legali, economici o medici. Tuttavia, finché il concetto stesso di AGI non sarà definito in modo più concreto, le previsioni precise rimangono difficili.
La questione delle allucinazioni
Un’altra grande preoccupazione sollevata riguarda la questione dell’intelligenza artificiale”allucinazioni” – quelle affermazioni apparentemente plausibili ma in definitiva false generate da alcuni modelli di intelligenza artificiale. Huang, tuttavia, esprime fiducia che questo problema possa essere affrontato sottolineando pratiche di verifica rigorose.
Huang sottolinea la necessità di aggiungere una dimensione di ricerca alla creazione di risposte generate dall’intelligenza artificiale, evidenziandola come “generazione aumentata dal recupero”. Insiste: “Aggiungi una regola: per ogni singola risposta, devi cercare la risposta”, definendo questo metodo come “generazione aumentata dal recupero.Questa strategia, spiega, rispecchia i principi fondamentali dell’alfabetizzazione mediatica, che implicano la valutazione delle origini e del contesto delle informazioni.

La procedura prevede il confronto incrociato delle informazioni della fonte con le verità accertate. Se l’informazione risulta essere anche solo leggermente errata, la fonte dovrebbe essere messa da parte per cercarne un’altra. Huang sottolinea che il ruolo dell’intelligenza artificiale non è solo quello di fornire risposte, ma di condurre indagini preliminari per accertare le risposte più accurate.
Per le risposte che hanno un’importanza significativa, come la guida medica, il capo di Nvidia suggerisce che la verifica delle informazioni attraverso varie fonti attendibili è fondamentale. Ciò implica che l’IA responsabile della generazione delle risposte deve essere in grado di riconoscere quando mancano informazioni sufficienti per fornire una risposta, quando non c’è un chiaro consenso sulla risposta corretta o quando determinate informazioni, come l’esito di eventi futuri, non è ancora disponibile
Credito immagine in primo piano: NVIDIA