Google ha compiuto un altro passo significativo in avanti nella corsa per migliorare l’accuratezza e l’affidabilità dei modelli di intelligenza artificiale con introduzione di DataGemma, un approccio innovativo che combina i suoi modelli linguistici di grandi dimensioni (LLM) Gemma e il progetto Data Commons. Qui l’attenzione è rivolta a una tecnica chiamata generazione aumentata dal recupero (RAG)un metodo che ha guadagnato popolarità nelle aziende, ma ora, con DataGemma, Google punta a introdurlo nel mainstream dell’intelligenza artificiale.
In sostanza, RAG cerca di risolvere una delle sfide più grandi affrontate dagli LLM: il problema delle allucinazioni. Nel mondo dell’IA generativa, le allucinazioni si riferiscono a casi in cui il modello genera informazioni che sembrano plausibili ma sono fattualmente errate. Questo è un problema comune nei sistemi di IA, soprattutto quando mancano di una solida base di dati fattuali. L’obiettivo di Google con DataGemma è di “sfruttare la conoscenza di Data Commons per migliorare la fattualità e il ragionamento degli LLM”, affrontando questo problema di petto.
Cos’è RAG?
La generazione aumentata dal recupero è un punto di svolta perché non si basa solo su modelli di IA pre-addestrati per generare risposte. Invece, recupera dati rilevanti da una fonte esterna prima di generare una risposta. Questo approccio consente all’IA di fornire risposte più accurate e contestualmente rilevanti estraendo dati del mondo reale dai repository. Nel caso di DataGemma, la fonte di questi dati è Il progetto Data Commons di Googleuna risorsa accessibile al pubblico che aggrega dati statistici provenienti da istituzioni autorevoli come le Nazioni Unite.
Questa mossa di Google di integrare Data Commons con i suoi modelli di intelligenza artificiale generativa rappresenta l’ prima implementazione su larga scala basata su cloud di RAG. Mentre molte aziende hanno utilizzato RAG per basare i propri modelli di IA su dati proprietari, l’utilizzo di una risorsa di dati pubblica come Data Commons porta le cose a un livello completamente nuovo. Segnala l’intenzione di Google di utilizzare dati verificabili e di alta qualità per rendere l’IA più affidabile e utile in un’ampia gamma di applicazioni.

L’approccio a due punte di Google
Secondo Google, DataGemma adotta “due approcci distinti” per integrare il recupero dei dati con l’output LLM. Il primo metodo è chiamato generazione di recupero intervallata (RIG). Con RIG, l’IA recupera dati statistici specifici per verificare i fatti delle domande poste nel prompt della query. Ad esempio, se un utente chiede “L’uso delle energie rinnovabili è aumentato nel mondo?”, il sistema può estrarre statistiche aggiornate da Data Commons e citarle direttamente nella sua risposta. Ciò non solo migliora l’accuratezza fattuale della risposta, ma fornisce anche agli utenti fonti concrete per le informazioni.
Il secondo metodo è più in linea con l’approccio RAG tradizionale. Qui, il modello recupera i dati per generare risposte più complete e dettagliate, citando le fonti dei dati per creare un quadro più completo. “DataGemma recupera informazioni contestuali rilevanti da Data Commons prima che il modello avvii la generazione della risposta”, Google afferma. Ciò garantisce che l’IA abbia a portata di mano tutti i fatti necessari prima di iniziare a generare una risposta, riducendo notevolmente la probabilità di allucinazioni.
Una caratteristica fondamentale di DataGemma è l’utilizzo di Google Modello Gemini 1.5che vanta un’impressionante finestra di contesto fino a 128.000 token. In termini di IA, la finestra di contesto si riferisce a quante informazioni il modello può contenere in memoria durante l’elaborazione di una query. Più grande è la finestra, più dati il modello può prendere in considerazione quando genera una risposta. Gemini 1.5 può persino scalare fino a un incredibile 1 milione di tokenconsentendo di estrarre enormi quantità di dati da Data Commons e di utilizzarli per elaborare risposte dettagliate e articolate.
Questa finestra di contesto estesa è fondamentale perché consente a DataGemma di “ridurre al minimo il rischio di allucinazioni e migliorare l’accuratezza delle risposte”, secondo Google. Mantenendo in memoria informazioni più pertinenti, il modello può confrontare il proprio output con dati del mondo reale, assicurando che le risposte fornite non siano solo pertinenti, ma anche basate sui fatti.

Oltre gli LLM
Sebbene l’integrazione delle tecniche RAG sia entusiasmante di per sé, DataGemma rappresenta anche un cambiamento più ampio nel panorama dell’intelligenza artificiale. Non si tratta più solo di grandi modelli linguistici che generano testo o rispondono a domande in base a ciò su cui sono stati addestrati. Il futuro dell’IA risiede nella sua capacità di integrare con fonti di dati in tempo realeassicurando che i suoi risultati siano il più possibile accurati e aggiornati.
Google non è l’unica a perseguire questa causa. Proprio la scorsa settimana, OpenAI svelato suo Progetto “Fragola”che adotta un approccio diverso per migliorare il ragionamento dell’IA. Strawberry utilizza un metodo noto come “catena di pensiero”dove l’IA spiega i passaggi o i fattori che usa per arrivare a una previsione o conclusione. Sebbene diverso da RAG, l’obiettivo è simile: rendere l’IA più trasparente, affidabile e utile fornendo approfondimenti sul ragionamento alla base delle sue risposte.
Quali sono i prossimi passi per DataGemma?
Per ora, DataGemma è ancora un progetto in fase di sviluppo. Google riconosce che sono necessari ulteriori test e sviluppi prima che il sistema possa essere reso ampiamente disponibile al pubblico. Tuttavia, i primi risultati sono promettenti. Google sostiene che sia gli approcci RIG che RAG hanno portato a miglioramenti nella qualità dell’output, con “meno allucinazioni per casi d’uso nella ricerca, nel processo decisionale o semplicemente per soddisfare la curiosità.”
È chiaro che Google, insieme ad altre aziende leader di intelligenza artificiale, sta andando oltre le capacità di base dei grandi modelli linguistici. Il futuro dell’intelligenza artificiale risiede nella sua capacità di integrarsi con fonti di dati esterne, che siano database pubblici come Data Commons o dati aziendali proprietari. In questo modo, l’intelligenza artificiale può andare oltre i suoi limiti e diventare uno strumento più potente per il processo decisionale, la ricerca e l’esplorazione.
Credito immagine in evidenza: Google