I modelli linguistici di grandi dimensioni come ChatGPT hanno un problema fondamentale: sono statici. Vengono addestrati su una montagna di dati e poi congelati nel tempo, come un libro di testo stampato nel 2023 che non sa nulla del 2024. Ora, i ricercatori di L’improbabile laboratorio di intelligenza artificiale del MIT Avere open source un nuovo quadro che potrebbe cambiare la situazione. Il loro paper, presentato al recente Conferenza NeurIPS 2025svela un sistema chiamato Modelli linguistici autoadattativi (SEAL). L’idea di base è semplice, ma le implicazioni sono enormi: l’intelligenza artificiale impara a farlo insegnare a se stesso. Invece di limitarsi a conservare passivamente le informazioni, SEAL consente a un modello di generare i propri dati di addestramento di alta qualità e quindi di utilizzare tali dati per aggiornare in modo permanente i propri pesi. Ciò è importante perché è il primo vero passo avanti rispetto ai robot statici e “so-tutto-io” e verso modelli di intelligenza artificiale che possono effettivamente evolversi, adattarsi e incorporare nuove informazioni nel tempo.
Perché i modelli di intelligenza artificiale sono cattivi studenti
In questo momento, se vuoi che un LLM impari un fatto nuovo, hai due opzioni sbagliate. Puoi “inserire” le informazioni nella sua finestra di contesto (il prompt), ma dimenticherà questo fatto nel momento in cui la conversazione si ripristina. Oppure puoi eseguire una riqualificazione massiccia e costosa, che è come ristampare un’intera enciclopedia solo per aggiungere una nuova voce. Nessuno di questi metodi è un vero apprendimento. Il team del MIT, che comprende Adam Zweiger, Jyothish Pari e Pulkit Agrawal, ha esaminato il modo in cui gli esseri umani apprendono. Quando uno studente si prepara per un esame, non si limita a rileggere il libro di testo 50 volte. Un bravo studente riscrive le informazioni, creando flashcard, riassumendo i capitoli e creando le proprie note. Questo processo di riformattazione e assimilazione delle informazioni è ciò che le cementa nel loro cervello. SEAL è progettato per essere un bravo studente. Impara a prendere il “libro di testo grezzo” delle nuove informazioni e a generare i propri “appunti di studio”, che il giornale chiama “automodifiche”-in qualunque formato sia più efficace per il proprio apprendimento.
Quindi, come impara a “studiare”?
Apprende attraverso tentativi ed errori, utilizzando un processo chiamato apprendimento per rinforzo. Pensatela come un’intelligenza artificiale che tiene le proprie sessioni di studio.
- Ottieni la lezione: All’IA viene fornita una nuova informazione (come un passaggio di testo).
- Scrivi le note: Genera una “automodifica”: note sintetiche su tali informazioni. Potrebbe trattarsi di un elenco di implicazioni chiave, di una serie di coppie di domande e risposte o semplicemente di un semplice riepilogo.
- Rispondi al quiz: L’intelligenza artificiale viene brevemente messa a punto proprie note e poi subito sottoposto a un quiz sulle nuove informazioni.
- Ottieni il voto: Se supera il quiz, ottiene una “ricompensa”. Questo feedback positivo insegna al modello che le note di “automodifica” appena scritte erano di alta qualità ed efficaci.
- Studia in modo più intelligente: Se fallisce, apprende che le note erano sbagliate e la prossima volta prova un formato diverso. Nel corso di migliaia di questi cicli, l’intelligenza artificiale non si limita ad apprendere nuovi fatti; Esso impara come imparare nuovi fatti in modo più efficiente.
E i risultati?
I ricercatori hanno testato SEAL in due aree chiave e i risultati sono sorprendenti. Innanzitutto, ne hanno testato la capacità di incorporare nuova conoscenza. Hanno fornito passaggi di testo modello e hanno posto domande sui contenuti. Dopo essersi allenato con SEAL, la precisione dell’IA è aumentata 47,0%. Ecco il kicker: quel punteggio ha sovraperformato i dati sintetici generati dal GPT-4.1, molto più grande e potenteche ha ottenuto solo il 46,3%. Il modello più piccolo ha letteralmente imparato ad essere “più intelligente” del suo enorme concorrente in questo compito specifico. In secondo luogo, hanno testato la sua capacità di apprendere una nuova abilità partendo solo da alcuni esempi. Questo è un punto di riferimento del ragionamento astratto notoriamente difficile chiamato ARC. Il compito di SEAL non era solo risolvere il puzzle, ma generare il migliore strategia di apprendimento per se stesso (ad esempio, “usa questi miglioramenti dei dati”, “imposta questo tasso di apprendimento”). L’IA autoadattante ha trovato una strategia di successo Il 72,5% delle volte. Il modello di base, senza questo autoapprendimento, falliva, riuscendoci solo nel 20% dei casi.
Qual è il problema?
Sembra tutto fantastico, ma un pragmatico avrebbe ragione a chiedersi quali siano gli aspetti negativi. I ricercatori sono trasparenti riguardo ai limiti.
- Dimenticanza catastrofica: Il modello soffre ancora del classico problema dell’intelligenza artificiale di “dimenticanza catastrofica”. Mentre si prepara per i nuovi esami, inizia a dimenticare ciò che ha imparato per le prove intermedie. Imparare un fatto nuovo può comunque sovrascrivere quelli vecchi.
- È dolorosamente lento: Questo processo non è veloce. I ricercatori notano che il sovraccarico computazionale è “sostanziale”. Prende 30-45 secondi solo per il grado a separare automodifica durante il ciclo di formazione.
- Ha bisogno di una chiave di risposta: Il sistema attuale si basa sulla presenza di un “quiz” con le risposte corrette per fornire l’importantissimo segnale di ricompensa.
Nonostante questi ostacoli, la squadra guarda avanti. Gli esperti prevedono che entro il 2028 esauriremo il testo generato dall’uomo di alta qualità su cui addestrare l’intelligenza artificiale. Quando raggiungeremo quel “muro di dati”, il progresso dipenderà dalla capacità di un modello di generare i propri dati di addestramento ad alta utilità. Questa ricerca è una tabella di marcia cruciale su come potrebbe funzionare, aprendo la strada ai futuri “agenti” dell’intelligenza artificiale che non si limitano a rispondere alle tue domande, ma imparano attivamente dalle loro interazioni con il mondo e diventano ogni giorno più intelligenti.





