Secondo un recente studio che ha coinvolto oltre 10.000 partecipanti, affidarsi a modelli linguistici di grandi dimensioni (LLM) per riassumere le informazioni può ridurre l’acquisizione di conoscenze. I professori di marketing Jin Ho Yun e Shiri Melumad sono coautori di un articolo che descrive in dettaglio questi risultati attraverso sette studi. Ai partecipanti è stato assegnato il compito di apprendere un argomento, come l’orticoltura, tramite un LLM come ChatGPT o una ricerca standard su Google. I ricercatori non hanno posto restrizioni alla durata di utilizzo degli strumenti o all’interazione per i partecipanti. I partecipanti successivamente hanno scritto consigli per un amico in base alle informazioni apprese. I dati hanno mostrato costantemente che coloro che hanno utilizzato i LLM per l’apprendimento hanno percepito di aver imparato meno e di aver investito meno sforzi nella creazione di consulenza. I loro consigli erano più brevi, meno concreti e più generici. Un campione indipendente di lettori ha trovato i consigli derivati dal LLM meno informativi, meno utili ed era meno propenso ad adottarli. Queste differenze persistevano in vari contesti. Un esperimento controllato per potenziali variazioni nell’eclettismo delle informazioni esponendo i partecipanti a fatti identici dalle ricerche di Google e ChatGPT. Un altro esperimento ha mantenuto costante la piattaforma di ricerca, Google, variando se i partecipanti imparassero dai risultati standard di Google o dalla funzionalità Panoramica dell’intelligenza artificiale di Google. Anche con fatti e piattaforma standardizzati, l’apprendimento dalle risposte LLM sintetizzate ha portato a una conoscenza meno profonda rispetto alla raccolta, interpretazione e sintesi delle informazioni tramite collegamenti web standard. Lo studio attribuisce questa diminuzione dell’apprendimento a un ridotto impegno attivo. Le ricerche su Google implicano più “attrito”, richiedendo la navigazione, la lettura, l’interpretazione e la sintesi di vari collegamenti web, il che favorisce una rappresentazione mentale più profonda. Gli LLM eseguono questo processo per l’utente, spostando l’apprendimento da attivo a passivo. I ricercatori non sostengono l’idea di evitare gli LLM visti i loro vantaggi in altri contesti. Invece, suggeriscono agli utenti di diventare più strategici comprendendo dove i LLM sono utili o dannosi per i loro obiettivi. Per risposte rapide e concrete, i LLM sono adatti. Tuttavia, per sviluppare una conoscenza profonda e generalizzabile, fare affidamento esclusivamente sulle sintesi LLM è meno efficace. Ulteriori sperimentazioni hanno coinvolto un modello GPT specializzato che fornisce collegamenti web in tempo reale insieme a risposte sintetizzate. I partecipanti che hanno ricevuto un riepilogo LLM non erano motivati a esplorare le fonti originali, il che ha portato a una conoscenza meno profonda rispetto a quelli che utilizzavano Google standard. La ricerca futura esplorerà gli strumenti di intelligenza artificiale generativa che introducono “sani attriti” per incoraggiare l’apprendimento attivo oltre le risposte facilmente sintetizzabili, in particolare nell’istruzione secondaria. Questo articolo è ripubblicato da La conversazione.




