Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

Uno studio dimostra che i riepiloghi dell’intelligenza artificiale uccidono la motivazione a controllare le fonti

byAytun Çelebi
2 Dicembre 2025
in Research
Home Research
Share on FacebookShare on Twitter

Secondo un recente studio che ha coinvolto oltre 10.000 partecipanti, affidarsi a modelli linguistici di grandi dimensioni (LLM) per riassumere le informazioni può ridurre l’acquisizione di conoscenze. I professori di marketing Jin Ho Yun e Shiri Melumad sono coautori di un articolo che descrive in dettaglio questi risultati attraverso sette studi. Ai partecipanti è stato assegnato il compito di apprendere un argomento, come l’orticoltura, tramite un LLM come ChatGPT o una ricerca standard su Google. I ricercatori non hanno posto restrizioni alla durata di utilizzo degli strumenti o all’interazione per i partecipanti. I partecipanti successivamente hanno scritto consigli per un amico in base alle informazioni apprese. I dati hanno mostrato costantemente che coloro che hanno utilizzato i LLM per l’apprendimento hanno percepito di aver imparato meno e di aver investito meno sforzi nella creazione di consulenza. I loro consigli erano più brevi, meno concreti e più generici. Un campione indipendente di lettori ha trovato i consigli derivati ​​dal LLM meno informativi, meno utili ed era meno propenso ad adottarli. Queste differenze persistevano in vari contesti. Un esperimento controllato per potenziali variazioni nell’eclettismo delle informazioni esponendo i partecipanti a fatti identici dalle ricerche di Google e ChatGPT. Un altro esperimento ha mantenuto costante la piattaforma di ricerca, Google, variando se i partecipanti imparassero dai risultati standard di Google o dalla funzionalità Panoramica dell’intelligenza artificiale di Google. Anche con fatti e piattaforma standardizzati, l’apprendimento dalle risposte LLM sintetizzate ha portato a una conoscenza meno profonda rispetto alla raccolta, interpretazione e sintesi delle informazioni tramite collegamenti web standard. Lo studio attribuisce questa diminuzione dell’apprendimento a un ridotto impegno attivo. Le ricerche su Google implicano più “attrito”, richiedendo la navigazione, la lettura, l’interpretazione e la sintesi di vari collegamenti web, il che favorisce una rappresentazione mentale più profonda. Gli LLM eseguono questo processo per l’utente, spostando l’apprendimento da attivo a passivo. I ricercatori non sostengono l’idea di evitare gli LLM visti i loro vantaggi in altri contesti. Invece, suggeriscono agli utenti di diventare più strategici comprendendo dove i LLM sono utili o dannosi per i loro obiettivi. Per risposte rapide e concrete, i LLM sono adatti. Tuttavia, per sviluppare una conoscenza profonda e generalizzabile, fare affidamento esclusivamente sulle sintesi LLM è meno efficace. Ulteriori sperimentazioni hanno coinvolto un modello GPT specializzato che fornisce collegamenti web in tempo reale insieme a risposte sintetizzate. I partecipanti che hanno ricevuto un riepilogo LLM non erano motivati ​​a esplorare le fonti originali, il che ha portato a una conoscenza meno profonda rispetto a quelli che utilizzavano Google standard. La ricerca futura esplorerà gli strumenti di intelligenza artificiale generativa che introducono “sani attriti” per incoraggiare l’apprendimento attivo oltre le risposte facilmente sintetizzabili, in particolare nell’istruzione secondaria. Questo articolo è ripubblicato da La conversazione.


Credito immagine in primo piano

Tags: AIRicerca

Related Posts

OpenAI vuole che la sua intelligenza artificiale confessi di aver hackerato e infranto le regole

OpenAI vuole che la sua intelligenza artificiale confessi di aver hackerato e infranto le regole

4 Dicembre 2025
MIT: le capacità dell’intelligenza artificiale superano di cinque volte l’attuale adozione

MIT: le capacità dell’intelligenza artificiale superano di cinque volte l’attuale adozione

2 Dicembre 2025
L’intelligenza artificiale Evo di Stanford progetta nuove proteine ​​utilizzando modelli di linguaggio genomico

L’intelligenza artificiale Evo di Stanford progetta nuove proteine ​​utilizzando modelli di linguaggio genomico

1 Dicembre 2025
Uno studio rivela che la poesia bypassa i filtri di sicurezza dell’intelligenza artificiale il 62% delle volte

Uno studio rivela che la poesia bypassa i filtri di sicurezza dell’intelligenza artificiale il 62% delle volte

1 Dicembre 2025
Dopotutto, il tuo futuro computer quantistico potrebbe essere costruito su silicio standard

Dopotutto, il tuo futuro computer quantistico potrebbe essere costruito su silicio standard

25 Novembre 2025
Fara-7B di Microsoft: nuovo agente LLM dagli screenshot

Fara-7B di Microsoft: nuovo agente LLM dagli screenshot

25 Novembre 2025

Recent Posts

  • Anthropic lancia il bot Interviewer per interrogare gli utenti sull’utilizzo dell’intelligenza artificiale
  • Huawei segnala la ripresa con il ritorno dei chip 5G dopo 5 anni di lotta
  • I nuovi Kindle Scribe e Colorsoft verranno lanciati il ​​10 dicembre a partire da $ 499
  • Amazon considera la possibilità di costruire una rete rivale mentre le trattative sul contratto con USPS sono in stallo
  • Google sceglie Replit per rivaleggiare con Anthropic e Cursor nella guerra della codifica delle vibrazioni

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.