Secondo Andrew Heiss, assistente professore presso la Andrew Young School of Policy Studies della Georgia State University, le istituzioni accademiche hanno registrato una proliferazione di citazioni generate dall’intelligenza artificiale di articoli inesistenti all’interno di pubblicazioni accademiche, minando la legittimità della ricerca. Heiss ha scoperto che i modelli linguistici di grandi dimensioni (LLM) stanno generando citazioni inventate, che successivamente compaiono negli studi professionali. Durante il monitoraggio di fonti fasulle in Google Scholar, Heiss ha osservato dozzine di articoli pubblicati che citavano variazioni di questi studi e riviste inesistenti. A differenza degli articoli generati dall’intelligenza artificiale, che spesso vengono ritirati rapidamente, questi numeri di riviste allucinate vengono citati in altri documentilegittimando di fatto informazioni errate. Questo processo porta studenti e accademici ad accettare queste “fonti” come affidabili senza verificarne l’autenticità, rafforzando l’illusione di credibilità attraverso citazioni ripetute. I bibliotecari di ricerca riferiscono di dedicare fino al 15% delle loro ore lavorative a rispondere a richieste di record inesistenti generate da LLM come ChatGPT o Google Gemini. Heiss notato che le citazioni generate dall’intelligenza artificiale spesso appaiono convincenti, presentando nomi di accademici viventi e titoli che ricordano la letteratura esistente. In alcuni casi, le citazioni erano collegate ad autori reali ma includevano titoli di articoli e titoli di riviste inventati che imitavano il lavoro precedente degli autori o periodici reali. Gli accademici, tra cui la psicologa Iris van Rooij, hanno avvertito che l’emergere di una “scarsa intelligenza artificiale” nelle risorse accademiche minaccia quella che lei ha definito “la distruzione della conoscenza”. A luglio van Rooij e altri firmarono un accordo lettera aperta sostenendo che le università salvaguardino l’istruzione superiore, il pensiero critico, la competenza, la libertà accademica e l’integrità scientifica, sollecitando un’analisi rigorosa del ruolo dell’intelligenza artificiale nell’istruzione. L’ingegnere del software Anthony Moser aveva previsto nel 2023 che i chatbot avrebbero potuto portare gli istruttori a creare programmi con letture inesistenti e gli studenti a fare affidamento sull’intelligenza artificiale per riassumere o scrivere saggi, uno scenario che ora afferma si è materializzato. Moser sostiene che descrivere i risultati del LLM come “allucinazioni” travisa la loro funzione, affermando che i modelli predittivi sono “sempre allucinanti” e sono “strutturalmente indifferenti alla verità”. Ha affermato che i LLM inquinano l’ecosistema dell’informazione a monte, con citazioni inesistenti che si infiltrano nella ricerca e circolano attraverso i documenti successivi, paragonandoli a sostanze chimiche di lunga durata difficili da rintracciare o filtrare. Moser attribuisce il problema a “scelte deliberate”, sostenendo che le obiezioni sono state “ignorate o respinte”. Riconosce che “la cattiva ricerca non è una novità”, ma afferma che i LLM hanno amplificato la pressione preesistente per pubblicare e produrre, il che ha portato a documenti con dati discutibili. Craig Callender, professore di filosofia all’Università della California a San Diego e presidente della Philosophy of Science Association, è d’accordo, osservando che “l’apparenza di legittimità per riviste inesistenti è come il logico prodotto finale di tendenze esistenti”. Callender nota l’esistenza di riviste che accettano articoli spuri a scopo di lucro o per ricerche parziali, creando una crescente “palude” nell’editoria scientifica. Secondo lui, l’intelligenza artificiale aggrava questo problema, con le ricerche di Google assistite dall’intelligenza artificiale che potenzialmente rafforzano l’esistenza percepita di questi giornali fabbricati e propagano la disinformazione. I ricercatori segnalano un diffuso scoraggiamento nel momento in cui i contenuti falsi vengono inseriti nei database di ricerca pubblici, rendendo difficile risalire alle origini delle affermazioni.





