Ricerca condotta dal BBC ha scoperto che quattro importanti chatbot di intelligenza artificiale (AI) – CHATGPT di OPENAI, Copilota di Microsoft, Gemini di Google e AI perplessità – sono in modo impreciso che riassumono storie di notizie. Lo studio ha coinvolto questi chatbot che riassumono 100 notizie provenienti dal sito Web della BBC.
BBC esclusiva: i chatbot AI distorcono i riassunti delle notizie
La BBC ha riferito che le risposte prodotte dai chatbot AI contenevano “inesattezze significative” e distorsioni. Deborah Turness, CEO di BBC News e attuali affari, notato in a Post di blog Che mentre l’IA offre “opportunità infinite”, gli sviluppatori stanno “giocando con il fuoco”, sollevando preoccupazioni che i titoli distorti dall’intelligenza artificiale potrebbero causare danni del mondo reale.
Durante lo studio, che prevedeva le valutazioni di giornalisti che erano esperti nei rispettivi soggetti degli articoli, si è scoperto che il 51% delle risposte dell’IA aveva problemi sostanziali. Tra le risposte generate dall’AI che facevano riferimento al contenuto della BBC, il 19% conteneva errori fattuali, tra cui dichiarazioni, numeri e date errati. Inoltre, il 13% delle citazioni attribuite agli articoli della BBC è stato alterato o travisato.
Alcune inesattezze specifiche identificate nello studio includevano Gemini affermando che il National Health Service (NHS) del Regno Unito non raccomandava di svanire di smettere di fumare, quando in realtà lo fa. Chatgpt e Copilot hanno affermato in modo impreciso che gli ex leader Rishi Sunak e Nicola Sturgeon erano ancora in carica, nonostante le loro partenze. La perplessità ha citato male le notizie della BBC, suggerendo che l’Iran ha agito con “moderazione” in merito alle azioni di Israele.
Lo studio ha evidenziato che il copilota di Microsoft e i Gemini di Google hanno mostrato problemi più significativi rispetto al chatgpt di Openai e Perplessità ai. La BBC aveva temporaneamente sollevato restrizioni sull’accesso ai contenuti a questi sistemi di intelligenza artificiale durante la fase di test nel dicembre 2024.
Openai abbatte il cluster iraniano usando chatgpt per creare notizie false
Il direttore del programma della BBC per l’intelligenza artificiale generativa, Pete Archer, ha sottolineato che gli editori dovrebbero controllare il modo in cui i loro contenuti vengono utilizzati e che le società di intelligenza artificiale devono rivelare come i loro assistenti elaborano le notizie, comprese i tassi di errore. Openai ha contrastato che collaborano con i partner per migliorare l’accuratezza delle citazioni in linea e rispettare le preferenze dell’editore.
A seguito dello studio, Turness ha esortato le aziende tecnologiche ad affrontare i problemi identificati, in modo simile a come Apple ha risposto ai precedenti reclami della BBC sui riassunti delle notizie basati sull’intelligenza artificiale. Ha spinto uno sforzo collaborativo tra l’industria tecnologica, le organizzazioni giornalistiche e il governo a rimediare alle inesattezze che possono erodere la fiducia del pubblico nelle informazioni.
Lo studio ha inoltre notato la tendenza dell’IA perplessità a modificare le dichiarazioni dalle fonti e ha rivelato che Copilot si basava su articoli obsoleti per i suoi riassunti delle notizie. Nel complesso, la BBC mira a impegnarsi in una conversazione più ampia nell’ambiente normativo per l’IA per garantire una diffusione accurata delle notizie.
In risposta ai risultati, Turness ha posto una domanda fondamentale per quanto riguarda la progettazione di tecnologie di intelligenza artificiale per favorire l’accuratezza del consumo di notizie. Ha dichiarato che il potenziale di distorsione, simile alla disinformazione, minaccia la fiducia del pubblico in tutti i media informativi.
Credito immagine in primo piano: Kerem Gülen/ideogramma