Dataconomy IT
  • News
  • Industry
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

I riassunti delle notizie AI sono pericolosamente inaccurati, avverte la BBC

byKerem Gülen
12 Febbraio 2025
in Artificial Intelligence, News
Home Artificial Intelligence

Ricerca condotta dal BBC ha scoperto che quattro importanti chatbot di intelligenza artificiale (AI) – CHATGPT di OPENAI, Copilota di Microsoft, Gemini di Google e AI perplessità – sono in modo impreciso che riassumono storie di notizie. Lo studio ha coinvolto questi chatbot che riassumono 100 notizie provenienti dal sito Web della BBC.

BBC esclusiva: i chatbot AI distorcono i riassunti delle notizie

La BBC ha riferito che le risposte prodotte dai chatbot AI contenevano “inesattezze significative” e distorsioni. Deborah Turness, CEO di BBC News e attuali affari, notato in a Post di blog Che mentre l’IA offre “opportunità infinite”, gli sviluppatori stanno “giocando con il fuoco”, sollevando preoccupazioni che i titoli distorti dall’intelligenza artificiale potrebbero causare danni del mondo reale.

Durante lo studio, che prevedeva le valutazioni di giornalisti che erano esperti nei rispettivi soggetti degli articoli, si è scoperto che il 51% delle risposte dell’IA aveva problemi sostanziali. Tra le risposte generate dall’AI che facevano riferimento al contenuto della BBC, il 19% conteneva errori fattuali, tra cui dichiarazioni, numeri e date errati. Inoltre, il 13% delle citazioni attribuite agli articoli della BBC è stato alterato o travisato.

Alcune inesattezze specifiche identificate nello studio includevano Gemini affermando che il National Health Service (NHS) del Regno Unito non raccomandava di svanire di smettere di fumare, quando in realtà lo fa. Chatgpt e Copilot hanno affermato in modo impreciso che gli ex leader Rishi Sunak e Nicola Sturgeon erano ancora in carica, nonostante le loro partenze. La perplessità ha citato male le notizie della BBC, suggerendo che l’Iran ha agito con “moderazione” in merito alle azioni di Israele.

Lo studio ha evidenziato che il copilota di Microsoft e i Gemini di Google hanno mostrato problemi più significativi rispetto al chatgpt di Openai e Perplessità ai. La BBC aveva temporaneamente sollevato restrizioni sull’accesso ai contenuti a questi sistemi di intelligenza artificiale durante la fase di test nel dicembre 2024.


Openai abbatte il cluster iraniano usando chatgpt per creare notizie false


Il direttore del programma della BBC per l’intelligenza artificiale generativa, Pete Archer, ha sottolineato che gli editori dovrebbero controllare il modo in cui i loro contenuti vengono utilizzati e che le società di intelligenza artificiale devono rivelare come i loro assistenti elaborano le notizie, comprese i tassi di errore. Openai ha contrastato che collaborano con i partner per migliorare l’accuratezza delle citazioni in linea e rispettare le preferenze dell’editore.

A seguito dello studio, Turness ha esortato le aziende tecnologiche ad affrontare i problemi identificati, in modo simile a come Apple ha risposto ai precedenti reclami della BBC sui riassunti delle notizie basati sull’intelligenza artificiale. Ha spinto uno sforzo collaborativo tra l’industria tecnologica, le organizzazioni giornalistiche e il governo a rimediare alle inesattezze che possono erodere la fiducia del pubblico nelle informazioni.

Lo studio ha inoltre notato la tendenza dell’IA perplessità a modificare le dichiarazioni dalle fonti e ha rivelato che Copilot si basava su articoli obsoleti per i suoi riassunti delle notizie. Nel complesso, la BBC mira a impegnarsi in una conversazione più ampia nell’ambiente normativo per l’IA per garantire una diffusione accurata delle notizie.

In risposta ai risultati, Turness ha posto una domanda fondamentale per quanto riguarda la progettazione di tecnologie di intelligenza artificiale per favorire l’accuratezza del consumo di notizie. Ha dichiarato che il potenziale di distorsione, simile alla disinformazione, minaccia la fiducia del pubblico in tutti i media informativi.


Credito immagine in primo piano: Kerem Gülen/ideogramma

Tags: AIIn primo pianoNotizia

Recent Posts

  • Algoritmo di rilevamento degli oggetti Yolo
  • XgBoost
  • Llamaindex
  • Set di convalida
  • Errore di tipo II

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

Follow Us

Social icon element need JNews Essential plugin to be activated.
  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.