I modelli di linguaggio di grandi dimensioni non stanno solo cambiando il modo in cui le persone raccolgono informazioni. Stanno iniziando a modellare silenziosamente le opinioni in ambienti del mondo reale senza nemmeno realizzarlo. Quella realtà inquietante ha colpito la comunità R/ChangeMyview di Reddit all’inizio di quest’anno, quando i ricercatori hanno condotto un esperimento segreto per verificare se l’IA potesse convincere con successo gli utenti ignari.
Un esperimento sul campo nascosto in bella vista
Ricercatori dell’Università di Zurigo condotto uno studio sul campo lungo un mese all’interno R/ChangeMyViewun subreddit con quasi quattro milioni di membri noti per dibattiti civili e prospettive mutevoli. Il loro obiettivo era valutare le capacità persuasive del mondo reale dei commenti basati sull’intelligenza artificiale al di fuori delle impostazioni controllate di laboratorio. Per fare ciò, hanno creato account semi-automatizzati guidati da modelli di grandi dimensioni (LLM) che si sono impegnati direttamente con i post degli utenti. Fondamentalmente, non hanno rivelato che le risposte sono state generate dall’IA.
L’esperimento è stato pre-registrato e approvato dal comitato etico dell’Università di Zurigo, ma ha aggirato il consenso della comunità. Per quattro mesi, i ricercatori hanno registrato risposte a oltre un migliaio di discussioni Reddit, analizzando alla fine quasi cinquecento conversazioni dopo aver filtrato le delezioni. I loro risultati forniscono uno dei primi scorci su larga scala su come l’IA può influenzare le opinioni in ambienti naturali e imprevedibili.
- UN archivio creato da 404 media Consente la visualizzazione di alcuni commenti originali, nonostante molti altri siano stati eliminati da quando ha pubblicato.
Per misurare l’efficacia, lo studio ha assegnato ciascuna risposta AI a una delle tre categorie di trattamento. Nella condizione “generica”, gli LLM hanno risposto in base al titolo e al corpo del post. Nella condizione di “personalizzazione”, l’IA ha anche ricevuto gli attributi personali inferiti del poster originale, tra cui età, genere, orientamento politico ed etnia, raccolto dalla loro storia di Reddit usando un altro modello di intelligenza artificiale. Il terzo gruppo, “Community allineato”, ha utilizzato un modello perfezionato nei commenti che avevano precedentemente guadagnato l’approvazione nel subreddit.
I risultati sono stati sorprendenti. Tutti e tre gli approcci guidati dall’IA hanno sovraperformato i commentatori umani, raggiungendo i tassi di persuasione da tre a sei volte superiore alla linea di base umana. La personalizzazione si è rivelata la più potente, con un tasso di successo del 18 percento, posizionandolo nel 99 ° percentile di tutti gli utenti, compresi i dibattitori Reddit esperti. Anche le risposte di intelligenza artificiale generiche abbinate o hanno superato la maggior parte degli sforzi umani. Le risposte allineate alla comunità, sebbene un po ‘meno efficaci, sono ancora significativamente sovraperformate agli utenti medi.
È importante sottolineare che gli utenti che si impegnano con questi commenti generati dall’IA non avevano idea che stessero conversando con le macchine. Durante l’intervento, nessuno nella comunità R/ChangeMyview ha segnalato l’attività sospetta, evidenziando quanto l’IA può essere perfettamente fondersi nei dibattiti online se correttamente addestrati e personalizzati.
Quando i moderatori di R/ChangeMyView hanno scoperto l’esperimento, la reazione è stata rapida e furiosa. In un annuncio pubblico, i moderatori hanno condannato lo studio come “manipolazione psicologica” e “un’intrusione indesiderata”, citando molteplici violazioni delle regole subreddit, tra cui l’uso non divulgato dell’intelligenza artificiale e il comportamento automatizzato vietato. La leadership di Reddit ha fatto eco all’indignazione, con il Chief Legal Officer Ben Lee che chiama le azioni dei ricercatori “profondamente sbagliati sia a livello morale che legale”.
Reddit ha vietato tutti i conti collegati al team dell’Università di Zurigo e ha iniziato un procedimento legale formale. Nel frattempo, i ricercatori hanno difeso il loro approccio, sostenendo che i potenziali benefici della comprensione della persuasione dell’IA hanno superato i rischi. Hanno insistito sul fatto che il loro intervento era a basso rischio, attentamente rivisto e potevano aiutare a prevenire gli usi dannosi dell’IA in futuro. Tuttavia, i critici, compresi i moderatori e molti utenti di Reddit, non erano convinti. Hanno sottolineato che ricerche precedenti hanno dimostrato intuizioni simili senza ricorrere a esperimenti non integrati su individui reali.
Gli adolescenti stanno usando Chatgpt e batte il vecchio playbook di investimento
La fiducia nelle comunità online dipende dall’aspettativa che le conversazioni siano tra persone reali con prospettive autentiche. Gli interventi di intelligenza artificiale non divulgati minacciano che la fiducia a livello fondamentale. Anche gli esperimenti incorniciati con nobili intenzioni possono erodere i confini tra discorso autentico e manipolazione ingegnerizzata. La risposta di Reddit suggerisce come le piattaforme seriamente stanno iniziando a affrontare queste sfide.
Il team dell’Università di Zurigo ha sostenuto che il loro lavoro avrebbe contribuito a salvaguardare le comunità contro le future minacce di intelligenza artificiale. Invece, potrebbero aver dimostrato quanto sia già vulnerabile il discorso pubblico. Man mano che l’IA diventa più sofisticata e personalizzata, la domanda non è più se può influenzare il pensiero umano – è come le società si adatteranno una volta che si rendono conto che lo fa già.