Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

Gli LLM mostrano distinti pregiudizi culturali nei suggerimenti in inglese rispetto a quelli cinesi

byAytun Çelebi
9 Dicembre 2025
in Research
Home Research
Share on FacebookShare on Twitter

Un nuovo studio pubblicato su Natura Comportamento Umano sfida l’ipotesi prevalente secondo cui l’intelligenza artificiale generativa si comporta in modo coerente nelle diverse lingue, rivelando invece che i modelli linguistici di grandi dimensioni (LLM) mostrano tendenze culturali distinte a seconda che siano suggeriti in inglese o cinese. I ricercatori Jackson G. Lu e Lu Doris Zhang hanno esaminato due modelli principali, il GPT di OpenAI e l’ERNIE di Baidu, e hanno scoperto che il linguaggio del prompt cambia effettivamente la “personalità culturale” dell’IA, influenzando il modo in cui interpreta le informazioni, valuta le opzioni e formula raccomandazioni strategiche.

La ricerca ha utilizzato quadri di psicologia culturale per misurare due costrutti primari: orientamento sociale e stile cognitivo. Quando suggeriti in inglese, entrambi i modelli mostravano un orientamento sociale “indipendente”, che valorizzava l’autonomia e l’autodirezione, e uno stile cognitivo “analitico”, caratterizzato da una dipendenza dalla logica formale e dal ragionamento basato su regole. Al contrario, quando suggeriti in cinese, i modelli si sono spostati verso un orientamento “interdipendente” che enfatizza l’armonia sociale e la conformità, insieme a uno stile cognitivo “olistico” che dà priorità al contesto e alle relazioni rispetto agli oggetti focali.

Queste divergenze si sono manifestate in scenari aziendali pratici. Ad esempio, quando è stato chiesto di spiegare il comportamento di una persona, i suggerimenti in inglese hanno portato l’intelligenza artificiale ad attribuire le azioni alla personalità dell’individuo, mentre i suggerimenti in cinese hanno portato ad attribuzioni basate sul contesto sociale. In un compito di marketing, i modelli hanno preferito gli slogan che mettevano in risalto il benessere individuale quando interrogati in inglese, ma hanno preferito quelli che enfatizzavano il benessere collettivo quando interrogati in cinese. Lo studio rileva che la semplice traduzione di una campagna generata in inglese per un mercato cinese potrebbe quindi comportare una discrepanza culturale che fa sì che il messaggio risulti piatto.

Tuttavia, i ricercatori hanno scoperto che questi pregiudizi non sono immutabili. Utilizzando “suggerimenti culturali” – come istruire esplicitamente l’IA ad adottare la prospettiva di una persona media che vive in Cina – gli utenti potrebbero ricalibrare le risposte in inglese del modello per imitare i modelli interdipendenti e olistici solitamente osservati nelle risposte cinesi. Per gestire questi pregiudizi nascosti, gli autori consigliano ai leader organizzativi di considerare la scelta della lingua come una decisione strategica, allineare i linguaggi rapidi con il contesto culturale del pubblico target e utilizzare suggerimenti di personalità culturali per guidare il ragionamento dell’IA verso intuizioni più appropriate.


Credito immagine in primo piano

Tags: AIcineseingleseLLM

Related Posts

Lo studio Nature prevede 2 miliardi di dispositivi sanitari indossabili entro il 2050

Lo studio Nature prevede 2 miliardi di dispositivi sanitari indossabili entro il 2050

7 Gennaio 2026
L'Imperial College di Londra sviluppa l'intelligenza artificiale per accelerare la scoperta di farmaci cardiaci

L'Imperial College di Londra sviluppa l'intelligenza artificiale per accelerare la scoperta di farmaci cardiaci

6 Gennaio 2026
DeepSeek introduce le iperconnessioni vincolate a collettori per R2

DeepSeek introduce le iperconnessioni vincolate a collettori per R2

6 Gennaio 2026
I ricercatori della CMU sviluppano oggetti semoventi alimentati dall’intelligenza artificiale

I ricercatori della CMU sviluppano oggetti semoventi alimentati dall’intelligenza artificiale

31 Dicembre 2025
Il Glean’s Work AI Institute identifica 5 principali tensioni sull’IA

Il Glean’s Work AI Institute identifica 5 principali tensioni sull’IA

31 Dicembre 2025
L’intelligenza artificiale corrompe la ricerca accademica con citazioni di studi inesistenti

L’intelligenza artificiale corrompe la ricerca accademica con citazioni di studi inesistenti

30 Dicembre 2025

Recent Posts

  • Dal 2008, Apple ha pagato agli sviluppatori 550 miliardi di dollari tramite App Store
  • Cowork di Anthropic offre agenti IA di livello sviluppatore ai non programmatori
  • Amazon: il 97% dei nostri dispositivi è pronto per Alexa+
  • Ufficiale: Google Gemini alimenterà Apple Intelligence e Siri
  • La Paramount fa causa alla Warner Bros. per imporre la trasparenza sull'accordo con Netflix

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.