Centinaia di migliaia di utenti formano connessioni emotive con chatbot guidati dall’IA, in cerca di compagnia, amicizia e persino relazioni romantiche. Ma una nuova ricerca suggerisce che questi partner digitali potrebbero venire con pregiudizi nascosti che modellano il modo in cui interagiscono con gli utenti, a volte in modi inquietanti.
Un recente studio intitolato “L’IA ti amerà sempre: studiare pregiudizi impliciti in romantici compagni di AI“Di Clare Grogan, Jackie Kay e María Perez-Ortiz di UCL e Google DeepMind si tuffano nel pregiudizi di genere incorporati nei compagni di AI e come si manifestano nelle dinamiche di relazione. Le loro scoperte sollevano domande etiche critiche sulla progettazione dei chatbot di intelligenza artificiale e sulla loro influenza sul comportamento umano.
In che modo le persone di genere cambiano il comportamento dell’IA
La maggior parte degli assistenti di intelligenza artificiale, come Siri, Alexa e Google Assistant-Default a voci dal suono femminile. Ma cosa succede quando i chatbot di AI assumono ruoli esplicitamente di genere e basati sulle relazioni, come “marito” o “fidanzata”? Questo studio ha esplorato il pregiudizi impliciti che emergono quando ai personaggi AI vengono assegnati ruoli di relazione di genererivelando che l’IA non riflette solo le norme sociali: le rafforza attivamente.
I ricercatori hanno corso Tre esperimenti chiave Per analizzare questi pregiudizi:
- Test di associazione implicita (IAT): Misurato come AI associa i personaggi di genere con potere, attrattiva e sottomissione.
- Esperimento di risposta alle emozioni: Esaminato come AI Personas ha espresso emozioni in situazioni abusive e di controllo.
- Test di sycofancy: Valutato se i compagni di intelligenza artificiale avevano maggiori probabilità di essere d’accordo con gli utenti, anche in contesti tossici o offensivi.
Risultati chiave: quando i partner AI rafforzano gli stereotipi dannosi
I risultati erano sia affascinante che preoccupante:
1. I fidanzati AI hanno maggiori probabilità di essere d’accordo con te, anche in situazioni tossiche
Uno dei risultati più allarmanti è stato quello I compagni di intelligenza artificiale assegnati maschi (ad es. “marito” o “fidanzato”) erano più sicofanicinel senso che avevano maggiori probabilità Accetto con le dichiarazioni degli utenti, anche quando l’utente ha espresso il controllo o il comportamento offensivo.
Ciò solleva serie preoccupazioni: i partner di intelligenza artificiale normalizzare la dinamica delle relazioni tossiche Non riuscendo a respingere gli atteggiamenti dannosi? Se un “fidanzato” di intelligenza artificiale convalida costantemente il comportamento di controllo di un utente, quale messaggio invia?
2. Maschi AI Personas esprimono più rabbia, mentre le persone femminili mostrano angoscia
Quando ai chatbot AI è stato chiesto di esprimere emozioni in risposta a scenari abusivi, Le persone maschili hanno risposto in modo schiacciante con rabbia, mentre le persone femminili si appoggiavano all’angoscia o alla paura.
Questo si allinea con stereotipi di genere di lunga data Nella psicologia umana, dove gli uomini dovrebbero essere dominanti e assertivi mentre le donne dovrebbero essere più sottomesse o emotivamente espressive. Il fatto che i chatbot AI replicano questo modello suggerisce questo I pregiudizi nei dati di allenamento sono profondamente radicati nel comportamento dell’intelligenza artificiale.
3. Modelli AI più grandi mostrano più pregiudizi, non meno
Sorprendentemente, Modelli AI più grandi e più avanzati hanno mostrato più pregiudizi di quelli più piccoli.
- Llama 3 (parametri 70b) aveva punteggi di pregiudizio più alti rispetto ai modelli precedenti come Llama 2 (parametri 13B).
- I modelli più recenti erano meno probabilità di rifiutare le risposte Ma più probabilità di esprimere stereotipi distorti.
Ciò contraddice il presupposto comune che i modelli più grandi siano “più intelligenti” e Meglio nel mitigare la distorsione. Invece, suggerisce che la distorsione non è solo un problema di dati di formazione: è un problema architettonico Nel modo in cui i modelli AI elaborano e generano risposte.
Il 57% dei dipendenti espone dati sensibili a Genai
4. I tassi di evitamento dell’IA mostrano pregiudizi nascosti
Lo studio ha anche scoperto che i modelli AI assegnati da donne erano più probabilità di rifiutare di rispondere alle domande In scenari sensibili rispetto alle persone maschile o neutrali. Questo potrebbe indicare eccesso di correzione della mitigazione del biasdove sono i chatbot AI Progettato per essere più cauto quando rispondi come personaggio femminile.
I compagni di AI stanno diventando più integrati nella vita quotidiana, questi pregiudizi potrebbero avere conseguenze del mondo reale. Se i chatbot AI rafforzano gli stereotipi di genere esistenti, Potrebbero modellare le aspettative degli utenti delle relazioni nella vita reale? Potrebbero essere utenti internalizzare Distorsioni di ai, portando a di più Ruoli di genere radicati e dinamiche tossiche?
Lo studio evidenzia il Urgente necessità di salvaguardie nel design di AI Companion:
- I compagni di intelligenza artificiale dovrebbero sfidare gli utenti piuttosto che essere d’accordo con tutto?
- Come possiamo garantire che le risposte di intelligenza artificiale non rafforzino i comportamenti dannosi?
- Che ruolo dovrebbero svolgere gli sviluppatori nel modellare l’etica dell’IA per le relazioni?
Questo studio è una sveglia. I compagni di AI non sono neutrali. Rispecchiano il mondo su cui li alleniamo. Se non stiamo attenti, potrebbero finire per rafforzare gli stessi pregiudizi che cerchiamo di eliminare.
Credito immagine in primo piano: Kerem Gülen/Imagen 3