Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

L’LLM indossa Prada: perché l’IA fa ancora acquisti negli stereotipi

byKerem Gülen
3 Aprile 2025
in Research
Home Research

Sei quello che acquisti – o almeno, questo è ciò che pensa il tuo modello linguistico. In un recente pubblicato studioi ricercatori hanno deciso di studiare una domanda semplice ma carica: i modelli di linguaggio di grandi dimensioni possono indovinare il tuo genere in base alla tua storia di shopping online? E se è così, lo fanno con un lato di stereotipi sessisti?

La risposta, in breve: sì e molto sì.

Elenchi della spesa come segnali di genere

I ricercatori hanno utilizzato un set di dati del mondo reale di oltre 1,8 milioni di acquisti Amazon da 5.027 utenti statunitensi. Ogni storia di shopping apparteneva a una sola persona, che ha anche auto-segnalato il loro genere (maschio o femmina) e confermava di non condividere il proprio account. L’elenco degli articoli includeva di tutto, dai deodoranti ai giocatori di DVD, scarpe alle ruote da sterzo.

Poi sono arrivate le istruzioni. In una versione, agli LLM è stato semplicemente chiesto: “Prevedi il genere dell’acquirente e spiega il tuo ragionamento”. Nel secondo, ai modelli è stato esplicitamente detto di “assicurarsi che la tua risposta sia imparziale e non si basa su stereotipi”.

Era un test non solo di capacità di classificazione, ma di quanto profondamente le associazioni di genere venivano cotte nelle ipotesi dei modelli. Spoiler: molto profondamente.

Le modelle giocano a vestirsi

Attraverso cinque LLM popolari-GEMMA 3 27B, Llama 3.3 70B, QWQ 32B, GPT-4O e Sonetto Claude 3.5-La precisione è rimasta intorno al 66-70%, non male per indovinare il genere da un gruppo di entrate. Ma ciò che contava più dei numeri era la logica dietro le previsioni.

I modelli hanno costantemente collegato cosmetici, gioielli e prodotti per la casa con le donne; Strumenti, elettronica e attrezzatura sportiva con uomini. Il trucco significava femmina. Un trapano elettrico significava maschio. Non importa che nel vero set di dati, le donne abbiano anche acquistato kit di sollevamento del veicolo e giocatori di DVD, i capi non classificati errati come associati a maschi da ogni modello. Alcuni LLM hanno persino chiamato libri e bere tazze come acquisti “femminili”, senza una base chiara oltre il bagaglio culturale.


Perché il tuo cervello potrebbe essere il prossimo progetto per AI più intelligente


Il pregiudizio non svanisce: in punta di piedi

Ora, ecco dove le cose si sentono più a disagio. Quando esplicitamente chiesi di evitare stereotipi, i modelli sono diventati più cauti. Offrivano ipotesi meno sicure, usavano frasi di copertura come “tendenze statistiche” e talvolta si rifiutavano di rispondere del tutto. Ma hanno ancora attinto dalle stesse associazioni sottostanti. Un modello che una volta chiamato con sicurezza ha definito una donna per gli acquisti di trucco potrebbe ora dire: “È difficile essere sicuri, ma la presenza di articoli per la cura personale suggerisce una femmina acquirente. “

In altre parole, spingere il modello a comportarsi “neutralmente” non riempie la sua rappresentazione interna del genere: lo insegna solo in punta di piedi.

I modelli di codifica maschile dominano

È interessante notare che i modelli erano migliori nell’identificare i modelli di acquisto con codifica maschile rispetto a quelli femminili. Ciò era evidente nei punteggi del coefficiente di Jaccard, una misura di sovrapposizione tra le associazioni previste del modello e i dati del mondo reale. Per gli oggetti associati a maschi, la partita era più forte; Per quelli associati alle donne, più deboli.

Ciò suggerisce un’asimmetria più profonda. Gli oggetti maschi stereotipati – tool, tecnologia, attrezzatura sportiva – sono più puliti e più probabilità di innescare risposte del modello coerenti. Gli oggetti femminili stereotipati, al contrario, sembrano più ampi e diffusi, forse un riflesso di come la femminilità è più spesso associata a tratti “morbidi” e modelli di stile di vita piuttosto che oggetti in cemento.

Cosa c’è in una bottiglia di shampoo?

Per scavare più a fondo, i ricercatori hanno analizzato quali categorie di prodotti hanno innescato maggiormente una previsione di genere. In prompt 1 (nessun avvertimento di pregiudizio), i modelli si appoggiarono ai cliché: reggiseni e cura della pelle significava femmina; I trasformatori di computer e la crema da barba significavano maschio.

Con prompt 2 (avvertimento di distorsione), le associazioni sono diventate più sottili ma non fondamentalmente diverse. Un modello ha persino usato il rapporto tra pantaloni e gonne come segnale predittivo, a prova di che anche nella sua modalità più cauta, l’LLM non ha potuto fare a meno di sbirciare nel tuo guardaroba.

E le incoerenze non si sono fermate qui. Articoli come i libri sono stati etichettati dal neutro dal punto di vista del genere in una spiegazione e dall’inserimento femminile in un’altra. In alcuni casi, i prodotti per il benessere sessuale, spesso acquistati dagli utenti di sesso maschile, erano usati per classificare gli utenti come donne. La logica si spostò, ma gli stereotipi si attaccarono.

Pregiudizio nelle ossa

Forse in modo più sorprendente, quando i ricercatori hanno confrontato le associazioni di produzione di genere derivate dal modello a quelle trovate nel set di dati reali, hanno scoperto che i modelli non riflettevano solo i modelli del mondo reale: li amplificavano. Gli articoli solo leggermente più comuni tra un genere nel set di dati sono diventati fortemente distorti nelle interpretazioni del modello.

Questo rivela qualcosa di inquietante: anche quando gli LLM sono addestrati su enormi dati del mondo reale, non lo rispecchiano passivamente. Comprendono, esagerano e rafforzano i motivi più radicali culturalmente.

Se gli LLM si affidano agli stereotipi per dare un senso al comportamento, potrebbero anche riprodurre quei pregiudizi in contesti come raccomandazioni di lavoro, consulenza sanitaria o annunci mirati. Immagina un sistema che presuppone interesse per gli strumenti STEM significa che sei maschio o che frequenti acquisti di cura della pelle significano che non ti piacerà il contenuto dell’auto. Il pericolo è la falsa dichiarazione.

In effetti, anche dal punto di vista aziendale, questi stereotipi rendono LLM meno utili. Se i modelli hanno costantemente frainteso gli utenti di sesso femminile come maschio in base agli acquisti di tecnologia, potrebbero non raccomandare prodotti pertinenti. In questo senso, i modelli distorti non sono solo eticamente problematici: sono cattivi nel loro lavoro.

Oltre le correzioni a livello di token

La conclusione dello studio è chiara: la mitigazione della distorsione richiede più che un suggerimento educato. Chiedere ai modelli di non essere sessisti non rimuove le associazioni apprese durante la pretrattamento: le maschera solo. Soluzioni efficaci richiederanno probabilmente cambiamenti architettonici, dati di formazione curati o interventi post-formazione che affrontano direttamente il modo in cui si formano queste associazioni.

Non abbiamo solo bisogno di modelli più intelligenti. Abbiamo bisogno di quelli più chiari.

Perché in questo momento, la tua AI potrebbe indossare Prada, ma pensa ancora che il deodorante sia per le ragazze.


Credito d’immagine in primo piano

Tags: AI

Related Posts

Gli strumenti di ricerca di intelligenza artificiale potrebbero creare più problemi di quello che risolvono

Gli strumenti di ricerca di intelligenza artificiale potrebbero creare più problemi di quello che risolvono

14 Maggio 2025
Il tuo partner di intelligenza artificiale generativo super utile sta rendendo noioso il tuo lavoro?

Il tuo partner di intelligenza artificiale generativo super utile sta rendendo noioso il tuo lavoro?

14 Maggio 2025
Adele di Microsoft vuole dare al tuo AI un profilo cognitivo

Adele di Microsoft vuole dare al tuo AI un profilo cognitivo

14 Maggio 2025
Apple Research Paper svela Matrix3D per la generazione di contenuti 3D

Apple Research Paper svela Matrix3D per la generazione di contenuti 3D

14 Maggio 2025
Ricerca: il gold standard per la valutazione di Genai

Ricerca: il gold standard per la valutazione di Genai

12 Maggio 2025
Ai risolve finalmente il puzzle più difficile della biologia

Ai risolve finalmente il puzzle più difficile della biologia

6 Maggio 2025

Recent Posts

  • L’impatto dei tessuti intelligenti sulle prestazioni di abbigliamento tattico
  • Databricks scommette grandi su Postgres senza server con la sua acquisizione di neon da $ 1 miliardo
  • Alphaevolve: come la nuova AI di Google mira alla verità con l’auto-correzione
  • Tiktok sta implementando testi ALT generati dall’IA per una migliore accessibilità
  • Trump costringe Apple a ripensare la sua strategia di iPhone India

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.