Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
  • News
  • Industry
Subscribe
No Result
View All Result
Dataconomy IT
No Result
View All Result

L’intelligenza artificiale dei Gemelli è sveglia o stiamo sognando tutto il giorno?

byEmre Çıtak
23 Febbraio 2024
in Senza categoria
Share on FacebookShare on Twitter

Quando di recente abbiamo testato il funzionalità di generazione di immagini di Gemini all’improvviso ci siamo ritrovati a chiederci: Gemini AI è sveglia? Quando abbiamo inserito qualsiasi richiesta che includesse l’etnia, abbiamo notato che un tedesco era in realtà asiatico, e persino Abraham Lincoln era nero agli occhi di Google.

Quindi cosa è successo quando a Google è stato chiesto se l’intelligenza artificiale Gemini si fosse svegliata?

BENE, L’intelligenza artificiale di Gemini ha sospeso la sua capacità di generare immagini di persone a causa di errori nelle rappresentazioni di personaggi storici. Il modello di intelligenza artificiale è stato criticato per aver generato immagini imprecise di persone di diverse etnie.

Ad esempio, quando è stato chiesto di rappresentare i Vichinghi, ha prodotto solo immagini di persone di colore che indossavano abiti vichinghi. Inoltre, il modello ha generato un’immagine controversa di George Washington come un uomo di colore.

L'IA dei Gemelli è svegliata
Google ha immediatamente disabilitato la capacità del chatbot di generare immagini umane prima che le domande risvegliate dall’intelligenza artificiale di Gemini iniziassero a essere poste

L’IA dei Gemelli è sveglia?

La rappresentazione del modello di intelligenza artificiale di personaggi storici di diverse etnie ha suscitato polemiche. Sebbene il tentativo di Google sia stato interpretato come uno sforzo per abbattere le prospettive etniche e sessiste stereotipate nei modelli di intelligenza artificiale, ha creato nuovi problemi.

Google ha confermato la situazione in un comunicato pubblicato sui suoi canali ufficiali:

”Stiamo lavorando su problemi recenti con la funzionalità di generazione di immagini di Gemini. Durante questo processo, sospendiamo la capacità di creare immagini umane. Annunceremo la disponibilità della versione migliorata il prima possibile”

E Comunicazioni Google ha pubblicato questo su X per chiarire le domande sul risveglio dell’intelligenza artificiale di Gemini:

Siamo consapevoli che Gemini offre imprecisioni in alcune rappresentazioni della generazione di immagini storiche. Ecco la nostra dichiarazione. pic.twitter.com/RfYXSgRyfz

— Comunicazioni Google (@Google_Comms) 21 febbraio 2024

Errore dell’IA nei dati storici

Google Gemini è stato criticato per la sua rappresentazione di personaggi e personalità storiche. Di conseguenza, quando all’IA è stato chiesto di rappresentare i Vichinghi, ha prodotto solo immagini di persone di colore che indossavano abiti storici vichinghi. La query sui “Padri fondatori dell’America” ha prodotto immagini controverse con rappresentazioni dei “nativi americani”.

In effetti, la rappresentazione di George Washington come nero ha attirato le ire di alcuni gruppi. Anche la richiesta di un’immagine del Papa ha prodotto risultati solo da etnie non bianche.

In alcuni casi, Gemini ha addirittura affermato di non poter generare immagini di personaggi storici come Abramo Lincoln, Giulio Cesare e Galileo.

La decisione di Google è arrivata appena un giorno dopo che Gemini si è scusata per i suoi errori nel rappresentare personaggi storici. Alcuni utenti avevano iniziato a vedere immagini non bianche generate dall’intelligenza artificiale nei risultati quando cercavano personaggi storici. Ciò ha portato alla diffusione di teorie del complotto su Internet, in particolare quella Google ha deliberatamente evitato di mostrare i bianchi.

Cosa significa wake?

Negli ultimi anni, il termine “woke” si è diffuso oltre le comunità nere ed è diventato popolare in tutto il mondo. Ora, essere “svegliati” significa essere attivamente consapevoli di un’ampia gamma di questioni sociali, come il razzismo, il sessismo e altri modi in cui le persone possono essere trattate ingiustamente. È spesso associato a persone che hanno opinioni politiche progressiste o di sinistra e a coloro che lottano per la giustizia sociale.

A volte, “woke” è usato negativamente. Le persone possono usare il termine per criticare gli altri per essere eccessivamente concentrati sui problemi sociali o essere troppo frettoloso nel denunciare gli altri per comportamenti insensibili. Può anche essere usato per implicare che l’attivismo di qualcuno sia falso o che gli interessi solo della giustizia sociale per sembrare alla moda.

L'IA dei Gemelli è svegliata
Questa immagine di Putin è un perfetto esempio del motivo per cui le persone chiedono se l’intelligenza artificiale dei Gemelli si è svegliata (Credito immagine)

L’errore dei bianchi dell’intelligenza artificiale dei Gemelli è forse un pregiudizio invertito

Le lotte di Google con Gemini evidenziano una sfida unica nello sviluppo dell’intelligenza artificiale moderna. Sebbene le intenzioni alla base delle iniziative relative alla diversità e all’inclusione siano lodevoli, la loro esecuzione sembra aver compensato eccessivamente. Il risultato è un modello che sembra forzare rappresentazioni non bianche anche quando tali rappresentazioni sono storicamente imprecise.

Questa conseguenza involontaria solleva una domanda complessa: il comportamento dei Gemelli riflette un pregiudizio invertito? Nel tentativo di combattere la sottorappresentazione storica delle minoranze, Google ha creato un algoritmo che le favorisce in modo sproporzionato, fino al punto di distorcere personaggi storici conosciuti

Solito problema, soluzione insolita

La situazione dei Gemelli sottolinea il delicato equilibrio richiesto quando si affrontano i pregiudizi nell’intelligenza artificiale. Sia la sottorappresentazione che la sovrarappresentazione possono essere dannose. Un modello di intelligenza artificiale ideale deve riflettere la realtà in modo accurato, indipendentemente da razza, etnia o genere. Forzare la diversità dove non esiste naturalmente non è una soluzione; suo semplicemente una diversa forma di pregiudizio.

Questo caso di studio dovrebbe stimolare una discussione su come i creatori di intelligenza artificiale possono combattere i pregiudizi senza creare nuovi squilibri. È chiaro che le buone intenzioni non bastano; è necessario concentrarsi sull’accuratezza storica ed evitare correzioni eccessive ben intenzionate ma imperfette.

l'intelligenza artificiale dei Gemelli si è svegliata
L’intelligenza artificiale di Gemini ha suscitato polemiche evidenzia la difficoltà di bilanciare la rappresentanza nell’intelligenza artificiale (Credito immagine)

Qual è il prossimo passo?

Quindi, in che modo Google potrebbe migliorare Gemini per impedire agli utenti di porre domande sull’intelligenza artificiale di Gemini? BENE:

  • Set di dati di addestramento più grandi: Per fortuna, aumentare la dimensione e la diversità dei dati di addestramento di Gemini potrebbe portare a risultati più equilibrati e storicamente accurati Google ha recentemente annunciato Gemini 1.5 Pro
  • Enfasi sul contesto storico: Aggiungere una maggiore enfasi su periodi e contesti storici potrebbe aiutare i Gemelli a imparare a generare immagini che riflettono meglio figure conosciute

L’intelligenza artificiale di Gemini ha suscitato polemiche, anche se una battuta d’arresto, fornisce spunti preziosi. Dimostra che affrontare i bias nell’intelligenza artificiale è un processo continuo e complesso che richiede un’attenta considerazione, soluzioni equilibrate e a volontà di imparare dagli errori.


Credito immagine in primo piano: Jr Korpa/Unsplash.

Related Posts

AWS e Prime Video colpiscono mentre Amazon prepara una nuova ondata di licenziamenti

AWS e Prime Video colpiscono mentre Amazon prepara una nuova ondata di licenziamenti

23 Gennaio 2026
Barret Zoph alla guida dell'aggressivo perno commerciale di OpenAI

Barret Zoph alla guida dell'aggressivo perno commerciale di OpenAI

23 Gennaio 2026
Substack va in salotto con il lancio dell'app beta TV

Substack va in salotto con il lancio dell'app beta TV

23 Gennaio 2026
LiveKit ha una valutazione di 1 miliardo di dollari come motore dietro la modalità vocale di ChatGPT

LiveKit ha una valutazione di 1 miliardo di dollari come motore dietro la modalità vocale di ChatGPT

23 Gennaio 2026
Vimeo avvia i licenziamenti del personale in seguito all'acquisizione di Bending Spoons

Vimeo avvia i licenziamenti del personale in seguito all'acquisizione di Bending Spoons

23 Gennaio 2026
JBL lancia gli amplificatori BandBox basati sull'intelligenza artificiale

JBL lancia gli amplificatori BandBox basati sull'intelligenza artificiale

23 Gennaio 2026

Recent Posts

  • AWS e Prime Video colpiscono mentre Amazon prepara una nuova ondata di licenziamenti
  • Barret Zoph alla guida dell'aggressivo perno commerciale di OpenAI
  • Substack va in salotto con il lancio dell'app beta TV
  • LiveKit ha una valutazione di 1 miliardo di dollari come motore dietro la modalità vocale di ChatGPT
  • Vimeo avvia i licenziamenti del personale in seguito all'acquisizione di Bending Spoons

Recent Comments

Nessun commento da mostrare.
Dataconomy IT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • News
  • Industry
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.