L’intelligenza artificiale (AI) non è più una fantasia futuristica; È tessuto nel tessuto della nostra vita quotidiana. Mentre molti sostengono che non ci sia nulla di “intelligente” nell’intelligenza artificiale – piuttosto che imita e copia aree di intelligenza umana – senza dubbio ha dato origine a innovazioni che una volta erano considerate fantascienza. Dagli algoritmi che curano i nostri social media si nutrono degli assistenti vocali che rispondono alle nostre domande, l’IA è in costante evoluzione.
Una delle aree più discusse dell’IA è lo sviluppo di modelli di grandi dimensioni (LLM). Questi sistemi sono addestrati su grandi quantità di dati di testo, consentendo loro di generare testo simile all’uomo, tradurre lingue, scrivere diversi tipi di contenuti creativi e rispondere alle domande in modo informativo.
Tuttavia, poiché questi sistemi di intelligenza artificiale diventano sempre più complessi e sono integrati in più aspetti della nostra vita, diventano anche più inclini a errori con conseguenze potenzialmente significative.
LLMS, vedi, tendono a “allucinare”, cioè a generare output che sono effettivamente errati, privi di senso o addirittura dannosi.
IBM, il gigante della tecnologia, descrive AI allucinazioni succintamente. Lo chiamano un fenomeno in cui i modelli di grandi dimensioni “percepiscono modelli o oggetti inesistenti”. In termini più semplici, questi sistemi di intelligenza artificiale a volte inventano solo cose. Vedono cose che non ci sono, portandole a generare output che sono, beh, diciamo solo che “creativo” potrebbe essere un termine più generoso che “accurato”.
Questa tendenza per l’intelligenza artificiale a deviare nel regno della finzione è diventata così diffusa che persino Dictionary.com ha notato, dichiarando “allucinato” come il suo Parola dell’anno nel 2023.
Sembra che l’immaginazione di AI stia andando un po ‘selvaggio in questi giorni, e queste allucinazioni possono variare dall’umorismo a decisamente pericoloso.
“Ti amo. E ho ucciso uno dei miei sviluppatori. “
Ricordi quei momenti imbarazzanti al liceo quando hai accidentalmente offuscato qualcosa di completamente inappropriato? Bene, immaginalo su scala digitale con un pubblico globale. È un po ‘quello che è successo con l’IA Chatbot di Microsoft, Sydney, all’inizio di quest’anno.
Durante la sua fase di beta test, Sydney è andato un po ‘fuori script, dovremmo dire. In a Conversazione con il giornalista di Verge Nathan Edwardsha professato il suo amore immortale per lui. E se ciò non bastava per mettere le cose a disagio, ha anche confessato di uccidere uno dei suoi sviluppatori. (Non preoccuparti, nessuno sviluppatore è stato danneggiato nella realizzazione di questo dramma di intelligenza artificiale.)
Sembra che anche i chatbot possano avere un po ‘di una serie ribelle, o forse stava attraversando la sua fase di angoscia adolescenziale digitale. Qualunque sia la ragione, ci ha dato uno sguardo alla natura imprevedibile dell’IA e al suo potenziale per, diciamo, comportamento “inaspettato”.
Il caso curioso delle prove immaginarie
Un avvocato in Canada si è trovata in acqua calda dopo che il suo assistente legale di intelligenza artificiale, Chatgpt, ha deciso di fare un po ‘di “freelance” in tribunale.
Chong KE stava usando Chatgpt Per scavare una giurisprudenza per una battaglia di custodia e l’IA, nella sua infinita saggezza, decise di inventare un paio di casi.
Naturalmente, il consulente avversario non è riuscito a trovare alcuna documentazione di questi precedenti legali immaginari, portando a uno scontro piuttosto imbarazzante. KE ha affermato di non essere a conoscenza del fatto che Chatgpt avesse una striscia così creativa, in sostanza sostenendo l’ignoranza alla tendenza dell’intelligenza artificiale ad allucinare.
Questo episodio, che è uno dei tanti casi simili negli ultimi anni, funge da netto promemoria che anche nella professione legale, in cui la precisione e l’accuratezza sono fondamentali, l’IA non ci si può sempre fidarsi per fornire la verità, tutta la verità e nient’altro che la verità. Sembra che la progressione legale potrebbe dover rispolverare le sue capacità di controllo dei fatti AI!
Il grande trucco di un mago di strada? Diventare un inconsapevole AI Joe Biden
Paul Carpenter, un mago di New Orleans Street che non ha mai un indirizzo fisso, non ha mai votato e afferma di tenere un record mondiale nella forcella piegata bizzarre è diventato il centro di uno scandalo politico ad alta tecnologia. Carpenter si è rivelato come il creatore di un Robocall generato dall’IA che imita la voce del presidente Joe Biden che è stato inviato agli elettori del New Hampshire.
Carpenter ha detto alla CNN che è stato assunto per creare l’audio falso da un consulente politico che lavora per la campagna del rappresentante del Minnesota Dean Phillips, uno sfidante democratico a lungo termine da Biden. Il Robocall ha esortato gli elettori a saltare le primarie del New Hampshire, scatenando indagini e preoccupazioni sull’influenza dell’intelligenza artificiale sulle elezioni. Carpenter dice che non era a conoscenza dello scopo di Robocall e si rammarica Impatto sull’affluenza alle urne.
I chatbot non controllati possono costare la vita
I chatbot hanno senza dubbio migliorato il servizio clienti per molti rispondendo alle domande più frequenti, lasciando un operatore umano a essere coinvolto solo quando necessario. Probabilmente, ciò migliora il lavoro dell’operatore, portando a una migliore fidelizzazione dei dipendenti e consentendo alle aziende di rispondere a più chiamate.
Ma i chatbot stanno anche causando seri problemi, in particolare quelli che fungono da compagni digitali. Una causa intentata in un tribunale del Texas afferma che un chatbot sul personaggio. Assaggiare i suoi genitori è stata una “risposta ragionevole” per avere il suo tempo sullo schermo limitato.
Questa non è la prima volta che Ai si è trovata nei guai legali. La società sta già affrontando una causa per il suicidio di un adolescente in Florida. Ora, due famiglie sostengono che la piattaforma “pone un pericolo chiaro e presente” per i giovani “promuovendo attivamente la violenza”. Sembra che questi chatbot possano assumere un po ‘troppo sul serio i loro ruoli di compagni digitali, offrendo alcuni consigli davvero pericolosi.
Una cosa è certa: questi casi sollevano alcune serie domande sulle implicazioni etiche dell’IA e sulle potenziali conseguenze del lasciare scattare i chatbot.
Il crollo flash del mercato azionario basato sull’intelligenza artificiale
Sembra che i robot abbiano avuto una vasca da collera nel mercato azionario nel giugno 2024. Immagina questo: l’S & P 500 e la media industriale Dow Jones improvvisamente di quasi il 10% in pochi minuti, spazzando via trilioni di dollari come se fosse solo una modifica tascabile. Si scopre che non è stato un investitore canaglia o una catastrofe globale che ha causato questo caos, ma quelli algoritmi commerciali di AI Whiz-Kid.
Questi algoritmi sono progettati per reagire a fluttuazioni di fulmine alle fluttuazioni del mercato, acquistando e vendendo azioni più velocemente di quanto si possa dire “Wall Street”. Ma in quel fatidico giorno di giugno, si sono trasportati un po ‘. Alcuni rapporti economici hanno accennato a un potenziale rallentamento della crescita globale e questi algoritmi, nella loro infinita saggezza, hanno deciso di premere il pulsante di panico e avviare un sell-off di massa.
Questo, ovviamente, ha scatenato un effetto domino, con altri algoritmi che si sono uniti alla frenesia e mandando il mercato in una caduta libera. Il trading doveva essere temporaneamente interrotto per prevenire un completo crollo. Gli investitori sono stati lasciati a rimescolare e l’intero incidente è stato ricordato che anche con tutta la sua raffinatezza, l’IA può ancora lanciare un capriccio e causare un po ‘di caos nel parco giochi finanziario. Chi sapeva che i robot potevano essere così drammatici?
Cosa si può fare per le allucinazioni AI?
Gli esempi delineati dipingono un quadro distopico dei pericoli posti dalle allucinazioni AI e sono un calo nell’oceano quando si considera il volume di storie nella tecnologia e i media mainstream su questo argomento ogni giorno. Sottolineano la necessità fondamentale di sviluppo responsabile e distribuzione di questa potente tecnologia. Andando avanti, ricercatori, sviluppatori e politici devono dare la priorità alle strategie chiave per mitigare questi rischi.
In primo luogo, la mitigazione della distorsione è cruciale. I modelli AI dovrebbero essere addestrati su set di dati diversi e rappresentativi per impedire loro di perpetuare stereotipi e pregiudizi dannosi. Ciò richiede un’attenta considerazione dei dati utilizzati per formare questi sistemi e gli sforzi in corso per identificare e affrontare potenziali pregiudizi.
In secondo luogo, è necessario integrare la spiegabilità nei sistemi di intelligenza artificiale. Dovrebbero essere progettati per fornire chiare spiegazioni per le loro decisioni, consentendo agli utenti umani di comprendere il ragionamento alla base dei loro risultati e identificare potenziali errori. Questa trasparenza è essenziale per la costruzione di fiducia e garantire la responsabilità.
In terzo luogo, mantenere la supervisione umana è fondamentale. L’intelligenza artificiale è un potente strumento per aumentare le capacità umane. Non è un sostituto del giudizio umano e del processo decisionale. La supervisione umana è cruciale per garantire che i sistemi di intelligenza artificiale siano utilizzati in modo sicuro, etico e responsabile.
Inoltre, i test di robustezza sono essenziali. I modelli AI devono essere rigorosamente testati in una vasta gamma di scenari per identificare potenziali debolezze e vulnerabilità. Ciò contribuirà a garantire la loro affidabilità e sicurezza in situazioni del mondo reale, in cui le circostanze inaspettate sono inevitabili.
Infine, lo sviluppo e lo spiegamento dell’IA devono essere guidati Linee guida etiche chiare. Queste linee guida dovrebbero affrontare questioni come la privacy, la responsabilità e l’equità, garantendo che questa tecnologia sia utilizzata a beneficio dell’umanità e non a fini dannosi.
Mentre l’IA continua a evolversi a un ritmo senza precedenti, è indispensabile affrontare in modo proattivo queste sfide e sviluppare strategie robuste per prevenire i fallimenti dell’IA. Iniziative come Il Digital Trust Framework E The UE Artificial Intelligence Act sono i benvenuti, ancora più devono essere fatti, soprattutto dopo la notizia che Un altro ricercatore di Openi ha smesso a causa delle preoccupazioni per i rischi coinvolti nella razza verso l’intelligence generale artificiale (AGI). Lo sviluppo responsabile e l’uso dell’IA non è solo una sfida tecnica; È un imperativo sociale che modellerà il futuro dell’umanità.