Un giudice dello stato di Washington si è pronunciato contro l’ammissione di prove video “potenziate dall’intelligenza artificiale” in un caso di triplice omicidio, una decisione che sottolinea lo scetticismo intorno alla convinzione che i filtri dell’intelligenza artificiale possano scoprire informazioni visive nascoste. Il giudice di King County Leroy McCullough ha affermato nella sua recente decisione che la tecnologia di intelligenza artificiale impiegata utilizza “metodi opachi per rappresentare ciò che il modello di intelligenza artificiale ‘pensa’ dovrebbe essere mostrato”, come riportato da Notizie della NBC il martedì.
“Questa Corte ritiene che l’ammissione di queste prove potenziate dall’intelligenza artificiale porterebbe a una confusione delle questioni e a una confusione tra le testimonianze oculari, e potrebbe portare a un processo dispendioso in termini di tempo all’interno di un processo sul processo non peer-reviewable utilizzato da il modello di intelligenza artificiale”, ha affermato McCullough.
Secondo il tribunale, i video potenziati dall’intelligenza artificiale non possono costituire prove
Essenzialmente un Foto migliorata dall’intelligenza artificiale si riferisce a un’immagine che è stata modificata, migliorata o alterata utilizzando tecnologie di intelligenza artificiale. Questi miglioramenti possono includere una serie di regolazioni come l’aumento della risoluzione, il ripristino di fotografie vecchie o danneggiate, la colorazione di immagini in bianco e nero, la rimozione di rumore e oggetti indesiderati o persino l’alterazione delle espressioni facciali e dell’illuminazione. Gli algoritmi di intelligenza artificiale analizzano il contenuto della foto e applicano le modifiche per ottenere l’effetto desiderato, spesso creando un risultato più raffinato, di alta qualità o visivamente accattivante rispetto all’originale.
Il procedimento legale riguarda Joshua Puloka, 46 anni, accusato di aver sparato a tre persone mortalmente e di averne ferite due in un bar vicino a Seattle nel 2021. La difesa ha tentato di utilizzare il video del cellulare di un passante, migliorato artificialmente, sebbene i benefici attesi da questo filmato non siano stati specificati. Un principiante nel miglioramento dei video di procedimenti penali, utilizzando la tecnologia AI di Topaz Labs in Texas, è stato impiegato dal team legale di Puloka per migliorare la chiarezza del video. Questo incidente evidenzia le idee sbagliate comuni sulla capacità dell’intelligenza artificiale di chiarire i dati visivi. In realtà, gli strumenti di intelligenza artificiale spesso aggiungono dettagli non originali alle immagini anziché chiarire quelli esistenti.

L’impennata dei prodotti a marchio “AI” ha portato alla confusione del pubblico sulle loro reali capacità. Anche gli utenti sofisticati vengono ingannati dall’output simile a quello umano di modelli linguistici di grandi dimensioni come ChatGPT, scambiandolo per pensiero complesso. Tuttavia, questi modelli prevedono principalmente le parole successive per imitare la conversazione umana, senza impegnarsi in un ragionamento profondo.
Nonostante i significativi investimenti nella tecnologia dell’intelligenza artificiale, molti ne sopravvalutano la sofisticatezza, attribuendo gli errori a pregiudizi o controlli eccessivamente severi. Tuttavia, tali difetti riguardano più i limiti della tecnologia che altro. Riconoscendo i limiti di questa tecnologia, un giudice di Washington si è pronunciato contro l’utilizzo di prove potenziate dall’intelligenza artificiale, sottolineando la sua incapacità di migliorare realmente la comprensione del filmato originale. Questa decisione contrasta con la crescente tendenza ad accettare i contenuti generati dall’intelligenza artificiale in contesti legali, sottolineando la necessità di una comprensione più profonda delle capacità e dei limiti dell’intelligenza artificiale.
Credito immagine in primo piano: Saúl Bucio/Unsplash