Il professore di Stanford Jeff Hancock è accusato di aver citato uno studio inesistente nella sua testimonianza relativa alla legislazione deepfake proposta dal Minnesota. Questo incidente è stato portato alla luce dagli avvocati del querelante in una causa contro lo YouTuber conservatore Christopher Kohls. Il contesto prevede un dibattito politico sulla libertà di parola e sulla legalità dei deepfake durante le elezioni.
La testimonianza di Hancock è stata utilizzata dal procuratore generale del Minnesota Keith Ellison per difendere la proposta di legge, suggerendo che i deepfake minacciano l’integrità politica.
Le accuse affermano che la dichiarazione di Hancock includeva un riferimento a uno studio falso intitolato “L’influenza dei video deepfake su atteggiamenti e comportamenti politici”, che il team legale del querelante sostiene non esiste nella rivista in cui sarebbe stato pubblicato. Sostengono che questa citazione è una probabile creazione di un modello linguistico di intelligenza artificiale, minando potenzialmente la credibilità della sua intera dichiarazione.
Gli avvocati del querelante hanno notato che la citazione non appare in nessun database accademico, il che solleva dubbi significativi riguardo alla sua autenticità. Essi concluso:
“La dichiarazione del Prof. Hancock dovrebbe essere esclusa nella sua interezza perché almeno una parte di essa si basa su materiale fabbricato probabilmente generato da un modello di intelligenza artificiale”.
Il ruolo dell’intelligenza artificiale in questo dramma giudiziario
Le implicazioni di queste accuse si estendono oltre questo caso. Mettono in discussione l’affidabilità dei contenuti generati dall’intelligenza artificiale in contesti legali, una preoccupazione che riecheggia eventi recenti in cui gli avvocati hanno dovuto affrontare sanzioni per aver utilizzato citazioni inventate in documenti legali. La documentazione del tribunale sottolinea che la veridicità delle testimonianze di esperti può essere gravemente influenzata dal potenziale dell’intelligenza artificiale di produrre inesattezze, spesso definite “allucinazioni.”
Hancock ha un background ben documentato negli studi sulla disinformazione, avendo contribuito a ricerche significative sul campo e prodotto discorsi pubblici popolari sull’argomento. Tuttavia, non ha ancora commentato pubblicamente le accuse contro la sua testimonianza.
Il deepfake virale di Kamala Harris e le sue implicazioni
Sono in corso indagini sulla validità delle dichiarazioni utilizzate in questo caso giudiziario, il che solleva preoccupazioni per le future applicazioni delle testimonianze di esperti influenzate dai dati generati dall’intelligenza artificiale.
La legislazione sui deepfake del Minnesota, sotto esame, mira a imporre vincoli legali alla distribuzione e alla creazione di deepfake nei periodi elettorali. Gli oppositori del disegno di legge sostengono che il quadro giuridico potrebbe violare i diritti costituzionali della libertà di parola, invocando preoccupazioni sulla censura e sulle implicazioni per l’espressione digitale. Man mano che questo caso si svolge, sono previste ulteriori analisi riguardanti l’intersezione tra tecnologia, standard legali e diritti di libertà di parola.
Resta da vedere come la corte risponderà alle accuse relative alla testimonianza di Hancock e se ciò costituirà un precedente per il modo in cui i contenuti generati dall’intelligenza artificiale verranno trattati nei procedimenti legali. La comunità legale sta monitorando da vicino questo caso per le sue implicazioni sulla prossima legislazione relativa ai contenuti digitali e alla disinformazione in contesti politici.
Credito immagine in primo piano: rorozoi/Freepik