L’intelligenza artificiale (AI) sta rapidamente trasformando numerosi settori, dalla sanità e finanza ai trasporti e all’intrattenimento. Tuttavia, oltre al suo innegabile potenziale, crescono le preoccupazioni sulle vulnerabilità della sicurezza dei modelli di intelligenza artificiale. In risposta, un nuovo disegno di legge sta attraversando il Senato che mira a rafforzare la sicurezza dell’intelligenza artificiale e prevenire le violazioni.
Questo nuovo disegno di legge sulla sicurezza dell’intelligenza artificiale, intitolato Legge sull’intelligenza artificiale sicuraè stato introdotto dai senatori Mark Warner (D-VA) e Thom Tillis (R-NC).
La legge propone un duplice approccio alla sicurezza dell’IA:
- Creazione di un database centrale per il monitoraggio delle violazioni dell’IA.
- Creazione di un centro di ricerca dedicato per lo sviluppo di tecniche di contro-intelligenza artificiale.
Costruire una rete di rilevamento delle violazioni per l’intelligenza artificiale
Una delle caratteristiche principali del Secure Artificial Intelligence Act è la creazione di un database nazionale sulla sicurezza dell’IA violazioni. Questo database, supervisionato dal National Institute of Standards and Technology (NIST) e dalla Cybersecurity and Infrastructure Security Agency (CISA), funzionerebbe come un archivio centrale per la registrazione degli incidenti che coinvolgono sistemi di intelligenza artificiale compromessi. La legge impone inoltre l’inclusione dei “near miss” nel database, con l’obiettivo di catturare non solo gli attacchi riusciti ma anche le chiamate ravvicinate che possono offrire preziose informazioni per la prevenzione.
L’inclusione dei quasi incidenti è un aspetto degno di nota del disegno di legge. I database tradizionali sulle violazioni della sicurezza spesso si concentrano esclusivamente sugli incidenti confermati. Tuttavia, i mancati incidenti possono essere altrettanto utili per comprendere i potenziali punti deboli della sicurezza. Catturando queste situazioni ravvicinate, il database può fornire un quadro più completo del panorama delle minacce dell’IA, consentendo a ricercatori e sviluppatori di identificare e affrontare le vulnerabilità prima che vengano sfruttate.
“Mentre continuiamo a cogliere tutte le opportunità offerte dall’intelligenza artificiale, è imperativo continuare a salvaguardarci dalle minacce poste da – e a – questa nuova tecnologia, e la condivisione delle informazioni tra il governo federale e il settore privato svolge un ruolo cruciale, “
– Senatore Mark Warner
Un centro dedicato per contrastare le minacce dell’intelligenza artificiale
Il Secure Artificial Intelligence Act propone l’istituzione di un Centro per la sicurezza dell’intelligenza artificiale all’interno della National Security Agency (NSA). Questo centro avrebbe il compito di condurre la ricerca su “contro-IA“tecniche, essenzialmente metodi per manipolare o interrompere i sistemi di intelligenza artificiale. Comprendere queste tecniche è fondamentale per sviluppare difese efficaci contro attori malintenzionati che potrebbero cercare di sfruttare le vulnerabilità dell’intelligenza artificiale.
L’atto specifica un focus su quattro principali tecniche di contrasto all’intelligenza artificiale:
- Avvelenamento dei dati
- Attacchi di evasione
- Attacchi basati sulla privacy
- Attacchi abusivi
Avvelenamento dei dati comporta l’introduzione di dati corrotti nel set di dati di addestramento di un modello di intelligenza artificiale, con l’obiettivo di distorcere i risultati del modello. Attacchi di evasione implicano la manipolazione degli input di un sistema di intelligenza artificiale in modo da consentire all’aggressore di aggirarne le misure di sicurezza. Attacchi basati sulla privacy sfruttare le lacune nel modo in cui i sistemi di intelligenza artificiale gestiscono i dati personali. Finalmente, attacchi di abuso implicano l’uso improprio delle funzionalità legittime di un sistema di intelligenza artificiale per scopi dannosi.
Attraverso la ricerca di queste tecniche di contrasto all’intelligenza artificiale, l’Artificial Intelligence Security Center può aiutare a sviluppare strategie per mitigarne l’impatto. Questa ricerca può favorire la creazione di migliori pratiche per lo sviluppo, l’implementazione e la manutenzione dell’intelligenza artificiale, portando in definitiva a sistemi di intelligenza artificiale più robusti e sicuri.

La creazione di un database nazionale sulle violazioni e di un centro di ricerca dedicato può fornire preziosi spunti e strumenti per costruire sistemi di IA più sicuri.
Si tratta però di una questione complessa e di non facili soluzioni.
Anche lo sviluppo di efficaci tecniche di contro-intelligenza artificiale può rappresentare una sfida, poiché questi metodi potrebbero essere potenzialmente utilizzati sia per scopi difensivi che offensivi.
Il successo del Secure Artificial Intelligence Act dipenderà dalla sua attuazione e dalla continua collaborazione tra agenzie governative, settore privato e comunità di ricerca. Poiché l’intelligenza artificiale continua ad evolversi, anche il nostro approccio per proteggerla deve evolversi.
Il nuovo disegno di legge sulla sicurezza dell’IA fornisce un quadro per andare avanti, ma saranno necessari vigilanza e adattamento continui per garantire che l’IA rimanga una forza positiva.
Credito immagine in primo piano: Pawel Czerwinski/Unsplash