Il frettoloso progresso della tecnologia dell’intelligenza artificiale (AI) e la sua crescente influenza in molti ambiti della vita hanno innescato significative discussioni globali su governance, etica e quadri normativi. In prima linea in queste discussioni c’è la legge dell’UE sull’IA—un quadro normativo pionieristico che mira a stabilire lo standard per questi argomenti in tutta Europa. Ma questo non è solo un altro sforzo normativo; rappresenta una visione più ampia per plasmare il futuro dell’IA in modo da garantire equità, inclusività e rispetto dei diritti umani. Poiché le tecnologie di intelligenza artificiale e il loro impatto continuano ad accelerare, sta diventando sempre più chiaro che il rispetto di queste normative è cruciale, non solo per gli sviluppatori di intelligenza artificiale, ma per i politici, le imprese e la società in generale.
Dataconomy ha avuto l’opportunità di parlare con i principali leader dell’UE e delle Nazioni Unite per esplorare in modo più dettagliato l’impatto globale della governance dell’IA. Queste interviste hanno rivelato come la regolamentazione e l’etica dell’IA si stiano sviluppando su scala globale, con l’EU AI Act che gioca un ruolo fondamentale. Durante il Salone dell’Impresa Digitale (DES) 2024 a Malaga, Wendy Hall, a Comitato consultivo dell’ONU sull’intelligenza artificiale membro ed eminente stratega dell’IA del Regno Unito; Carme Artigas, copresidente dell’organismo consultivo delle Nazioni Unite sull’intelligenza artificiale per la governance e l’inclusione dell’IA; e Dan Nechita, capo di gabinetto dell’eurodeputato Dragos Tudorache e capo negoziatore tecnico per l’EU AI Act per conto del Parlamento europeo, hanno condiviso con noi le loro opinioni esclusive su come la governance, l’etica e la regolamentazione dell’IA vengono modellate in tempo reale.
Colmare il divario globale nell’intelligenza artificiale
Wendy Sala, Membro del comitato consultivo sull’intelligenza artificiale delle Nazioni Unite e eminente stratega dell’IA nel Regno Unito, sostiene fortemente un approccio collaborativo a livello globale alla politica sull’intelligenza artificiale. Durante la nostra discussione, Hall ha sottolineato che, sebbene l’intelligenza artificiale presenti vaste opportunità, le strategie impiegate dalle diverse nazioni variano ampiamente. Ad esempio, il Regno Unito ha adottato un approccio più globale e orientato alle politiche per lo sviluppo dell’intelligenza artificiale. A partire dal 2017, il governo del Regno Unito ha riconosciuto il potenziale dell’intelligenza artificiale per la crescita economica e la creazione di posti di lavoro, posizionando il Paese come leader nella governance dell’intelligenza artificiale. In un momento in cui la Brexit consumava l’attenzione politica, il Regno Unito è comunque riuscito a lavorare sulla politica dell’IA. Hall sottolinea che il precoce impegno del Regno Unito ha contribuito a consolidare la sua importanza, ma si affretta a sottolineare che altri paesi come gli Stati Uniti e la Cina hanno seguito percorsi nettamente diversi.
Negli Stati Uniti, l’attenzione si è concentrata in gran parte sul dare alle aziende tecnologiche come Google e OpenAI il potere di ampliare i confini dell’intelligenza artificiale, lasciando la governance nelle mani del settore privato. Al contrario, la Cina ha adottato un approccio centralizzato e guidato dallo Stato, con il governo che mantiene il controllo sulla direzione strategica dell’intelligenza artificiale. Queste strategie divergenti, spiega Hall, evidenziano la complessità della governance globale dell’IA e la necessità di politiche internazionali più coese.
Tuttavia, la preoccupazione principale di Hall non è la divergenza tra queste nazioni leader, ma piuttosto l’accesso ineguale alle tecnologie di intelligenza artificiale in tutto il mondo. Sottolinea la necessità di uno sviluppo equo dell’intelligenza artificiale, in particolare per i paesi al di fuori del ricco Occidente. Regioni come la Sud globaleche spesso non dispongono delle infrastrutture e delle risorse per tenere il passo con i progressi dell’intelligenza artificiale, rischiano di essere lasciati indietro. Hall afferma che questo divario potrebbe aggravare le disuguaglianze globali esistenti a meno che non vengano implementate iniziative di rafforzamento delle capacità.
“Queste regioni hanno bisogno di qualcosa di più del semplice accesso alle tecnologie di intelligenza artificiale: hanno bisogno dell’infrastruttura, del talento e dei dati per sviluppare sistemi di intelligenza artificiale adatti alle proprie esigenze”, sottolinea Hall. Ciò potrebbe includere fornire ai paesi del Sud del mondo l’accesso a sistemi informatici ad alte prestazioni, set di dati e competenze tecniche necessarie per costruire modelli di intelligenza artificiale a livello locale. Hall sostiene iniziative globali che offrano gli strumenti e le risorse necessarie affinché questi paesi possano partecipare attivamente alla rivoluzione dell’intelligenza artificiale piuttosto che consumatori passivi di tecnologia sviluppata altrove.
“C’è il rischio che l’intelligenza artificiale possa aggravare le disuguaglianze globali se non garantiamo un accesso equo alle infrastrutture e ai talenti necessari”
Una preoccupazione particolare per Hall è lo sviluppo rapido e incontrollato di modelli di intelligenza artificiale generativa, come ad esempio GPT-4 di OpenAI. Sebbene questi modelli offrano possibilità rivoluzionarie, comportano anche rischi significativi sotto forma di disinformazione, disinformazione e uso improprio etico. Hall è cauto riguardo alle conseguenze indesiderate di tecnologie così potenti, sottolineando che l’intelligenza artificiale generativa può produrre contenuti convincenti ma del tutto falsi se non attentamente regolata.
Attira l’attenzione sulle implicazioni più ampie, spiegando che mentre le precedenti tecnologie di intelligenza artificiale come l’automazione si concentravano principalmente sul miglioramento dell’efficienza, l’intelligenza artificiale generativa ha un impatto diretto sulla creazione e diffusione della conoscenza. “Lo abbiamo visto con la disinformazione online: se i dati in ingresso sono errati, l’output potrebbe essere dannoso e su una scala che non abbiamo mai affrontato prima”, avverte Hall. La posta in gioco è alta, in particolare quando le tecnologie di intelligenza artificiale influenzano le decisioni in settori critici come la sanità, il diritto e la finanza.
Per Hall, la soluzione sta nel sostenere partenariati globali volti a creare solidi standard etici e quadri di governance. Sostiene la creazione di accordi internazionali per garantire che le tecnologie di intelligenza artificiale siano sviluppate e utilizzate in modo responsabile senza contribuire al danno sociale. Hall sottolinea l’importanza di coinvolgere diverse parti interessate, tra cui governi, aziende private e organizzazioni della società civile, per stabilire normative che bilancino l’innovazione con la sicurezza pubblica.
La prospettiva di Hall sottolinea un punto critico: l’intelligenza artificiale potrebbe esacerbare le disuguaglianze globali esistenti e introdurre nuovi dilemmi etici senza collaborazione e governance condivisa. L’appello di Hall allo sviluppo delle capacità e al controllo etico non è solo una raccomandazione: è un passo necessario per garantire che l’intelligenza artificiale sia sviluppata a beneficio dell’umanità nel suo insieme, non solo di pochi eletti.
Garantire una governance inclusiva dell’IA
Carmelo Artigascopresidente dell’organismo consultivo delle Nazioni Unite sull’intelligenza artificiale per la governance e l’inclusione dell’intelligenza artificiale, apporta una prospettiva critica al dibattito sullo sviluppo globale dell’intelligenza artificiale, incentrata sulle evidenti disparità nel modo in cui le diverse nazioni vengono incluse nelle discussioni sulla governance dell’intelligenza artificiale. Artigas sottolinea che gli attuali quadri che governano l’IA, comprese le iniziative guidate dal G7, dall’UNESCO e dall’OCSE, sono in gran parte dominati da nazioni più ricche e tecnologicamente più avanzate, tralasciando le voci chiave del Sud del mondo. “Molti paesi del Sud del mondo non sono nemmeno invitati al tavolo”, sottolinea Artigas, riferendosi alle discussioni globali che modellano il futuro dell’intelligenza artificiale. A suo avviso, questa esclusione rappresenta un grave deficit di governance e rischia di creare una nuova forma di colonialismo digitale. Con l’avanzare delle tecnologie di intelligenza artificiale, i paesi che non hanno le risorse o l’influenza per partecipare al processo decisionale internazionale sull’intelligenza artificiale potrebbero rimanere ancora più indietro. Per Artigas, questa non è solo una questione di equità: è un rischio fondamentale per la stabilità e l’uguaglianza globali.
Artigas evidenzia la necessità di un modello di governance che vada oltre i tradizionali quadri degli organismi di regolamentazione. Invece di creare un’unica nuova agenzia internazionale per supervisionare la governance dell’IA, sostiene di sfruttare le istituzioni esistenti. “Non abbiamo bisogno di più agenzie; abbiamo bisogno di un migliore coordinamento tra quelli già esistenti”, spiega. Organizzazioni come la ITU (Unione internazionale delle telecomunicazioni), UNICEFE OMPI (Organizzazione mondiale per la proprietà intellettuale) sono già profondamente coinvolti nelle questioni legate all’intelligenza artificiale, ciascuno nel proprio settore. Ciò che manca è un approccio coordinato che riunisca queste agenzie specializzate sotto una struttura di governance globale unificata.
“La vera governance deve andare oltre le semplici linee guida e includere meccanismi di responsabilità”
La visione di Artigas prevede che l’intelligenza artificiale sia governata in modo da rispettare il diritto internazionale e i diritti umani e garantire che tutti i paesi, indipendentemente dalla loro posizione tecnologica, abbiano pari accesso ai benefici che l’intelligenza artificiale può apportare. Ciò include la fornitura degli strumenti e delle risorse necessari affinché i paesi attualmente esclusi dai progressi dell’IA possano mettersi al passo. Sottolinea che anche il settore privato e il mondo accademico hanno un ruolo nel contribuire a democratizzare l’accesso alle tecnologie di intelligenza artificiale.
Tuttavia, Artigas sottolinea che le linee guida etiche da sole non sono sufficienti. Sebbene molte aziende abbiano sviluppato i propri quadri etici interni, lei sostiene che questi sono spesso volontari e inapplicabili. La vera governance, afferma, deve andare oltre le semplici linee guida e includere meccanismi di responsabilità. Senza chiare conseguenze per lo sviluppo o l’implementazione non etica dell’IA, i rischi di uso improprio e danni, in particolare per le popolazioni vulnerabili, rimangono elevati.
Una delle questioni chiave sollevate da Artigas è il ruolo dell’intelligenza artificiale nell’esacerbare il divario digitale. Se non adeguatamente regolamentata, l’intelligenza artificiale potrebbe rafforzare ulteriormente le disuguaglianze esistenti, con le nazioni più ricche che acquisiscono maggiore potere economico e tecnologico mentre le nazioni più povere restano più indietro. Per lei, l’obiettivo della governance dell’IA deve essere quello di colmare questo divario, non di ampliarlo. “L’intelligenza artificiale ha il potenziale per essere un ottimo equalizzatore, ma solo se garantiamo che i suoi benefici siano equamente condivisi”, sottolinea.
L’attenzione di Artigas sull’inclusività e sul coordinamento nella governance dell’IA riflette il crescente riconoscimento che l’intelligenza artificiale è una questione globale che richiede soluzioni globali. Il suo appello per un approccio unificato, in cui le agenzie esistenti collaborino per governare l’intelligenza artificiale, sottolinea la necessità di un sistema più inclusivo, etico e responsabile a beneficio di tutta l’umanità, non solo di pochi eletti.
Bilanciare innovazione e regolamentazione
Dan Nechitacapo di gabinetto dell’eurodeputato Dragos Tudorache e capo negoziatore tecnico per la legge UE sull’intelligenza artificiale, apporta una prospettiva pragmatica ma lungimirante alla discussione sulla governance dell’IA. Essendo una delle figure chiave dietro l’EU AI Act, Nechita sottolinea l’importanza di bilanciare l’innovazione con la necessità di una regolamentazione solida per garantire che le tecnologie AI siano sviluppate e utilizzate in modo sicuro.
Secondo Nechita, il Legge dell’UE sull’IA è progettato per stabilire regole chiare per i sistemi di intelligenza artificiale, in particolare quelli considerati ad alto rischio, come l’intelligenza artificiale utilizzata nella sanità, nell’istruzione, nelle forze dell’ordine e in altri settori critici. “Non si tratta solo di regolamentare la tecnologia in sé”, spiega Nechita. “Si tratta di proteggere i diritti fondamentali e garantire che l’intelligenza artificiale non aggravi i problemi sociali esistenti, come la discriminazione o le violazioni della privacy”.
Una delle caratteristiche salienti dell’EU AI Act è la sua enfasi sulla gestione del rischio. Nechita spiega che i sistemi di intelligenza artificiale sono classificati in base al livello di rischio che rappresentano, con i sistemi a rischio più elevato soggetti alle normative più severe. Questo approccio a più livelli consente flessibilità, consentendo all’Europa di mantenere la propria leadership nell’innovazione dell’IA, garantendo al tempo stesso che le applicazioni più sensibili siano accuratamente regolamentate. Per Nechita, questo equilibrio tra innovazione e regolamentazione è fondamentale per mantenere la competitività dell’Europa nel panorama globale dell’IA.
Tuttavia, Nechita riconosce che l’attuazione dell’EU AI Act è un processo complesso e continuo. Una delle sfide è garantirlo tutti i 27 Stati membri dell’UEciascuno con le proprie priorità e strategie nazionali, aderiscono a un quadro normativo unificato. L’EU AI Act richiede la cooperazione tra governi, leader del settore e organismi di regolamentazione per garantirne il successo. “Stiamo promuovendo un ciclo di feedback continuo tra aziende e autorità di regolamentazione, garantendo che i sistemi di intelligenza artificiale si evolvano in modo sicuro pur rimanendo conformi man mano che emergono nuove tecnologie”, spiega Nechita. “Non stiamo semplicemente consegnando alle aziende una serie di regole e poi ce ne andiamo. Chiediamo loro di lavorare con noi continuamente, per testare i loro sistemi, segnalare problemi e garantire la conformità.”
“L’intelligenza artificiale trasformerà il mondo e dobbiamo guidarlo in una direzione che vada a vantaggio di tutti”
Nechita sottolinea inoltre che l’EU AI Act non si limita a creare regolamenti statici. La legge prevede disposizioni per aggiornamenti e revisioni continui man mano che le tecnologie di intelligenza artificiale si evolvono. Sostiene che questo approccio dinamico è essenziale perché l’intelligenza artificiale è un campo in rapida evoluzione e le normative devono tenere il passo con i nuovi sviluppi. Questo è il motivo per cui l’EU AI Act incoraggia il dialogo continuo tra gli sviluppatori di IA e i regolatori, favorendo un rapporto in cui innovazione e sicurezza possano coesistere.
Tuttavia, Nechita è anche attenta al contesto globale più ampio. Mentre l’UE ha assunto una posizione proattiva sulla regolamentazione dell’IA, altre regioni, in particolare Stati Uniti e Cina, hanno approcci diversi. Negli Stati Uniti, la regolamentazione dell’IA è più frammentata, con le aziende in gran parte autoregolamentate, mentre lo sviluppo dell’IA controllato dallo stato in Cina dà priorità agli interessi nazionali rispetto ai diritti individuali. Nechita riconosce che raggiungere un consenso globale sulla governance dell’IA sarà difficile, ma vede un potenziale di collaborazione in aree simili Sicurezza dell’intelligenza artificiale, sostenibilità e standard etici.
Nechita immagina un modello di governance dell’intelligenza artificiale che bilanci l’innovazione con la sicurezza pubblica. Ritiene che l’EU AI Act, concentrandosi sulla gestione del rischio, sulla trasparenza e sulla collaborazione continua, offra un modello su come altre regioni potrebbero avvicinarsi alla regolamentazione dell’IA. Allo stesso tempo, sottolinea la necessità di una cooperazione globale, in particolare nell’affrontare le implicazioni etiche e sociali dell’IA.
Mentre l’EU AI Act continua a prendere forma, Nechita rimane ottimista riguardo al suo potenziale di stabilire uno standard globale per la governance dell’IA: “L’intelligenza artificiale cambierà il mondo e dobbiamo assicurarci che cambi in meglio”, conclude. Il suo approccio riflette una comprensione articolata delle sfide future e una forte fiducia nel potere della regolamentazione di guidare lo sviluppo dell’IA in una direzione a vantaggio della società.
Una visione unificata per il futuro dell’intelligenza artificiale
Le intuizioni di Wendy Hall, Carme Artigas e Dan Nechita riflettono un punto di svolta cruciale nella governance dell’intelligenza artificiale mentre osserviamo l’evoluzione dell’intelligenza artificiale a un ritmo senza precedenti. Le loro prospettive convergono su una verità innegabile: l’intelligenza artificiale non è solo una svolta tecnologica; è una forza che deve essere fermamente allontanata dal beneficio di pochi a scapito di molti.
L’urgente necessità di un rafforzamento delle capacità globali e di controlli etici sull’intelligenza artificiale è invocata anche da Wendy Hall, che ci chiede di colmare il crescente divario tra le capacità in questo settore tra le nazioni sviluppate e quelle in via di sviluppo. Tuttavia, l’attenzione di Camre Artigas all’inclusione e alla responsabilità ci ricorda che l’applicazione delle norme che precede qualsiasi governance dovrebbe essere parte integrante. L’EU AI Act è un degno esempio di equilibrio tra innovazione e sicurezza e, quindi, di come altre regioni potrebbero avvicinarsi alla governance dell’IA.
Insieme, queste voci dipingono un quadro olistico di ciò che è necessario per plasmare il futuro dell’intelligenza artificiale: attenzione alla collaborazione, alla tutela dei diritti umani e a un quadro forte che incoraggi l’innovazione tutelando al tempo stesso gli interessi pubblici. È una strada incredibilmente difficile da percorrere, ma anche con un enorme potenziale. Il futuro dell’intelligenza artificiale è adesso e spetta a noi realizzarlo nel modo giusto.