È in corso una nuova fase degli sforzi dell’amministrazione Trump per ridimensionare il servizio civile, concentrandosi sull’uso dell’intelligenza artificiale generativa per automatizzare le attività di lavoro precedentemente gestite dai dipendenti federali. La General Services Administration (GSA) sta testando un chatbot con 1.500 membri del personale e può espandere il suo utilizzo a oltre 10.000 lavoratori che gestiscono oltre $ 100 miliardi di contratti e servizi, secondo Cablato.
GSA test AI Chatbot Per automatizzare le attività federali in mezzo al ridimensionamento
La leadership GSA incornicia il bot come strumento di miglioramento della produttività. Thomas Shedd, direttore dei Technology Transformation Services (TTS) presso GSA, ha messo in evidenza in una recente riunione di tutte le mani che l’agenzia sta perseguendo una “strategia AI-First”. Ha dichiarato: “Mentre diminuiamo [the] Dimensioni complessive del governo federale … ci sono ancora un sacco di programmi che devono esistere, il che è un’enorme opportunità per la tecnologia e l’automazione per arrivare in vigore. ” Shedd ha anche menzionato il potenziale per gli “agenti di codifica” da introdurre in tutto il governo, riferendosi a programmi di intelligenza artificiale in grado di scrivere e impiegare il codice.
L’iniziativa Chatbot è iniziata durante il mandato del presidente Joe Biden con un piccolo team di tecnologia GSA chiamato 10x, che inizialmente lo ha progettato come una piattaforma di test AI, non uno strumento di produttività. Tuttavia, gli alleati di Doge, il Dipartimento di efficienza del governo, hanno spinto per il suo sviluppo accelerato e lo spiegamento tra licenziamenti federali di massa. Il programma, precedentemente noto come “GSAI” e ora chiamato “GSA Chat”, è progettato per aiutare a disegnare e -mail, codice di scrittura e altre funzioni. Alla fine sarà disponibile per altre agenzie governative, potenzialmente sotto il nome “ai.gov”.
Zach Whitman, Chief AI Officer di GSA, ha descritto il chatbot come mezzo per i dipendenti federali di lavorare “in modo più efficace ed efficiente”. L’interfaccia ricorda quella di CHATGPT, in cui gli utenti inviano istruzioni e ricevono risposte. Il sistema attualmente utilizza modelli autorizzati da meta e antropici. Sebbene i caricamenti di documenti non siano ancora consentiti, i piani suggeriscono che questa funzione potrebbe essere disponibile in futuro. I dipendenti GSA prevedono l’utilizzo del chatbot per varie attività, tra cui la pianificazione di progetti su larga scala e l’analisi dei repository di dati federali.
Il portavoce della GSA Will Powell ha confermato che l’agenzia sta esaminando le sue risorse IT e conducendo test per verificare l’efficacia e l’affidabilità degli strumenti disponibili. Tuttavia, gli esperti indicano che l’introduzione del chatbot può riflettere una tendenza più ampia piuttosto che cambiare significativamente le operazioni governative. Sono emersi rapporti sul fatto che i consulenti DOGE hanno sfruttato l’IA per analizzare la spesa delle agenzie per i tagli e decidere la fidelizzazione del lavoro in tutto il governo.
In una recente riunione di TTS, Shedd ha anticipato che la divisione si sarebbe presto ridotta di “almeno il 50 percento”. Inoltre, i potenziali usi dell’intelligenza artificiale si estendono a applicazioni sensibili, come la valutazione dei posti di social media dei titolari di studenti-Visa da parte del Dipartimento di Stato per identificare i collegamenti a gruppi terroristici designati.
L’implementazione dell’intelligenza artificiale generativa comporta rischi stabiliti, tra cui pregiudizi, inesattezze fattuali, costi elevati e funzionamenti interni complessi. GSA ha riconosciuto questi problemi durante l’inizializzazione del lavoro sul chatbot la scorsa estate, stabilendo la “10x AI Sandbox” per esplorare le applicazioni di intelligenza artificiale in modo sicuro ed economico. Tuttavia, le motivazioni per rilasciare il chatbot rapidamente possono trascurare potenziali preoccupazioni per quanto riguarda le sue applicazioni. Un ex dipendente della GSA ha notato i rischi associati al fatto di fare affidamento sull’IA per l’analisi delle frodi, evidenziando il potenziale per falsi positivi. Gli avvertimenti riguardanti questioni come “allucinazione” e risposte distorte sono inclusi in una pagina di aiuto per i primi utenti, ma i metodi di applicazione rimangono non specificati.
Le agenzie federali hanno testato l’intelligenza artificiale generativa per mesi, con GSA che ha precedentemente contratto Google per valutare il potenziale dell’intelligenza artificiale per migliorare la produttività e la collaborazione. Altre agenzie, come i dipartimenti di Homeland Security, Health and Human Services e Veterans Affairs, esploravano anche gli strumenti di intelligenza artificiale prima dell’inaugurazione. Nonostante ciò, la particolare distribuzione del chatbot potrebbe non essere stata inevitabile nella sua forma attuale.
L’amministrazione di Biden aveva perseguito un approccio cauto all’IA, sottolineando test rigorosi e trasparenza attraverso un ordine esecutivo. Tuttavia, l’abrogazione di questo ordine il primo giorno in carica di Trump ha segnato un cambiamento nella posizione normativa, consentendo potenzialmente alle agenzie federali di utilizzare applicazioni più speculative della tecnologia AI.
Credito d’immagine in primo piano: Katie Moum/Unsplash