Il settore no profit sta abbracciando l’intelligenza artificiale più velocemente di quanto non sia pronto. Più della metà delle organizzazioni non profit ora utilizza strumenti di intelligenza artificiale in qualche forma – chatgpt, sistemi di automazione, analisi predittiva – ma meno del 10 percento ha politiche scritte su come utilizzare quell’intelligenza artificiale. Non è solo una svista procedurale.
È una vulnerabilità strutturale. Queste organizzazioni, molte delle quali servono comunità storicamente emarginate, stanno entrando in un panorama tecnologico ad alto contenuto di poste con pochi guardrail etici e ancora meno framework interni per guidarle. Questo divario tra adozione e governance pone rischi reali-pregiudizi algoritmici, violazioni della privacy e danni involontari-in particolare quando gli strumenti fuori dallo scaffale vengono distribuiti senza una profonda comprensione o supervisione. La corsa all’efficienza può involontariamente erodere la fiducia, compromettere i valori ed esporre organizzazioni non profit a ricadute e legali.
Efficienza ora, rimpianto più tardi
I numeri raccontano una storia sorprendente. Secondo BDO’s 2024 Sondaggio di benchmarking senza scopo di lucroL’82 percento delle organizzazioni non profit statunitensi ora riferisce utilizzando l’IA. Di questi, la maggioranza lo sta applicando alle operazioni interne: il 44 percento utilizza AI per compiti finanziari come il budget e l’automazione dei pagamenti e il 36 percento lo sta applicando all’ottimizzazione del programma e alla valutazione dell’impatto. L’attenzione, in altre parole, è l’efficienza amministrativa, non la consegna della missione.
Ciò è coerente con il Centro per l’efficace filantropia del 2024 Stato di organizzazioni no profit Sondaggio, che ha anche scoperto che i guadagni di produttività erano il motivo più comune per l’uso di intelligenza artificiale. Ma lo stesso sondaggio rivela il ritardo etico: meno di una su dieci organizzazioni ha in atto politiche formali. E le organizzazioni che utilizzano l’IA stanno spesso lavorando con infrastrutture limitate, poche competenze interne e budget vincolati che impediscono loro di costruire sistemi personalizzati consapevoli del dominio. Invece, si appoggiano a strumenti commerciali non progettati per i loro contesti unici, aumentando la probabilità di pregiudizi, uso improprio o disallineamento della missione.
In un momento in cui la fiducia è fondamentale per la credibilità senza scopo di lucro, questo vuoto di governance è allarmante. L’IA non è neutrale. Riflette, ingrandisce e fa funzionare i dati su cui sono addestrati e che i dati sono spesso pieni di disuguaglianze storiche. Senza politiche per guidare l’uso, il rischio non profit di rafforzare le disuguaglianze strutturali che mirano a smantellare. Rischiano anche di non essere all’altezza dei loro valori. Come Addie Achan, direttore dei programmi AI a Fast forward, Mettilo: “È meglio per un’organizzazione definire le regole e le aspettative attorno all’uso piuttosto che avere le persone che lo usano e causano inavvertitamente più danni”. In questo contesto, il “danno” potrebbe significare qualsiasi cosa, dal processo decisionale discriminatorio nella fornitura di servizi a perdite involontarie di dati del beneficiario sensibili. La necessità di politiche etiche di intelligenza artificiale non è una preoccupazione teorica: è pratica.
Il costo della cautela e il prezzo dell’azione
Secondo il sondaggio di BDO indica una trifera di resistenza: mancanza di conoscenza, infrastrutture insufficienti e vincoli di finanziamento. Ma circa un terzo degli intervistati ha anche citato la resistenza dei dipendenti e le preoccupazioni etiche. Mentre i manager temono il rischio, i dipendenti possono temere la sostituzione. Lo scetticismo, quindi, è sia pratico che esistenziale. E si svolge in modo irregolare. La maggior parte delle distribuzioni di intelligenza artificiale sono limitate alle funzioni di back-office, in cui la tecnologia può migliorare tranquillamente l’accuratezza e l’efficienza. Ma le applicazioni più trasformative-monitoraggio energetico a propulsione AI, sintesi di dati in tempo reale per programmi di educazione globale-sono in gran parte aspirazionali. Questi usi allineati alla missione richiedono sia muscoli finanziari che chiarezza etica. In questo momento, la maggior parte delle organizzazioni non profit ha l’uno o l’altro. Pochi hanno entrambi.
La legge sul bilanciamento finanziario
Ironia della sorte, la posizione finanziaria del settore è più stabile di quanto non fosse da anni. Secondo BDO, il 52 % delle organizzazioni no profit ha visto la crescita dei ricavi nell’ultimo anno fiscale, rispetto al 44 % nel 2023. Nel frattempo, il 62 % ora detiene sette o più mesi di riserve operative, il cuscino più forte dal 2018. Questo è un passaggio significativo dagli anni magri della pandemia. E sta dando ai leader la sicurezza di considerare turni operativi più ambiziosi.
Quasi tre quarti di organizzazioni no profit affermano di prevedere di espandere o spostare la portata delle loro missioni nei prossimi 12 mesi. Ma la cautela rimane la postura finanziaria dominante. La maggior parte delle organizzazioni spende meno su tutta la linea nel 2024 rispetto al 2023, in particolare in relazioni di difesa, raccolta fondi e donatori. Le eccezioni sono lo sviluppo di nuovi programmi e l’acquisizione di talenti, aree che hanno visto un modesto aumento della spesa. In altre parole, le organizzazioni non profit stanno salvando, assumendo e testando nuove direzioni, ma lo stanno facendo con un occhio al calendario politico e l’altro sull’instabilità macroeconomica.
Un vuoto politico con conseguenze reali
Allora dove lascia il settore? È in un momento di silenziosa contraddizione. Da un lato, le organizzazioni non profit stanno costruendo riserve, assunzioni di talenti e missioni in espansione: segni chiari di fiducia istituzionale. Dall’altro, stanno rapidamente adottando una tecnologia potente e imprevedibile senza le strutture di governance per gestirla. Il settore sta entrando nell’era AI nello stesso modo in cui è entrato nell’era digitale, attraverso l’improvvisazione e l’adattamento piuttosto che la progettazione strategica. Potrebbe andare bene per un po ‘. Ma senza politiche per garantire trasparenza, responsabilità e allineamento con la missione, i rischi aumenteranno solo. Gli strumenti possono essere nuovi, ma i dilemmi etici – che benefici, che sono esclusi e che decide – sono vecchi e irrisolti.
Cosa deve accadere dopo
Creare politiche etiche di intelligenza artificiale per le organizzazioni non profit non riguarda il rallentamento dell’innovazione; Si tratta di dirigerlo. Ciò significa stabilire linee guida che riflettono la missione e i valori di ciascuna organizzazione, investire nell’istruzione interna su come funzionano i sistemi di intelligenza artificiale e implementazione di processi di supervisione per valutare sia i benefici che i danni. Le politiche dovrebbero chiarire non solo ciò per cui l’intelligenza artificiale può essere usata, ma per cosa non dovrebbe essere usato. Dovrebbero identificare i punti decisionali in cui la revisione umana è obbligatoria, delinea le aspettative sulla privacy dei dati e fornire procedure per il risarcimento in caso di danno.
Le organizzazioni non profit hanno una finestra stretta per dare l’esempio. Possono dimostrare che è possibile utilizzare l’IA non solo in modo efficiente, ma eticamente.