Secondo il rapporto, i leader globali sono alle prese con cinque tensioni fondamentali legate all’integrazione dell’intelligenza artificiale (AI) nei luoghi di lavoro intuizioni da oltre 100 costruttori, dirigenti, investitori, consulenti e ricercatori. Queste tensioni comprendono il rapporto tra esperti e principianti, la centralizzazione contro la decentralizzazione nella governance, l’impatto dell’intelligenza artificiale sulle strutture gerarchiche, l’equilibrio tra velocità e implementazione deliberata e l’interazione tra iniziative di cambiamento top-down e iniziative di cambiamento guidate dai pari. La ricerca indica che le prime applicazioni dell’intelligenza artificiale hanno mostrato duplici effetti. Gli endoscopisti polacchi che utilizzano l’intelligenza artificiale per il rilevamento del cancro hanno riscontrato una maggiore precisione nelle procedure supportate dall’intelligenza artificiale, ma un calo delle attività non basate sull’intelligenza artificiale. Gli studenti che utilizzavano l’intelligenza artificiale per la stesura di saggi in stile SAT inizialmente hanno mostrato picchi di creatività; tuttavia, quelli che hanno iniziato con idee generate dall’intelligenza artificiale hanno mostrato un’attività ridotta delle onde alfa e hanno prodotto risultati molto simili. Uno studio del 2025 condotto in 20 paesi europei ha inoltre rivelato che i lavoratori che svolgono lavori altamente automatizzati hanno riportato una diminuzione degli obiettivi, un controllo ridotto e un aumento dello stress, nonostante i compiti siano diventati tecnicamente più facili. Il nuovo Work AI Institute di Glean ha raccolto questi risultati in “AI Transformation 100”, un elenco commentato di idee per sfruttare i vantaggi dell’intelligenza artificiale e mitigarne gli svantaggi. Questa iniziativa mira a differenziare la vera trasformazione dall’hype, comprendendo il progresso, la stagnazione e le conseguenze indesiderate dell’IA. Una delle tensioni nasce dalla capacità dell’intelligenza artificiale di offuscare il confine tra esperti e principianti, consentendo ai non specialisti di svolgere compiti che storicamente richiedevano una formazione approfondita, come la codifica o l’analisi dei dati. Questo cambiamento espande le opportunità di contributo, ma rischia di confondere la fluidità dell’intelligenza artificiale con una vera padronanza. John Lilly, membro del consiglio di amministrazione di Duolingo, ha osservato che dei non ingegneri hanno prototipato un corso di scacchi utilizzando l’intelligenza artificiale in quattro mesi, superando altre iniziative interne perché gli esperti, se coinvolti troppo presto, potrebbero esprimere le ragioni per cui un progetto non funzionerebbe. I team di Google hanno anche adottato un approccio “primo prototipo”, utilizzando la “codifica delle vibrazioni” basata sull’intelligenza artificiale per creare demo funzionanti prima di elaborare proposte, accelerando l’iterazione. Tuttavia, fare eccessivo affidamento sui principianti può portare a “insuccessi dell’intelligenza artificiale”: risultati che sembrano convincenti ma mancano di sostanza. Una ricerca di Stanford indica un calo nelle assunzioni di sviluppatori entry-level, mentre la domanda di ingegneri senior è aumentata, suggerendo che le aziende si affidano agli esperti per contrastare questo fenomeno. Per affrontare questo problema, le strategie includono consentire ai generalisti di avviare progetti con l’intelligenza artificiale, ma garantire che gli esperti perfezionino e aumentino i risultati positivi. A Stitch Fix, l’ex Chief Algorithms Officer Eric Colson ha descritto algoritmi personalizzati che segnalano le esigenze non soddisfatte, con designer umani che selezionano poi opzioni in linea con il marchio e gli standard di qualità. Le organizzazioni dovrebbero anche coinvolgere i migliori dipendenti, come medici o esperti di dati, nella formazione sui modelli di intelligenza artificiale e nei programmi pilota fin dall’inizio, come raccomandato dal vicepresidente AI di TELUS Alexandre Guilbault, che ha affermato: “Le persone migliori sono quelle che possono guidare la trasformazione più grande”. Incorporare esperti all’interno dei team locali, come il team “Glean on AI” di Glean per l’automazione funzionale e il team “AI Outcomes” per le soluzioni dei clienti, facilita anche l’identificazione e lo sviluppo di processi basati sull’intelligenza artificiale. Un’altra tensione riguarda l’equilibrio tra la centralizzazione e la decentralizzazione del controllo dell’intelligenza artificiale all’interno delle organizzazioni. La centralizzazione, spesso attraverso centri di eccellenza dell’intelligenza artificiale, mira a far rispettare gli standard e gestire i rischi, ma può soffocare l’innovazione a causa di estesi processi di approvazione. Al contrario, lo sviluppo decentralizzato dell’intelligenza artificiale può portare a un’innovazione rapida ma non coordinata, con conseguente strumenti frammentati e esaurimento digitale, secondo Paul Leonardi, professore dell’Università di Santa Barbara. Per affrontare questo problema, le aziende centralizzano aree ad alto rischio come la governance dei dati e l’infrastruttura per la sicurezza, decentralizzando al contempo la sperimentazione a basso rischio come l’automazione del flusso di lavoro. Le organizzazioni dovrebbero anche evitare di creare ruoli simbolici di IA senza budget o autorità, distribuendo invece le responsabilità dell’IA all’interno dei team esistenti. Le scelte tecnologiche dovrebbero includere funzionalità di governance di livello aziendale, come sicurezza e audit trail, consentendo al contempo flessibilità ai singoli team. I team HR di Booking.com hanno implementato una piattaforma di ricerca basata sull’intelligenza artificiale che garantisce ai dipendenti l’accesso solo alle informazioni per le quali hanno il permesso, secondo il Senior Engineering Manager Tadeu Faedrich, che ha affermato: “Non volevamo che le persone trovassero documenti a cui non avrebbero dovuto avere accesso”. La terza tensione riguarda la tendenza verso gerarchie organizzative più piatte. Sebbene l’intelligenza artificiale automatizzi le decisioni e il reporting di routine, molti leader presumono che consenta la rimozione dei livelli di gestione per movimenti più rapidi. Tuttavia, Michael Arena, ex Chief Talent Officer presso General Motors, ha scoperto che un eccessivo appiattimento può sovraccaricare i manager e creare colli di bottiglia, soprattutto quando si supervisionano più di sette rapporti diretti. I manager spesso lavorano dalle 10 alle 13 ore al giorno e continuano a lottare con i loro compiti. Le organizzazioni dovrebbero valutare le proprie modalità di lavoro prima dell’appiattimento. Se il lavoro prevede principalmente compiti “a testa bassa” che richiedono un coordinamento minimo, gli agenti di intelligenza artificiale possono gestire compiti di routine, consentendo ai manager di guidare team più grandi. Per il lavoro “heads-up”, che richiede interdipendenza e comunicazione in tempo reale, il mantenimento di team di dimensioni ridotte consente ai manager di concentrarsi sul coaching, sul giudizio e sulla costruzione delle relazioni. L’intelligenza artificiale dovrebbe alleggerire, non eliminare, la gestione scaricando attività amministrative come gli aggiornamenti di stato e la pianificazione. Phil Wilburn, vicepresidente di People Analytics di Workday, ha notato che il suo team non compila più briefing o aggiornamenti settimanali perché un sistema di intelligenza artificiale aggrega dati non strutturati da Slack e piani di progetto, consentendogli di utilizzare l’intelligenza artificiale per compilare brief o argomenti di ricerca prima delle riunioni. L’intelligenza artificiale ha eliminato gli oneri amministrativi senza sostituire le funzioni gestionali. La quarta tensione riguarda l’impulso ad adottare rapidamente l’intelligenza artificiale rispetto alla necessità di un’integrazione attenta e deliberata. Un’eccessiva attenzione alla velocità può creare lacune nell’implementazione delle decisioni, in cui i nuovi strumenti vengono adottati rapidamente ma senza affrontare le questioni sistemiche esistenti o comprendere l’idoneità tecnologica. Ciò può portare a un’adozione disomogenea, a ritardi o all’abbandono delle iniziative di intelligenza artificiale. Il professore della Northwestern University Hatim Rahman ha descritto un progetto ospedaliero in cui l’addestramento dell’intelligenza artificiale per la diagnostica medica richiede migliaia di immagini ecografiche, ma le pressioni esistenti sull’efficienza sanitaria riducono al minimo l’acquisizione delle immagini. I processi di consenso dei pazienti e i conflitti interdipartimentali rallentano ulteriormente i progressi, portando a tempi di attuazione più lunghi del previsto. Anche i tecnici si oppongono al progetto, temendo un uso improprio dei dati per il monitoraggio delle prestazioni o tagli di posti di lavoro.
- Proteggi le modalità lente creando rallentamenti nel lavoro creativo e strategico, inclusi checkpoint e periodi di riflessione. Perry Klebahn, che guida l’acceleratore Launchpad della Stanford d.school, ha osservato che mentre l’intelligenza artificiale accelera la generazione di prototipi, può diminuire l’impegno dei fondatori nei confronti delle idee, poiché le percepiscono come generate troppo facilmente.
- Premiare l’apprendimento rispetto all’abilità nello spettacolo. Gli eventi di apprendimento sull’intelligenza artificiale “U-Days” di Udemy assegnano premi per l’impatto aziendale, il miglioramento misurabile e il feedback dei colleghi, piuttosto che solo per dimostrazioni appariscenti.
- Conduci un test sui “residui dell’intelligenza artificiale”: rimuovi tutto il gergo relativo all’intelligenza artificiale dalle presentazioni per valutare la sostanza sottostante. Se il contenuto rimanente è inconsistente, indica un’idea debole.
La tensione finale riguarda la questione se la trasformazione dell’IA debba essere guidata dall’alto verso il basso o guidata dai pari. La leadership top-down è fondamentale per l’adozione a livello aziendale, con i dati di Worklytics che mostrano che i team hanno il doppio delle probabilità di adottare strumenti di intelligenza artificiale se i loro manager li utilizzano per primi. Tuttavia, un’eccessiva pressione dall’alto verso il basso può portare a resistenza o conformità superficiale. Fare eccessivo affidamento sugli sforzi dal basso verso l’alto può portare alla frammentazione e alla sperimentazione non coordinata. Un CTO ha notato che questo potrebbe essere paragonato a “centinaia di piccoli motoscafi che corrono in direzioni diverse”. Per bilanciare questi approcci, le aziende stabiliscono ritmi di cambiamento. Il CEO di un rivenditore Fortune 20 mantiene l’intelligenza artificiale come argomento costante nelle riunioni mensili dei vicepresidenti e un comitato direttivo interfunzionale allinea l’adozione e i casi d’uso. Le riunioni del personale dipartimentale prevedono un “momento AI” per la condivisione delle esperienze. Le organizzazioni prevedono inoltre che gli esperimenti falliscano, riconoscendo che circa l’80% dei progetti di intelligenza artificiale potrebbe non raggiungere gli obiettivi di produttività iniziali. Un’organizzazione Fortune 500 non riprogetta i posti di lavoro finché non ci sono “prove convincenti” che l’intelligenza artificiale aumenterà l’efficienza. Vengono implementati cicli di revisione per acquisire lezioni dai dipendenti ai livelli inferiori, garantendo che i fallimenti alimentino l’apprendimento. Anche misurare l’impatto sull’attività è fondamentale. Nan Guo, vicepresidente senior dell’ingegneria di Zendesk, utilizza una scheda di valutazione bilanciata composta da sei parametri di produttività ingegneristica, tra cui il tempo di ciclo e il tasso di errore delle modifiche, anziché indicatori superficiali come accessi o conteggi di prompt. La formalizzazione delle reti di pari, come l’iniziativa di Uber che ha identificato 53 primi campioni dell’intelligenza artificiale in tutte le funzioni, favorisce le comunità di apprendimento interne e il coinvolgimento. I leader di successo affrontano le complessità dell’intelligenza artificiale trattando queste tensioni come caratteristiche di progettazione piuttosto che come difetti. Rimangono adattabili, riconoscendo che il percorso ottimale da seguire è provvisorio. “Il cinquanta per cento di ciò che vi insegniamo si rivelerà sbagliato”, avrebbe detto un preside della Harvard Medical School agli studenti in arrivo, riflettendo l’incertezza nell’implementazione dell’intelligenza artificiale. I leader che mostrano umiltà e coltivano la flessibilità organizzativa saranno meglio attrezzati per apprendere e adattarsi continuamente all’evoluzione del panorama tecnologico.




