La nuova equazione dell’agency: quando gli agenti eseguono, gli umani decidono

Questo articolo riflette un punto di vista personale, maturato in ambito professionale ma espresso a titolo individuale. Non rappresenta in alcun modo aziende, enti o organizzazioni con cui collaboro. Scopo informativo e divulgativo, non consulenziale.

Riflessioni sul Work Trend Index 2026 e su un cambio di paradigma che non è (più) il futuro

Il Work Trend Index 2026 di Microsoft introduce un concetto che merita di essere preso sul serio: la nuova equazione dell’agency. Man mano che gli agenti di intelligenza artificiale eseguono compiti in autonomia, gli esseri umani vedono crescere — almeno potenzialmente — la propria capacità decisionale, strategica e creativa. È un’equazione promettente, ma non automatica. I dati dicono che il 49% delle conversazioni con Copilot supporta lavoro cognitivo e che il 66% degli utenti di AI sente di poter dedicare più tempo ad attività ad alto valore. Eppure il 65% teme di restare indietro e solo il 26% ritiene che la propria leadership abbia una visione chiara. In questo primo articolo della serie inquadro la cornice teorica, distinguo l’evidenza dall’hype e propongo una lettura italiana del fenomeno, dove la quota di Frontier Professionals è ferma al 10% contro una media globale del 16%.

Il momento in cui ho capito

L’altro giorno, mentre rivedevo un’architettura cloud insieme a un agente AI, mi sono trovato a fare qualcosa che venti anni fa avrei considerato fantascienza: non scrivevo codice, non disegnavo diagrammi, non rispondevo a ticket. Decidevo. L’agente proponeva opzioni, valutava trade-off, generava varianti. Io sceglievo, indirizzavo, scartavo. Per la prima volta in trent’anni di carriera in IT — dai modem dial-up ai servizi Azure AI — ho percepito con nettezza il senso di una frase che Satya Nadella ha scritto nella prefazione del Work Trend Index 2026“as agents execute, humans gain agency”.

È una frase elegante, quasi seducente. Ma è anche un’ipotesi forte, non un fatto compiuto. E come ogni ipotesi forte, va smontata, verificata, confrontata con i numeri prima di essere accettata. Questo è esattamente ciò che voglio fare in questa serie di quattro articoli, partendo dalla cornice generale.

Cosa misura davvero il Work Trend Index

Il Work Trend Index Annual Report 2026 di Microsoft, pubblicato a maggio 2026 con il sottotitolo “Agents, human agency, and the opportunity for every organization”, è il quinto report annuale della serie. Si basa su un sondaggio condotto tra il 18 febbraio e il 20 aprile 2026 in dieci mercati (inclusa l’Italia), con 20.000 lavoratori della conoscenza intervistati, oltre a dati di telemetria aggregata di Microsoft 365 Copilot, segnali da LinkedIn e analisi qualitative con leader aziendali (Microsoft, 2026).

Tre elementi distinguono questa edizione dalle precedenti. Il primo è il passaggio definitivo dal tema dell’adozione individuale al tema dell’organizzazione che apprende. Il secondo è l’introduzione esplicita del concetto di Frontier Firm — l’azienda che ha completato la transizione verso un modello di lavoro umano-agente. Il terzo, forse il più rilevante, è la quantificazione del paradosso della trasformazione: solo il 19% delle aziende è oggi Frontier, mentre il 50% è Emergent, il 16% Stalled, il 10% Blocked, il 5% Unclaimed.

Il rapporto di Microsoft non è, evidentemente, una pubblicazione peer-reviewed. È un documento commerciale di un’azienda che vende soluzioni AI. I dati suggeriscono una direzione, ma vanno triangolati con la letteratura accademica indipendente. È quello che mi sono proposto di fare in questa serie, attingendo in particolare al recente lavoro di Shao et al. (2026) della Stanford University sul Human Agency Scale e ai 149 studi analizzati da Wang, de Paula e Heavin (2026) sulla Human-AI Collaboration.

La nuova equazione, parola per parola

L’agentività come variabile dipendente

Il concetto di agency — o agentività — non è nuovo nelle scienze sociali. Indica la capacità di un soggetto di agire intenzionalmente, con consapevolezza e con effetti sul mondo. Ciò che è nuovo è l’idea che questa variabile, tradizionalmente considerata costante (un essere umano ha agency), possa essere modulata dalla presenza di agenti artificiali che si fanno carico delle attività esecutive.

Shao et al. (2026), in un lavoro pubblicato su arXiv (2506.06576v3, aggiornato a febbraio 2026) e condotto in collaborazione con il SALT Lab di Stanford guidato da Erik Brynjolfsson, hanno proposto la Human Agency Scale (HAS): una scala a cinque livelli che misura quanto controllo umano sia preservato in ciascun task svolto in collaborazione con un’AI. I livelli vanno da H1 (l’umano resta pienamente in controllo, l’AI assiste) a H5 (l’AI opera in autonomia, l’umano supervisiona solo l’esito). Su un dataset chiamato WORKBank, che mappa 844 task lavorativi attraverso 104 occupazioni del database O*NET, gli autori mostrano che la distribuzione ottimale di HAS varia drasticamente tra professioni e che l’errore più comune dei sistemi attuali è automatizzare task in cui i lavoratori desiderano mantenere alto il controllo umano.

Questa è la prima domanda critica: gli agenti AI stanno aumentando l’agency umana o la stanno erodendo?

Cosa dicono i numeri Microsoft

Il Work Trend Index 2026 fornisce alcuni indicatori interessanti:

  • Il 49% delle conversazioni con M365 Copilot supporta lavoro cognitivo — non semplici lookup, ma analisi, sintesi, decision support.
  • Il 66% degli utenti di AI dichiara di poter dedicare più tempo ad attività ad alto valore.
  • Il 58% sostiene di produrre lavoro che un anno fa non avrebbe potuto produrre. Tra i Frontier Professionals, questa percentuale sale all’80%.
  • L’86% tratta l’output dell’AI come un punto di partenza, non come prodotto finito (in Italia 83%).

Questi dati, presi alla lettera, sembrerebbero confermare l’ipotesi di Nadella. Ma c’è un però importante: si tratta di dati auto-riferiti raccolti su un campione di utenti già attivi su Copilot. Non è uno studio controllato, non c’è gruppo di controllo, non c’è misura oggettiva di produttività. È un sondaggio di percezione, non un esperimento clinico.

Cosa dice la letteratura indipendente

Wang, de Paula e Heavin (2026), in una systematic review pubblicata sul Journal of Decision Systems (Taylor & Francis) che analizza 149 studi sulla Human-AI Collaboration (HAIC), individuano un pattern ricorrente: l’effetto positivo dell’AI sulla performance umana è fortemente moderato da tre variabili — il livello di expertise dell’umano, la trasparenza dell’AI sui propri limiti, e il design dell’interazione. Quando una di queste manca, il rischio di de-skilling (perdita di competenze) e di automation bias (eccessiva fiducia nell’output della macchina) cresce significativamente.

Una meta-analisi pubblicata su npj Digital Medicine (gruppo Nature) nel 2026 sull’uso di AI in ambito clinico mostra che il pattern Human + AI supera consistentemente sia l’umano da solo sia l’AI da sola solo nei contesti in cui l’umano resta nel ruolo di decisore finale. Quando l’AI opera in autonomia con supervisione superficiale, gli errori aumentano.

Questi due lavori, presi insieme, ridimensionano l’ottimismo della “nuova equazione”. L’agency aumenta, sì, ma a condizione che l’organizzazione progetti consapevolmente l’interazione, formi le persone e mantenga l’umano come decisore.

Limiti dell’evidenza disponibile

Va detto con onestà intellettuale: siamo all’inizio di una transizione tecnologica e i dati longitudinali non esistono ancora. Il rapporto Microsoft fotografa primi due anni dell’era Copilot. Gli studi accademici peer-reviewed sull’impatto degli agenti AI sull’agency umana sono pochi e quasi tutti datati 2024-2026. Mancano repliche, mancano controlli, manca il tempo per osservare effetti di medio periodo (resilienza cognitiva, carriere, equità tra coorti).

L’Italia ferma al 10%

Il dato italiano del Work Trend Index 2026 è quello che mi ha colpito di più. Mentre il 16% degli utenti di AI nel mondo è classificato come Frontier Professional, in Italia siamo al 10%. Mentre globalmente il 26% ritiene che la leadership della propria azienda sia allineata sull’AI, in Italia siamo al 18% — undici punti sotto la media. Solo l’11% dei lavoratori italiani si sente premiato per aver reinventato il proprio modo di lavorare, contro il 13% globale.

L’articolo di Repubblica del 5 maggio 2026 dedicato al rapporto sintetizza bene la posizione italiana: siamo un Paese che usa l’AI in modo crescente ma episodico, senza una cornice strategica condivisa. Nella mia esperienza sul campo con clienti enterprise italiani, il pattern è ricorrente: pilot interessanti su singoli use case, scarsissima orchestrazione a livello aziendale, leader che chiedono “il ROI dell’AI” prima ancora di aver definito una visione di trasformazione del lavoro.

La nuova equazione dell’agency, in Italia, rischia di diventare una nuova equazione della disuguaglianza: chi è in azienda già Frontier vedrà crescere la propria autonomia decisionale; chi resta in contesti Stalled o Blocked vedrà solo nuovi strumenti senza nuova agency.

Una promessa, non un automatismo

La nuova equazione dell’agency è una promessa, non un automatismo. I dati del Work Trend Index 2026 indicano una direzione plausibile, supportata da segnali coerenti dalla letteratura accademica. Ma la stessa letteratura ricorda che l’effetto positivo dipende da scelte progettuali, formative e organizzative che oggi, soprattutto in Italia, sono ancora in larga parte da fare.

Nei prossimi tre articoli di questa serie esamineremo: (2) i quattro modi di lavorare con l’AI — DelegationCollaborationAskingExploration — e perché contano per la quotidianità professionale; (3) il paradosso della trasformazione e perché solo il 19% delle aziende è oggi Frontier; (4) cosa significa diventare un Learning System organizzativo e quali leve concrete esistono per accelerare. La vera sfida non è tecnica, ma umana. E proprio per questo, è la più interessante.

Riferimenti

  • Lakhani, K. R., Spataro, J., & Stave, M. (2026, marzo). The last mile problem of AI. Harvard Business Review.
  • Microsoft. (2026). 2026 Work Trend Index Annual Report: Agents, human agency, and the opportunity for every organization. Microsoft.
  • Repubblica. (2026, 5 maggio). Lavoro, il rapporto Microsoft Work Trend Index 2026: l’Italia e gli agenti AI. La Repubblica.
  • Shao, Y., Brynjolfsson, E., et al. (2026). Future of work with AI agents: Auditing automation and augmentation potential across the U.S. workforce (arXiv:2506.06576v3). Stanford University, SALT Lab.
  • Wang, J., Wang, X., et al. (2026). Performance of human + AI versus human alone and AI alone across clinical decision tasks: A systematic review and meta-analysis. npj Digital Medicine (Nature Portfolio).
  • Wang, S., de Paula, D., & Heavin, C. (2026). Human-AI collaboration in decision-making: A systematic review of 149 empirical studies. Journal of Decision Systems (Taylor & Francis).

Ricerca bibliografica condotta il 5 maggio 2026. L’utente è invitato a verificare i riferimenti nelle fonti originali prima di ogni utilizzo professionale.


Scopri di più da Argo's New Dreams

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Posted in

Rispondi

Scopri di più da Argo's New Dreams

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere

Scopri di più da Argo's New Dreams

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere