Skip to content Skip to footer

Affidarsi all'AI generativa per svolgere compiti cognitivi complessi aumenta la produttività nel breve periodo. Ma ha un costo che si misura sul lungo periodo: la riduzione delle capacità cognitive di chi la usa passivamente. Non è un'ipotesi teorica. È quello che emerge dall'analisi Gartner pubblicata nel dicembre 2025 nel report Predicts 2026: Intelligent Applications Shape the Future of Work.

Cos'è il cognitive offloading

Il cognitive offloading è il processo attraverso cui una persona delega a uno strumento esterno attività che richiederebbero elaborazione mentale. Con l'AI generativa, questo fenomeno raggiunge una scala nuova. I sistemi di guided GenAI, ovvero le funzionalità AI incorporate nelle applicazioni aziendali che forniscono automaticamente suggerimenti, raccomandazioni e prossimi passi senza che l'utente le richieda esplicitamente, stanno portando questa dinamica al centro del lavoro quotidiano.

Il problema non è usare l'AI. Il problema è usarla passivamente. Affidarsi agli LLM senza prima attivare il pensiero indipendente riduce significativamente l'attività cerebrale legata alla memoria di lavoro e al controllo esecutivo, le funzioni cognitive critiche per la pianificazione, il processo decisionale e la valutazione delle opzioni.

Il rischio concreto: erosione delle competenze e dell'identità

Quando i lavoratori diventano destinatari passivi dell'output AI, le loro responsabilità si spostano dal controllo attivo alla semplice supervisione. L'automazione dei task cognitivamente impegnativi porta a una rapida erosione delle competenze per mancanza di esercizio continuo. Questo processo può erodere anche il senso di padronanza professionale e l'identità lavorativa.

Gartner stima che fino al 25% degli output di GenAI contengano allucinazioni. Chi usa guided GenAI senza pensiero critico attivo rischia di non riconoscere questi errori, aumentando l'esposizione a incidenti pubblici e danni reputazionali. L'effetto camera d'eco, ovvero la tendenza degli LLM a produrre output omogenei, soffoca inoltre la diversità di strategie e idee creative man mano che i lavoratori diventano progressivamente passivi.

La "moral crumple zone"

Gartner introduce un concetto preciso per descrivere una dinamica organizzativa emergente: la moral crumple zone. Allo stesso modo in cui la zona di deformazione programmata di un'automobile assorbe l'energia di un impatto, i lavoratori che usano guided GenAI spesso diventano il punto in cui ricade la responsabilità quando qualcosa va storto, nonostante abbiano avuto un'autorità limitata per intervenire o correggere gli errori del sistema.

È un problema di design organizzativo prima che tecnologico. Se chi è responsabile di un outcome non ha la possibilità reale di interagire con il processo AI che lo genera, il sistema di accountability è rotto.

Experience starvation nei professionisti junior

Un effetto collaterale specifico riguarda chi è all'inizio della carriera. Quando la guided GenAI rimuove le persone dal loop operativo, queste perdono l'esperienza pratica necessaria per sviluppare le competenze di giudizio che servono per aggiungere valore nel tempo. Gartner definisce questo fenomeno "experience starvation": la mancanza di opportunità di apprendimento sul campo che prima era garantita dall'esecuzione diretta dei task.

Il paradosso è che l'AI potrebbe essere usata in modo opposto: per creare simulazioni realistiche e interattive che permettono ai professionisti junior di esercitare il giudizio in contesti sicuri, costruendo le competenze necessarie prima di operare su processi reali.

Come gestire il trade-off

Gartner non suggerisce di limitare l'uso dell'AI. Suggerisce di progettarlo meglio. Chi è responsabile di un outcome deve avere la possibilità concreta di interagire con il modello, regolare i prompt e esercitare autorità decisionale sulla qualità degli output. La metrica di successo non può essere solo velocità e completamento: deve includere le istanze in cui i lavoratori hanno interrogato, verificato e applicato in modo creativo i contenuti generati dall'AI.

Mantenere rotazioni di ruolo, usare simulatori GenAI per il reskilling e implementare programmi di critical thinking sono le leve raccomandate per bilanciare l'efficienza dell'automazione con la preservazione delle capacità cognitive delle persone.

Il punto

L'AI aumenta la produttività quando viene usata come strumento attivo. La riduce, sul lungo periodo, quando diventa una delega passiva. La distinzione non è tecnica ma organizzativa: dipende da come vengono progettati i processi, da chi ha autorità reale sugli output e da quanto spazio rimane alle persone per esercitare il proprio giudizio professionale.

Close
Close