Il problema principale che impedisce alle organizzazioni di sfruttare appieno l’intelligenza artificiale generativa (GenAI)—un fenomeno chiamato “GenAI Divide”—è un gap di apprendimento. Nonostante gli investimenti e l’alta adozione di strumenti generici, la maggior parte dei progetti pilota fallisce. La barriera principale alla scaling non è l’infrastruttura o il talento, ma il fatto che i sistemi GenAI attuali non riescono a trattenere il feedback, ad adattarsi al contesto o a migliorare nel tempo.

Il Paradosso dell’Utente e le Barriere allo Scaling

Si osserva un paradosso fondamentale nel comportamento degli utenti: i professionisti che esprimono scetticismo verso i sistemi AI aziendali sono spesso assidui utilizzatori di interfacce LLM consumer come ChatGPT per le loro attività personali. Oltre il 40% dei lavoratori della conoscenza utilizza strumenti AI a livello privato. Questi strumenti personali sono elogiati per la loro flessibilità, familiarità e la percezione di fornire output di qualità superiore rispetto a soluzioni aziendali su misura, anche se i venditori affermano di utilizzare la stessa tecnologia sottostante.

Tuttavia, quando i sistemi AI vengono implementati a livello aziendale, incontrano una forte resistenza. I principali ostacoli che impediscono ai progetti pilota di procedere oltre la fase sperimentale sono l’“Unwillingness to adopt new tools” (riluttanza ad adottare nuovi strumenti) e, sorprendentemente, le “Model output quality concerns” (preoccupazioni sulla qualità dell’output del modello). Altri fattori includono una “Poor user experience” (scarsa esperienza utente). Questo scetticismo deriva dalla consapevolezza che gli strumenti aziendali sono spesso descritti come fragili, troppo ingegnerizzati o disallineati rispetto ai flussi di lavoro reali.

genai

                                                                                  report The GenAI divide – MIT – Luglio 2025

La Criticità della Memoria e dell’Adattabilità

Ciò che manca ai sistemi GenAI in ambito mission-critical è la persistenza contestuale. L’elevata preferenza degli utenti per gli strumenti consumer espone chiaramente il problema centrale del divario: ChatGPT, ad esempio, dimentica il contesto, non impara e non evolve.

Per il lavoro ad alto rischio o a lungo termine (come la gestione di progetti complessi o la revisione di contratti sensibili), l’AI viene abbandonata perché non è in grado di apprendere dalle modifiche precedenti, richiede un ampio input di contesto manuale ad ogni sessione e ripete gli stessi errori. La linea di demarcazione tra l’accettazione dell’AI e il suo rifiuto non è l’intelligenza, ma la sua capacità di apprendimento.

I dati sono netti: per le attività rapide (e-mail, analisi di base), l’AI è preferita nel 70% dei casi. Ma per progetti complessi e multifase, il 90% degli utenti preferisce affidarsi a un collega umano. 

La Soluzione: L’AI Agentica

Per colmare questo divario, è emersa una classe di sistemi nota come AI Agentica (Agentic AI). A differenza dei sistemi attuali che richiedono un contesto completo ogni volta, i sistemi agentici sono progettati per incorporare la memoria persistente e l’apprendimento iterativo. Possono apprendere dalle interazioni, mantenere la conoscenza e orchestrare autonomamente flussi di lavoro complessi.

L’AI agentica affronta direttamente il gap di apprendimento, rappresentando l’elemento chiave che differenzia le organizzazioni che riescono a superare il GenAI Divide da quelle che rimangono bloccate.