Il cambio di fase#
Nel febbraio 2026, 16 agenti IA autonomi hanno scritto in due settimane un compilatore C completo – 100.000 righe di codice Rust che compila il kernel Linux e supera il 99% di una torture-test suite. Costo: 20.000 dollari. Solo dodici mesi fa, gli agenti autonomi perdevano il filo dopo trenta minuti. Sei mesi fa era considerato notevole se un agente resisteva sette ore. Da trenta minuti a due settimane in un anno – questa non è una linea di tendenza. Questo è, come lo definisce l’analista, un cambio di fase.
Storie come queste sembrano notizie dal mondo dello sviluppo software. E lo sono. Ma il nucleo di ciò che sta accadendo non riguarda lo sviluppo software. Riguarda la domanda su cosa succede quando l’IA non assiste più per minuti, ma lavora autonomamente per giorni e settimane. E questa domanda riguarda ogni azienda la cui creazione di valore si basa sul lavoro della conoscenza.
Cosa è realmente cambiato#
Il dibattito pubblico sull’IA ruota per lo più attorno alle dimensioni dei modelli, ai benchmark e alle finestre di contesto. Sono le metriche sbagliate. La metrica giusta è una che quasi nessuno conosce: la capacità di un modello di ritrovare e utilizzare le informazioni all’interno della sua finestra di contesto.
Un modello che può elaborare un milione di token, ma recupera l’informazione giusta solo in un caso su cinque, è come un archivio senza indice. I documenti ci sono, ma trovare quello che serve è questione di fortuna. Esattamente questo era lo stato delle cose a gennaio 2026: i migliori modelli trovavano l’ago nel pagliaio nel 18-26 percento dei casi.
Opus 4.6, rilasciato a inizio febbraio, raggiunge il 76 percento con un milione di token e il 93 percento con un quarto di questi. Questa è la vera svolta: non la quantità di informazioni che un modello può elaborare, ma l’affidabilità con cui le comprende e le utilizza. È la differenza tra un modello che vede un file e un modello che tiene in mente un intero sistema – ogni dipendenza, ogni interazione, ogni implicazione.
Questa è la capacità che distingue un collaboratore esperto da un consulente esterno che legge i documenti per la prima volta. Il collaboratore esperto sa che una modifica negli acquisti ha ripercussioni sul calcolo dei costi, che il tasso di reclami è correlato alla selezione dei fornitori, che la garanzia si configura diversamente se il montaggio è stato eseguito dal cliente stesso. Non perché lo cerchi, ma perché vive nel sistema da abbastanza tempo da cogliere intuitivamente le connessioni.
Esattamente questa consapevolezza olistica è ciò che un agente IA può ora fornire – non attraverso anni di esperienza, ma attraverso la capacità di mantenere l’intero contesto simultaneamente e ragionare attraverso di esso.
Da strumento a interlocutore: La vera rivoluzione#
La maggior parte delle aziende oggi usa l’IA come un motore di ricerca migliorato o come generatore di testi. Si fa una domanda, si ottiene una risposta. Si dà un prompt, si ottiene una bozza. Questo è il paradigma dell’utilizzo dello strumento: l’essere umano formula il processo, l’IA esegue un passaggio.
Quello che sta emergendo è qualcosa di fondamentalmente diverso. Anthropic lo chiama Outcome-Orientation – la descrizione dei risultati invece che dei processi. Non si spiega all’IA come costruire la tabella. Si spiega cosa deve mostrare la tabella. Non si descrivono i passaggi della gestione di un reclamo. Si delega: “Gestisci questo reclamo.”
Sembra una differenza graduale. Non lo è. È un cambio di paradigma nell’interazione uomo-macchina, tanto fondamentale quanto il passaggio dalla riga di comando all’interfaccia grafica negli anni Ottanta. Allora il computer ha smesso di essere una macchina da programmare ed è diventato uno strumento da utilizzare. Ora smette di essere uno strumento da utilizzare e diventa un interlocutore a cui delegare.
La competenza che conta si sposta: dall’abilità tecnica di padroneggiare uno strumento, alla chiarezza della propria intenzione. Chi sa esattamente cosa gli serve – e può formularlo come lo direbbe a un collaboratore competente – può ora ottenere risultati per i quali prima erano necessari interi reparti.
La dissoluzione del confine tra tecnico e non tecnico#
Uno degli aspetti più notevoli degli sviluppi recenti: da Rakuten, il colosso giapponese dell’e-commerce, collaboratori non tecnici usano la stessa infrastruttura IA degli sviluppatori per costruire funzionalità e metterle in produzione. Due giornaliste di CNBC – non ingegneri – hanno costruito in meno di un’ora uno strumento di project management funzionante che replica le funzionalità core di un prodotto da 5 miliardi di dollari.
Non si tratta della democratizzazione della tecnologia nel senso usuale, dove si rende più semplice l’uso di uno strumento complicato. È la dissoluzione della categoria stessa. La distinzione tra collaboratori tecnici e non tecnici – una distinzione che ha organizzato il lavoro della conoscenza, le strutture salariali e gli organigrammi per trent’anni – si sta dissolvendo nel giro di mesi.
Per le PMI questo ha un significato specifico. Qui raramente c’è un reparto IT con venti sviluppatori. Ci sono capi reparto, responsabili commerciali, impiegati, ingegneri – persone con profonde competenze nel loro ambito, ma senza conoscenze di programmazione. Esattamente queste persone non vengono sostituite dall’Agentic AI, ma moltiplicate. La loro competenza – la capacità di valutare se un’offerta è corretta, se un reclamo è giustificato, se una norma è stata applicata correttamente – diventa la leva che finora mancava.
La capacità di giudizio come nuovo collo di bottiglia#
La paura comune è: l’IA sostituisce il lavoro umano. La realtà è più sfumata e, per certi versi, più impegnativa.
Ciò che l’IA sostituisce è l’esecuzione. Ciò che non sostituisce – e che attraverso di essa guadagna drammaticamente valore – è la capacità di giudizio. L’expertise di dominio. Quello che in inglese si chiama “taste”: la profonda comprensione di cosa costituisce un buon risultato, come deve essere un’offerta corretta, quale formulazione regge legalmente in una risposta a un reclamo e quale no.
I 16 agenti che hanno costruito il compilatore C non avevano bisogno di qualcuno che scrivesse codice per loro. Avevano bisogno di qualcuno che specificasse con sufficiente precisione cos’è un compilatore C. Il team marketing non ha più bisogno di qualcuno che sappia usare la piattaforma di analytics – ha bisogno di qualcuno che sappia quali indicatori sono rilevanti e perché.
La leva si è spostata: dall’esecuzione al giudizio. E questa leva si moltiplica con il numero di agenti che una persona può dirigere. Le aziende AI-native oggi generano da cinque a sette milioni di dollari di fatturato per collaboratore – da cinque a sette volte quello che è considerato “eccellente” nelle aziende software tradizionali. Non perché abbiano assunto persone migliori, ma perché le loro persone orchestrano agenti invece di eseguire in prima persona.
Il management come proprietà emergente#
Un risultato affascinante degli sviluppi recenti: quando si assegnano più agenti IA a un compito complesso, si organizzano autonomamente in strutture gerarchiche. Un agente lead scompone il progetto in sotto-attività, le assegna agli specialisti, monitora le dipendenze, risolve i blocchi. Gli specialisti comunicano non solo attraverso il lead, ma anche direttamente tra loro – coordinamento peer-to-peer.
Questa non è una struttura imposta. È evoluzione convergente. La gerarchia non è una convenzione culturale che gli esseri umani impongono ai sistemi IA. È una proprietà emergente del coordinamento di più attori intelligenti in compiti complessi. Gli esseri umani hanno inventato il management perché il management è ciò che l’intelligenza fa quando deve scalare. Gli agenti IA hanno scoperto la stessa cosa – per le stesse ragioni strutturali.
Per l’argomentazione a favore di una piattaforma come Phronesis questo è centrale: la piattaforma non mappa semplicemente i flussi di lavoro esistenti in digitale. Fornisce l’infrastruttura dalla quale gli agenti si auto-organizzano – con Skills come flussi di lavoro definiti, Tools come singole capacità e Contesti come conoscenza specifica del reparto. La piattaforma è ciò che una buona azienda offre ai suoi collaboratori: strutture chiare, conoscenza disponibile, processi definiti. L’agente usa tutto questo – ma decide autonomamente cosa gli serve per il compito specifico.
Il ritmo e le sue conseguenze#
Il cambio di fase in atto è notevole non solo nella sua direzione, ma soprattutto nella sua velocità. Gli strumenti che a gennaio erano lo stato dell’arte, a febbraio sono una generazione diversa. Il ricercatore di Anthropic coinvolto nel progetto del compilatore C lo ha formulato così: “I did not expect this to be anywhere near possible so early in 2026.”
Questa velocità ha una conseguenza paradossale: chi oggi si dedica a uno strumento IA specifico e lo padroneggia deve aspettarsi che la sua conoscenza sarà obsoleta in pochi mesi. Questo vale per ChatGPT così come per Copilot. Chiunque abbia ottimizzato il proprio workflow su un particolare pattern di prompt o una specifica versione del modello, sperimenta con ogni aggiornamento una svalutazione della propria expertise.
La risposta a questo non è imparare più velocemente i singoli strumenti. La risposta è un livello di astrazione: una piattaforma che disaccoppia il know-how aziendale dalla specifica tecnologia IA. Gli Skills, che definiscono cosa deve essere fatto, rimangono stabili anche se il modello sottostante cambia ogni tre mesi. I Contesti, che stabiliscono quale conoscenza è rilevante in quale reparto, sopravvivono a ogni cambio di modello. Il know-how aziendale – dati di prodotto, listini prezzi, norme, linee guida – rimane indipendente dal fatto che sotto il cofano lavori Opus 4.6, Opus 5 o qualcosa di completamente diverso.
Questa è l’idea architetturale centrale di Phronesis: disaccoppiare il know-how aziendale e i flussi di lavoro dalla tecnologia IA in rapida evoluzione. La piattaforma assorbe il cambiamento tecnologico, così che l’azienda possa concentrarsi su ciò che rimane stabile: il suo know-how, i suoi processi, la sua capacità di giudizio.
Perché le PMI non aspettano, ma agiscono#
I numeri dalla Silicon Valley – Cursor con 5 milioni di dollari di fatturato per collaboratore, McKinsey con l’obiettivo della parità agenti-umani entro fine 2026, team Amazon che si riorganizzano in “due persone più flotta di agenti” – sembrano provenire da un mondo diverso rispetto al produttore di cucine in Baviera o al costruttore di macchinari nella Bergamasca.
Ma il nucleo dell’argomento colpisce le PMI ancora più fortemente delle grandi aziende. Perché:
Le PMI hanno ciò che l’IA non ha: un know-how profondo e specifico. La capacità di valutare se un preventivo per una cucina è calcolato correttamente. La conoscenza di quale norma DIN si applica a un determinato tipo di costruzione. L’esperienza di come rispondere a un reclamo in modo che il cliente sia soddisfatto e l’azienda legalmente tutelata. Questo know-how risiede nelle teste di collaboratori che spesso lavorano in azienda da decenni – e che sono sempre più difficili da sostituire.
Ciò che le PMI non hanno: forza lavoro scalabile a piacere. I lavoratori qualificati mancano, e continueranno a mancare. Ogni capo reparto, ogni impiegato, ogni responsabile commerciale trascorre una parte significativa del tempo lavorativo in attività che, pur richiedendo competenze specifiche, sono essenzialmente ripetitive: scrivere offerte, preparare report, consultare normative, gestire reclami. Non perché queste attività siano banali – non lo sono – ma perché seguono uno schema che un agente può apprendere.
L’Agentic AI moltiplica esattamente questa combinazione. Il know-how del collaboratore diventa la leva, l’infrastruttura di agenti la moltiplicazione. Il capo reparto non scrive più ogni offerta personalmente – la delega e verifica il risultato. L’impiegata non gestisce più ogni reclamo da zero – delega i casi standard e si concentra su quelli che richiedono vera capacità di giudizio. L’ingegnere non passa più ore a cercare nelle normative – delega la ricerca e valuta il risultato.
Questa non è automazione nel senso industriale, dove un robot sostituisce l’essere umano. È delega nel senso proprio: un collaboratore competente affida un compito a un interlocutore competente, che conosce i processi, ha il know-how e fornisce il risultato nella forma corretta.
La domanda che si pone#
McKinsey raccomanda ai propri partner di portare il numero di agenti IA al numero di collaboratori umani entro fine 2026. La domanda per le PMI non è se questo sviluppo arriverà. È se lo si accompagnerà con strumenti generici come ChatGPT – strumenti che non conoscono il know-how aziendale, che non hanno Skills, che non sanno come deve essere un’offerta in questa specifica azienda – o con un’infrastruttura calibrata sul proprio know-how, sui propri processi e sui propri standard di qualità.
La domanda non è: “Dobbiamo usare l’IA?” La domanda è: “Qual è il nostro rapporto agenti-collaboratori – e cosa deve saper fare eccellentemente ogni collaboratore perché questo rapporto funzioni?”
Phronesis è l’infrastruttura che rende questa domanda risolvibile. Non come promessa, ma come sistema produttivo: 39 Skills in uso, oltre 40 Tools disponibili, know-how aziendale completamente integrato, conforme al GDPR su infrastruttura propria. Non un giorno. Adesso.
Basato su un’analisi degli sviluppi più recenti nell’Agentic AI, in particolare dei risultati di Opus 4.6 di Anthropic (febbraio 2026), dell’impiego produttivo di team di agenti da parte di Rakuten e della riorganizzazione emergente del lavoro della conoscenza verso team uomo-agente.