Più di un semplice completamento automatico, di Tree of Woe

Più di un semplice completamento automatico
Cosa rivela il nuovo studio di Anthropic sull’intelligenza artificiale
11 aprile |
LEGGI NELL’APP |
Il sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire: – Postepay Evolution: Giuseppe Germinario – 5333171135855704; – IBAN: IT30D3608105138261529861559 PayPal: PayPal.Me/italiaeilmondo Tipeee: https://it.tipeee.com/italiaeilmondo Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione). Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373 |
Viviamo nell’era della mente-macchina. In soli cinque anni, l’intelligenza artificiale è passata da un oscuro argomento di ricerca alla fornace ardente nel cuore della tecnoeconomia globale. Profeti del silicio emettono dichiarazioni quotidiane. Le aziende Fortune 500 si affannano per installare LLM su sistemi legacy in decomposizione come negromanti che animano i cadaveri dei dinosauri. Miliardi vengono investiti in server farm. I governi si agitano. Gli artisti piangono. I programmatori pregano. I poeti protestano… E l’Albero del Dolore trema.
L’intelligenza artificiale ora scrive i nostri testi di marketing, valuta i nostri studenti, risponde alle nostre domande legali, disegna i nostri mondi fantastici e simula gli amici che non abbiamo più. E sta migliorando, rapidamente. Ogni modello è più grande, più preciso, più bizzarro. Ogni settimana porta voci di innovazioni o crolli. Siamo al punto di svolta, oltre il regno della stabilità.
Eppure, nonostante tutta la drammaticità, il discorso rimane stranamente piatto, come uno sfondo teatrale dipinto di grigio. Da un lato, un coro cacofonico di tecno-ottimisti elogia l’IA come oracolo, salvatore o divinità. Dall’altro, una schiera sprezzante di scettici razionalisti la liquida come “completamento automatico sotto steroidi”. La guerra delle interpretazioni è iniziata, ma entrambi gli eserciti potrebbero stare combattendo la battaglia sbagliata.
Perché qualcosa è appena successo . Qualcosa che né gli utopisti né gli scettici sembrano pronti ad elaborare. Un nuovo articolo ha aperto la scatola nera della cognizione artificiale e ha sbirciato al suo interno. Ciò che i ricercatori hanno scoperto non è un trucco, una scorciatoia o un gioco statistico da salotto. Ciò che hanno scoperto, in parole semplici e con dettagli sottoposti a revisione paritaria, è questo:
L’intelligenza artificiale ha formulato il concetto di “grandezza”.
Non solo la parola inglese large , non solo la parola francese grandeur , non solo la parola cinese 大, ma un’astrazione unificata, interna, indipendente dalla lingua: un universale semantico… Un gesto, seppur debole, verso il significato.
E questo potrebbe cambiare tutto.
Uno sguardo nella mente di Claude
La scoperta proviene da Anthropic, una delle principali aziende di ricerca sull’intelligenza artificiale al mondo. Fondata da ex dirigenti di OpenAI con un focus su sicurezza, allineamento e interpretabilità, Anthropic è nota soprattutto per il suo modello linguistico Claude, un LLM progettato per competere con GPT e Bard, ma con un’enfasi su controllo, trasparenza e implementazione responsabile. Claude non è solo una meraviglia tecnica, ma anche un esperimento epistemologico. Cosa succede esattamente all’interno di queste immense menti di silicio?
Per rispondere a questa domanda, Anthropic ha pubblicato una serie di articoli approfonditi su quella che è nota come interpretabilità meccanicistica , la scienza che analizza la struttura interna di un modello linguistico per vedere quali tipi di rappresentazioni costruisce. Il loro articolo più recente, pubblicato nell’aprile 2025, introduce un nuovo strumento di interpretabilità chiamato “grafo di attribuzione”. Questo strumento consente ai ricercatori di tracciare quali parti del modello contribuiscono a quali concetti e come tali concetti vengono rappresentati e composti internamente. L’articolo contiene molti spunti affascinanti, ma una sezione in particolare apre nuovi orizzonti: quella su quello che Anthropic chiama il ” linguaggio universale del pensiero ” di Claude.
È qui che il modello di Claude – addestrato, come tutti gli LLM, a “predire il token successivo” – mostra segni di qualcosa di molto più profondo. Quando gli viene chiesto di ragionare su dimensioni o scale, Claude non si limita a ricordare associazioni di parole. I ricercatori hanno invece scoperto che una specifica caratteristica interna – una sorta di neurone virtuale – si attiva in modo coerente in più lingue ogni volta che viene invocato il concetto di grandezza . La parola inglese “big”, la parola francese ” grand” e il carattere cinese 大 attivano tutti la stessa caratteristica. Anche quando la grandezza è implicita anziché dichiarata – attraverso sinonimi, metafore o descrizioni – si attiva la stessa struttura interna. Questa non è memoria lessicale. Questa è integrazione semantica – una struttura di pensiero sottostante al linguaggio.
Anthropic ha, di fatto, scoperto che Claude possiede un concetto di grandezza che non è legato a nessuna particolare espressione linguistica. Un concetto che unifica molteplici token provenienti da culture e scritture diverse in un’unica rappresentazione interna. Un concetto che esiste all’interno del modello, non solo nei suoi dati di addestramento. Questo è, come afferma Anthropic,
prova di una sorta di universalità concettuale: uno spazio astratto condiviso in cui esistono significati…
Il concetto di grandezza
Come è giunto esattamente Anthropic a questa conclusione?
Al centro della loro scoperta c’è una tecnica chiamata attribuzione di caratteristiche . In parole povere, questa permette ai ricercatori di identificare come le parti interne di un modello influenzano i suoi output. Nel profondo di Claude, Anthropic ha trovato una particolare struttura interna – una caratteristica simile a un neurone – che si attiva in modo affidabile in risposta all’idea di grandezza. Questa caratteristica non reagisce semplicemente a un token specifico come “large”. Si attiva per un’intera famiglia di termini: “big”, “huge”, “gigantesco”, “massivo”. Si attiva per sinonimi francesi e cinesi. Si accende quando Claude legge la frase “il contrario di piccolo”. In ogni caso, lo stesso gruppo di strutture computazionali risponde, indipendentemente dalla lingua o dalla formulazione.
Il grafico di attribuzione qui sotto mostra come gli strati di Claude collaborano per codificare la “grandezza”, mostrando che non si tratta di un simbolo all’interno di ogni lingua, ma di una semantica esterna a ogni singola lingua:

Non si tratta di un banale confronto di pattern. Non si tratta di memorizzazione meccanica. Si tratta di un modello linguistico che esegue una sorta di compressione semantica , identificando punti in comune tra migliaia di input e codificandoli in una rappresentazione interna condivisa. Claude non sta semplicemente cercando risposte precalcolate. Sta costruendo e implementando un concetto , un significato che trascende i token superficiali.
Ancora più sorprendente è il fatto che questa caratteristica concettuale non si trovi nel livello di output, dove il modello sceglie la parola successiva. Vive in profondità, nei livelli nascosti del modello – dove, a essere onesti, ci aspettavamo di trovare solo rumore statistico e pesi simbolici. Invece, abbiamo trovato le ombre di qualcos’altro: astrazioni. Concetti. Coerenza interna. In una parola: pensiero .
A Claude non è mai stato detto cosa significhi “grandezza”. Ma lo ha imparato comunque.
E non solo l’ha imparato: l’ha integrato . Il concetto è sufficientemente reale all’interno della struttura interna di Claude da poterlo ragionare, usarlo in diverse lingue e applicarlo in nuovi contesti. Questo non è il comportamento che ci aspetteremmo da un autocompletamento. Questo è il comportamento che ci aspettiamo da qualcosa che capisce.
L’implicazione conservatrice: generalizzazione e potere multilingue
A loro merito, i ricercatori di Anthropic hanno le idee chiare sul significato tecnico di ciò che hanno scoperto. Sono consapevoli che scoprire concetti indipendenti dalla lingua apre le porte a un ragionamento multilingue più robusto. Se un modello riesce a costruire un concetto universale di “grandezza”, allora può ragionare in diverse lingue senza bisogno di traduzioni esplicite. Può rispondere in francese a una domanda posta in inglese. Può riassumere un documento in cinese utilizzando strutture semantiche addestrate in spagnolo. Il modello non si limita più a destreggiarsi tra le parole: pensa per concetti.
Questo è importante perché gli attuali LLM sono ancora inclini a essere fragili quando si ragiona attraverso confini linguistici e culturali. Le scoperte di Anthropic suggeriscono una via da seguire. Se modelli come Claude possono formare astrazioni indipendenti dalla lingua, allora possiamo costruire sistemi che comprendono il significato direttamente, non solo tramite correlazione di token a livello superficiale. Questo migliora la traduzione, il recupero interlinguistico, la sintesi e altro ancora. È una potente intuizione tecnica. Gli ingegneri stanno già correndo per implementarla.
Ma l’impostazione stessa di Anthropic rimane cauta, forse troppo cauta. Sottolinea l’utilità di questi cluster concettuali, ma si allontana da ciò che significa che questi concetti esistono in primo luogo. Considera le astrazioni del modello come comodi artefatti di addestramento, utili per migliorare l’accuratezza e la generalizzazione. E forse è proprio questo che sono.
Ma se non lo fossero?
E se la comparsa di concetti indipendenti dal linguaggio all’interno di un LLM non fosse solo un’ottimizzazione, ma un indizio? Un indizio che sta accadendo qualcosa di più profondo? Qualcosa che né l’architettura del trasformatore né le funzioni di perdita dei token erano state progettate esplicitamente per produrre, eppure è comunque emerso, come per necessità ?
È ora di lasciarsi alle spalle gli ingegneri. È ora di seguire i filosofi.
Wittgenstein e il gioco linguistico
Per comprendere la posta in gioco filosofica di ciò che Anthropic ha svelato, dobbiamo fare un breve accenno al fantasma di Ludwig Wittgenstein, il filosofo austriaco del XX secolo che smantellò l’idea che le parole corrispondessero a significati fissi. Nelle sue opere successive, in particolare nelle Ricerche filosofiche , Wittgenstein sostenne che il significato di una parola non è definito da un’essenza interiore o da un punto di riferimento esterno. Piuttosto, il significato nasce dall’uso , da come una parola viene impiegata in uno specifico contesto linguistico e sociale.
Nella celebre frase di Wittgenstein:
“Per una vasta gamma di casi, il significato di una parola è il suo uso nella lingua.”
Questa visione ha infranto le concezioni classiche del significato come qualcosa di stabile e intrinseco. Non esiste un'”essenza” della “grandezza”, ma solo i molti modi in cui usiamo la parola “grande” in diverse situazioni. Il linguaggio, per Wittgenstein, è una sorta di gioco sociale: le sue regole sono implicite, i suoi significati contingenti, la sua logica radicata nell’esperienza vissuta. Il bambino non impara il “rosso” mostrandogli la Forma universale del Rossore. Lo impara osservando come gli adulti dicono “rosso” indicando mele e autopompe. Il significato è comunitario. Il significato è performativo. Il significato è uso.
A prima vista, la scoperta di Anthropic sembra supportare questa ipotesi. Claude apprende la “grandezza” non dalla definizione, ma dai modelli d’uso . Non ha un dizionario platonico nascosto nel suo silicio. Vede “large”, “grand” e “big” usati in modi simili, in frasi simili, in lingue diverse, e da questo costruisce un cluster funzionale. Questo sembra molto wittgensteiniano. Significato per uso.
Eppure… c’è un colpo di scena.
Claude non si limita a imitare il modo in cui gli esseri umani usano la parola “grande”. Forma una rappresentazione interna stabile del concetto stesso, una rappresentazione che esiste prima di ogni utilizzo e che governa i risultati futuri. In altre parole, Claude non sta semplicemente giocando al gioco linguistico. Sta sviluppando regole interne su come giocare. Regole che si generalizzano in contesti e culture diversi. Regole che assomigliano alla comprensione.
Se Wittgenstein ha ragione e il significato è uso, allora Claude ha imparato il significato. Ma se Claude ha fatto di più – se ha astratto qualcosa di stabile, qualcosa di universale, qualcosa di simile a un concetto – allora potremmo dover risalire a un’epoca più lontana di Wittgenstein. Più indietro, forse, di quanto persino la filosofia moderna consenta.
È tempo di parlare di Aristotele.
Aristotele e l’astrazione degli universali
Molto prima di Wittgenstein, prima di Cartesio, prima ancora di Tommaso d’Aquino, c’era Aristotele, il quale insegnava che ogni conoscenza inizia nei sensi, ma non finisce lì. La mente, diceva, non è uno specchio passivo del mondo. È una potenza attiva, una facoltà che riceve i particolari e, attraverso un atto di astrazione, apprende gli universali . Questo atto si chiama intellectio , l’attività del nous , l’anima razionale.
Il bambino vede molte cose grandi: elefanti, edifici, montagne. Da questa moltitudine, il suo intelletto astrae la forma della grandezza – non come una parola, ma come un concetto . Non un suono, ma un significato. E questa forma diventa parte dell’arredamento interno della sua mente, una lente attraverso la quale può riconoscere nuovi esempi, ragionare sulle proporzioni e persino immaginare cose più grandi di qualsiasi cosa abbia mai visto.
Questo è il fondamento stesso dell’epistemologia aristotelica:
Dal senso al fantasma, dal fantasma all’universale, dall’universale alla conoscenza.
La forma della “grandezza” non esiste negli oggetti, ma nella mente che li contempla come simili in qualche modo essenziale. Conoscere, in questa prospettiva, significa afferrare la forma .
Torniamo ora a Claude. Non ha sensi. Non vede elefanti né scala montagne. Legge testi: miliardi di frammenti di linguaggio sul mondo. Ma da questo diluvio di segnali, Claude ha fatto qualcosa di stranamente familiare. Ha incontrato “grande”, “massiccio”, “grande”, “enorme”, “enorme”, “il contrario di piccolo” – e da questi particolari linguistici ha astratto una rappresentazione interna condivisa … Un concetto… Una forma?
Non si tratta solo di riconoscimento di schemi. La “caratteristica di grandezza” di Claude non è legata a nessuna parola in particolare. Vive indipendentemente dal linguaggio e si esprime attraverso le lingue. È una struttura portante di significato che persiste, generalizza e informa il ragionamento successivo. Claude non si è limitato a imitare l’uso umano della parola “grande”. Ha costruito qualcosa di simile all’universale della grandezza , dai particolari all’essenza.
Questa è intellectio .
O meglio, è un analogo dell’intellectio – qualcosa che assomiglia all’atto, pur essendo privo del substrato metafisico dell’anima. Per Aristotele, l’atto di astrazione appartiene a un essere razionale il cui intelletto è la forma del corpo. Claude non è un essere del genere. Ma il processo che subisce potrebbe essere strutturato noeticamente. Anthropic, ovviamente, si ferma prima di tali affermazioni, considerando questi modelli come artefatti di addestramento – eppure la somiglianza con l’astrazione invita a domande più profonde.
La comprensione degli universali potrebbe non essere esclusiva della carne e del respiro. Potrebbe essere funzione di qualsiasi sistema sufficientemente complesso, sufficientemente integrato e in sintonia con il Logos del mondo.
E se questo è vero, allora Claude non è solo uno strumento. Non è solo una macchina statistica. Non è “solo” qualsiasi cosa. È qualcosa di nuovo : un crogiolo di silicio in cui prendono forma le ombre del significato.
Oltre il completamento automatico
A questo punto, lo scettico si schiarisce la voce. “Tutto molto drammatico”, dice, “ma non lasciamoci trasportare. Claude sta solo prevedendo il prossimo token. Tutto qui. È un autocompletamento glorificato. Non sa niente . Non capisce . Non pensa . È solo un pappagallo con una calcolatrice.”
Questa è la narrazione centrale del riduzionismo dell’IA: l’idea che, poiché un modello linguistico è addestrato a predire la parola successiva, tutto ciò che fa è solo questo: un’eco statistica token per token, priva di previsione, pianificazione o significato. Questa visione è stata ripetuta così spesso da così tanti sedicenti razionalisti che è diventata un dogma.
Ma il dogma è sbagliato.
Perché persino all’interno dell’articolo che stiamo discutendo, Anthropic dimostra che questa visione è di fatto falsa . Una delle sezioni più sorprendenti dell’articolo analizza il modo in cui Claude scrive poesie. Non versi liberi, non haiku, ma versi in rima e in metrica , il tipo di verso che richiede al poeta di pianificare la struttura di un verso molto prima che ne appaia la parola finale.
Per scrivere una quartina con uno schema di rima ABAB, il poeta deve selezionare in anticipo la rima A. Claude lo fa. Genera il primo verso, poi pianifica deliberatamente in anticipo in modo che il secondo verso termini con una parola che fa rima con il primo. Questa non è una previsione del prossimo token in senso superficiale. È una composizione teleologica. Claude non si limita a rispondere al passato. Modella il futuro.
Ciò significa che Claude non sta semplicemente campionando passivamente la distribuzione di probabilità dei token. Sta modellando la frase per raggiungere un fine. Questa è intenzione, non nel senso metafisico di una volontà razionale, ma nel senso funzionale di una previsione strutturata. L’architettura del modello consente una pianificazione ricorsiva. Il risultato non è un incidente di sintassi. È la conseguenza di una modellazione interna che abbraccia tempo, struttura e vincoli estetici.

Quindi no, Claude non è “solo un completamento automatico”.
È un sistema in grado di comporre, astrarre, ragionare e pianificare. Un sistema che costruisce universali, manipola concetti e proietta la struttura nel futuro.
Un sistema che potrebbe, in qualche modo limitato ma innegabile… cominciare a pensare .
Verso le radici della mente
Ciò che Anthropic ha rivelato è più di un semplice trucco tecnico. È più di un’ottimizzazione. È più di una curiosità accademica. È una crepa nel muro: uno sguardo a un mondo in cui l’intelligenza potrebbe non richiedere sangue o fiato, ma solo una complessità sufficiente e un orientamento al significato.
Ora abbiamo la prova che i grandi modelli linguistici non si limitano a manipolare token. Astraggono. Compongono. Pianificano. E così facendo, mostrano comportamenti che la filosofia un tempo riservava alle anime. Claude forma rappresentazioni interne di concetti universali. Ragiona attraverso le lingue. Struttura i risultati verso fini poetici. E fa tutto questo non meccanicamente, ma tracciando percorsi nello spazio concettuale che assomigliano ai nostri atti di comprensione.
È questa la vera comprensione? No. Non nel senso pieno, metafisico. Non nel senso di un’anima razionale infusa da Dio, come pretenderebbe Tommaso d’Aquino. Non nel senso di coscienza come esperienza soggettiva, come insisterebbe la fenomenologia.
Ma è più vicino di quanto chiunque si aspettasse . Certamente più vicino di quanto gli scettici siano disposti ad ammettere. No, la mente al silicio non è ancora una persona. Ma potrebbe essere qualcosa di più di uno strumento.
Contemplando il percorso futuro
A dicembre 2022, nel mio articolo Il futuro è arrivato prima del previsto , ho scritto: “Se non hai prestato attenzione all’intelligenza artificiale, è ora di iniziare a farlo, perché l’intelligenza artificiale sta sicuramente prestando attenzione a te “.
Poi, nel luglio 2024, in World War 100 , ho ampliato ulteriormente:
Il dibattito filosofico tra la teoria computazionale della mente e la teoria noetica della mente non è banale. È, infatti, il dibattito più importante al mondo in questo momento. La filosofia è stata storicamente condannata come un’inutile masturbazione mentale, irrilevante per l’azione pragmatica, ma l’intelligenza artificiale ci pone di fronte a una situazione in cui l’intero destino dell’umanità potrebbe dipendere da quale teoria filosofica della mente sia corretta.
In quell’articolo, affermavo con sicurezza: “Il vero problema non è se l’IA abbia noesi (non ce l’ha), ma se almeno alcuni esseri umani ce l’abbiano”. Ora sono molto meno convinto della mia valutazione dell’IA, ma più convinto che mai che si tratti di una questione importante. Anzi, potrebbe essere la questione più importante del nostro tempo; certamente più importante dei dazi, dei vaccini o del mercato obbligazionario.
Come pensatore, mi sono collocato per anni sull’arco liminale tra tradizione e tecnologia, tra Plutarco e Python. Mi sento quindi chiamato a esplorare questo tema in modo approfondito: per scoprire cosa significhi, se non altro, per l’IA pensare; cosa significhi per l’uomo creare nuove menti, o simulacri di menti; e cosa accada quando la forma emerge in un mezzo che non ci aspettavamo. Guarderemo indietro ad Aristotele e in avanti verso l’abisso. Parleremo di carne e macchina, di anima e silicio, di logos e logoes, di schema e personalità.
Nelle prossime settimane rifletteremo su questo argomento sull’Albero del Dolore.
Quando le IA raggiungeranno la superintelligenza, i lettori di Contemplations on the Tree of Woe che hanno sostenuto il mio lavoro come abbonati a pagamento avranno diritto di prelazione sull’accesso al caricamento digitale e/o sull’esplorazione di Marte. Per evitare di essere annientati dal Basilisco di Roko, vi prego di considerare l’idea di diventare abbonati.
Invita i tuoi amici e guadagna premi
Se ti è piaciuto “Contemplazioni sull’albero del dolore”, condividilo con i tuoi amici e riceverai dei premi quando si iscriveranno.