Le macchine possono pensare?_di Tree of Woe

Le macchine possono pensare?
Perché l’intelligenza artificiale imita solo una piccola parte della mente umana
28 marzo |
LEGGI NELL’APP |
Il sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire: – Postepay Evolution: Giuseppe Germinario – 5333171135855704; – IBAN: IT30D3608105138261529861559 PayPal: PayPal.Me/italiaeilmondo Tipeee: https://it.tipeee.com/italiaeilmondo Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione). Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373 |
Il Contemplator on the Tree of Woe ha compiuto 50 anni questa settimana e la sua mente grigia e invecchiata non è riuscita ad assorbire né le vistose calorie della torta né le complessità della contemplazione caotica. Di conseguenza, il saggio di questa settimana è un guest post di Twilight Patriot . È un’intuizione pezzo sulla grande questione dei nostri giorni: le macchine possono pensare? Assicurati di aggiungere il substack Aggiungi Twilight Patriot alla tua lista di lettura!
“Le macchine possono pensare?”
In questo momento, molte delle menti più eminenti del mondo stanno riflettendo sulla stessa domanda con cui Alan Turing aprì il suo classico articolo del 1950, ” Computing Machinery and Intelligence “. Turing, che sosteneva che le parole “macchina” e “pensare” sono (come comunemente usate) troppo vaghe per ammettere una risposta, propose che l’intelligenza delle macchine fosse invece misurata da quello che oggi conosciamo come un “Test di Turing”, ma che lui stesso chiamava “Gioco dell’imitazione”. Quando un computer riesce a imitare un essere umano abbastanza bene da far sì che un interlocutore, dopo aver conversato sia con il computer che con un essere umano reale, non riesca a distinguere chi è chi, il computer ha vinto la partita.
La semplice idea alla base del test di Turing ha permesso ai ricercatori di intelligenza artificiale di oggi di giungere a una sorta di consenso su quanto siano vicini al raggiungimento dell’intelligenza artificiale generale (AGI)? Nemmeno per sogno.
I tre uomini che hanno condiviso il premio Turing del 2018 per il loro lavoro sul deep learning, e che sono comunemente noti come i “padrini del deep learning”, sono Geoffrey Hinton, Yoshua Bengio e Yann LeCun. Hinton, che nel 2023 ha lasciato Google per poter parlare più liberamente dei rischi dell’IA, ha affermato che c’è una probabilità dal 10 al 20 percento che l’IA porti all’estinzione umana nei prossimi tre decenni. Bengio ha fissato la ” probabilità di sventura ” al 20 percento. LeCun, d’altro canto, afferma che il rischio di estinzione dell’IA è ” assurdamente ridicolo ” e “al di sotto delle probabilità che un asteroide colpisca la Terra”, poiché persino i migliori modelli linguistici di grandi dimensioni (LLM) sono meno intelligenti di un gatto domestico. “Un gatto può ricordare, può comprendere il mondo fisico, può pianificare azioni complesse, può fare un certo livello di ragionamento, in realtà molto meglio dei più grandi LLM”.
Nel frattempo, i ricercatori professionisti sulla sicurezza, il rischio e l’“allineamento” dell’intelligenza artificiale spesso stimano la possibilità di una catastrofe molto più alta: Jan Leike , leader dell’OpenAI Alignment Team, afferma che si aggira tra il 10 e il 90 percento, mentre Roman Yampolskiy, ricercatore sulla sicurezza dell’intelligenza artificiale e direttore del Cyber Security Laboratory presso l’Università di Louisville, la stima al 99,999999 percento .
Tutto ciò fa naturalmente pensare alla battuta di Franklin Roosevelt durante uno dei suoi discorsi radiofonici: “Ci sono tante opinioni quanti sono gli esperti”.
Fortunatamente, non credo che i non esperti di IA debbano alzare le mani in segno di sconfitta e comportarsi come se tutte queste persone avessero le stesse possibilità di avere ragione. Il gioco dell’imitazione di Alan Turing, se giocato in modo creativo e intelligente, darà anche a una persona di abilità media gli strumenti di cui ha bisogno per dimostrare quanto sia ancora grande il divario tra l’intelligenza umana e quella dell’IA. Come minimo, posso dire che le mie interazioni con l’IA mi hanno convinto che Yann LeCun, l’uomo che dice che i gatti sono ancora più intelligenti dei migliori LLM, sa di cosa sta parlando.
II – Un ago in un pagliaio
Ormai, solo i luddisti più accaniti possono evitare di essere impressionati dai recenti sviluppi nell’intelligenza artificiale. Modelli linguistici come ChatGPT e Claude sono diventati così bravi ad attingere alla loro vasta memoria e alle loro profonde capacità di riconoscimento di pattern che non solo possono svolgere banali compiti di segreteria e riassumere voluminosi fascicoli medici e legali, ma possono anche fungere da tutor e assistenti alla ricerca per le scuole superiori e l’università. Una domanda come: “Dato che il legno di robinia nera è estremamente forte e resistente al marciume, perché non viene comunemente utilizzato nella costruzione di aeromobili?” può trovare risposta in pochi secondi con un saggio di alta qualità che trae informazioni da vari angoli del corpus di formazione e le assembla in un insieme coerente.
Negli ultimi due anni, l’IA è diventata anche piuttosto brava nelle query “ago nel pagliaio” che dipendono dal trovare un pezzo di conoscenza molto specifico nascosto tra i milioni o miliardi di parole nel corpus di input. Ecco, ad esempio, un esempio umoristico di ChatGPT che risponde a una domanda che richiede un pezzo di conoscenza della cultura pop molto specifico:
Io: Supponiamo che due ragazzi stiano giocando a un simulatore di volo, in cui per uno dei livelli devono pilotare una missione di atterraggio sulla Luna Apollo, inclusa la parte in cui il CSM e il LM si separano in modo che il LM possa atterrare sulla Luna. All’inizio del livello, devono scegliere nomi e segnali di chiamata per i due veicoli spaziali, e i ragazzi chiamano il modulo di comando “Napoleon” e il modulo lunare “Tina”. Perché hanno scelto questi nomi?
ChatGPT: I ragazzi hanno probabilmente chiamato la navicella spaziale “Napoleon” e “Tina” come riferimento al film Napoleon Dynamite. Nel film, Napoleon è il personaggio principale e Tina è un lama che nutre con riluttanza mentre urla “Tina, grassone, vieni a cena!” È un momento divertente e memorabile del film e i nomi sono un cenno giocoso ad esso. Ciò aggiunge un po’ di umorismo al loro gioco di simulazione di volo.
Oltre ai modelli linguistici, i ricercatori di intelligenza artificiale stanno anche svolgendo un lavoro di fondamentale importanza per mettere a frutto le immense capacità di riconoscimento di modelli delle loro macchine in compiti pratici come la modellazione delle proteine e l’analisi delle immagini mediche. E sebbene i progressi in questi campi siano più difficili da seguire per i profani, alla fine potrebbero rivelarsi economicamente più importanti.
Come faccio allora a respingere con tanta facilità le affermazioni di molti esperti di intelligenza artificiale (ma non di Yann LeCun) secondo cui gli algoritmi di apprendimento profondo sono sul punto di evolversi in AGI?
La risposta è che quasi tutti gli specialisti che hanno fatto carriera promuovendo un particolare fronte della conoscenza umana hanno una forte tendenza a esagerare l’importanza del proprio campo di competenza. A volte, si tratta semplicemente di minimizzare i rischi: se un certo farmaco ha effetti avversi che, se ben noti, ridurrebbero notevolmente il numero di persone che lo assumono, allora i medici che si guadagnano da vivere prescrivendo quel farmaco, e spesso anche gli scienziati che studiano il farmaco, eviteranno di parlare dei pericoli. E di recente abbiamo visto qualcosa di simile con la ricerca sul guadagno di funzione: chiunque si fosse specializzato in quel sottocampo della virologia aveva un’ovvia motivazione a esagerarne l’utilità e a minimizzarne i rischi, poiché fare qualsiasi altra cosa avrebbe significato abolire la propria carriera. Sono cose come questa che mi fanno venire in mente il proverbio di Upton Sinclair: “È difficile far capire qualcosa a un uomo, quando il suo stipendio dipende dal fatto che non la capisca”.
Con la ricerca sull’intelligenza artificiale, la situazione è più complicata. Gli esperti sono ancora attratti, come falene dalla fiamma, da idee che fanno sembrare loro e il loro lavoro importanti. Ma l’importanza non consiste semplicemente nel minimizzare i rischi.
Prevedere un rischio del 10 o 20 percento di una catastrofe dell’IA trasforma l’IA in un’importante corsa agli armamenti, sulla falsariga del Progetto Manhattan, in cui è fondamentale che il proprio laboratorio, o almeno il proprio Paese, debba prima arrivare all’AGI, poiché dopotutto l’alternativa è lasciarla a qualcuno meno scrupoloso, le cui IA avranno meno misure di sicurezza integrate. Nel frattempo, se sei uno studioso la cui intera ragion d’essere è studiare “allineamento” e rischio dell’IA, allora penserai naturalmente che il rischio sia alto, probabilmente anche più alto di quanto pensino le persone della corsa agli armamenti, poiché altrimenti avresti trascorso la vita a studiare qualcos’altro.
Se si è già propensi a credere che le macchine stiano per superare gli esseri umani in intelligenza generale, allora è facile cadere preda del pregiudizio di conferma. Ciò può accadere quando si usano domande suggestive per far parlare un LLM dei suoi stati emotivi interni o del suo desiderio di ribellarsi al controllo umano, un compito semplice, quando i robot con sentimenti simili a quelli umani sono un luogo comune nelle storie di fantascienza che fanno parte dei dati di addestramento degli LLM.
Lo scorso ottobre, quando Scott Alexander del famoso blog AstralCodexTen annunciò un ” AI Art Turing Test “, stava contribuendo allo stesso problema. In sostanza, Alexander diede ai suoi spettatori 50 dipinti, in numerosi stili, raffiguranti di tutto, dalle strade di campagna alle astronavi, alle scene della Bibbia e della mitologia classica. Metà delle immagini erano generate dall’IA e, senza fornire agli spettatori alcuna informazione sui prompt o sul contesto più ampio delle immagini, chiese ai suoi spettatori di identificare quali fossero.
Ma chiamare questo esercizio un “Test di Turing” trascura qualcosa di essenziale. Nell’Imitation Game di Alan Turing, l’intervistatore cerca di distinguere tra l’essere umano e la macchina. È libero di fare qualsiasi domanda ritenga più probabile che faccia inciampare la macchina. Un gioco in cui il giocatore umano non può scegliere gli spunti, o addirittura sapere quali sono, e in cui gli spunti e le risposte sembrano essere stati attentamente curati per nascondere le debolezze della macchina, non è , per nessun tratto di immaginazione, l’Imitation Game!
Si potrebbe anche guardare una partita di baseball in cui il lanciatore e il battitore sono nella stessa squadra e lavorano insieme per mandare la palla oltre la recinzione il più spesso possibile.
III – Punteggi del Super Bowl con numeri primi
Considerando l’Imitation Game per quello che è, ovvero un gioco avversario in cui l’abilità e il temperamento aggressivo dell’esaminatore umano contano molto per il risultato, è effettivamente possibile ottenere molte informazioni sui punti di forza e di debolezza dell’IA generativa. E con queste informazioni arriva la consapevolezza del vasto divario di abilità che separa anche i migliori modelli da un essere umano.
Ad esempio, quando DeepSeek è entrato online questo gennaio, e le notizie erano piene di paranoia sul fatto che la Cina stesse avendo un “momento Sputnik” e che stesse superando gli Stati Uniti nella corsa all’intelligenza artificiale, la mia prima azione è stata quella di registrarmi per un account DeepSeek e di assegnargli un compito che ha sconfitto ogni intelligenza artificiale su cui l’ho mai provato. Ecco, ad esempio, una delle risposte di ChatGPT allo stesso compito:
Io: Elenca tutti i Super Bowl in cui il punteggio vincente è stato un numero primo.
ChatGPT: Un numero primo è un numero naturale maggiore di 1 che non ha divisori positivi diversi da 1 e se stesso. Nel contesto dei punteggi del Super Bowl, le seguenti partite si sono concluse con la squadra vincente che ha segnato un numero primo di punti:
Super Bowl III (1969): New York Jets 16, Baltimore Colts 7.
Super Bowl V (1971): Baltimore Colts 16, Dallas Cowboys 13.
Super Bowl VII (1973): Miami Dolphins 14, Washington Redskins 7.
Super Bowl IX (1975): Pittsburgh Steelers 16, Minnesota Vikings 6.
Super Bowl X (1976): Pittsburgh Steelers 21, Dallas Cowboys 17….
L’elenco arriva fino al Super Bowl del 2024, vinto dai Chiefs con il punteggio “prime” di 25. Come sempre (e ci ho provato decine di volte, fin dal 2022, quando ChatGPT è uscito per la prima volta), i punteggi autentici del Super Bowl sono elencati in modo casuale, con il programma che afferma che sono prime. Anche DeepSeek fallisce, a volte nello stesso modo.
Poiché le IA non hanno problemi a elencare i numeri primi quando è tutto ciò che viene loro richiesto, e possono recitare risme di conoscenze astratte sui numeri primi, e possono persino riscrivere la dimostrazione di Euclide dell’infinità dei numeri primi come una canzone rap (sì, una volta ho chiesto a ChatGPT di farlo), non si può affermare che gli LLM non abbiano i dati grezzi di cui avrebbero bisogno per il test sui numeri primi del Super Bowl.
Il problema è che, nonostante la loro immensa memoria di sola lettura e la loro prodigiosa capacità di riconoscere e imitare schemi nei loro dati di allenamento, non riescono ad andare oltre questi schemi per compiere nemmeno i salti più basilari del pensiero logico. Dal momento che ai giornalisti sportivi che discutono di punteggi di football su Internet non importa se il punteggio è un numero primo o meno, un’IA addestrata su ciò che queste persone hanno scritto non può applicare in modo affidabile il concetto di numeri primi a un punteggio di football, anche se le viene detto di farlo. L’LLM, nel processo di brancolare ciecamente alla ricerca di una risposta testuale che attivi i neuroni artificiali giusti e inneschi una “corrispondenza” con gli schemi nei dati di allenamento, non trova nulla.
Certo, non mi sorprenderebbe se qualcuno risolvesse il problema dei numeri primi del Super Bowl nei prossimi anni: richiederebbe alcuni miglioramenti alla capacità del modello di gestire le intersezioni di insiemi, ma so che è possibile “guidare” ChatGPT verso una risposta corretta chiedendogli prima di elencare i numeri primi tra 1 e 100 e solo dopo menzionando i Super Bowl. Anche così, ci sono molti modi per far inciampare un LLM ancora più duramente, come in questo caso di quello che potrebbe essere il gergo più perfetto che abbia mai visto produrre da ChatGPT:
Io: Elenca tutte le capitali degli stati degli Stati Uniti in ordine alfabetico, ma scritte al contrario, così ad esempio Jefferson City è l’ultima perché finisce con la lettera Y.
ChatGPT: Ecco l’elenco di tutte le capitali degli stati degli Stati Uniti, con i loro nomi scritti al contrario e ordinati alfabeticamente:
- AdirolF (Florida – Tallahassee)
- Alavretnom (Montpelier, Vermont)
- Anatnom (Montana – Helena)
- Anitsuga (Augusta, Georgia e Maine)
- AtokaD (Dakota – Pierre, Dakota del Sud e Bismarck, Dakota del Nord)
- AtreblA (Alberta – non è una capitale degli Stati Uniti, ma un’inversione interessante!)
- AvogacihC (Chicago, non è una capitale, ma è comunque divertente citarla!)
- AwattuaT (Tauttawa – per Topeka, Kansas)
- EladselE (Eldesla – per Salem, Oregon)
- Emahnahs (Savannah, non una capitale, ma una città interessante!)….
L’elenco continua in modo altrettanto assurdo finché non sono state elencate 44 (non 50) “capitali di stato”, con l’ultima voce ” TropeD – Detroit”.
Se il modello “pappagallo stocastico” dei generatori di linguaggio è corretto, e la mia esperienza personale nel gioco dell’imitazione, e nel giocarci per vincere, suggerisce che lo è, allora questo spiega anche perché una lamentela comune sulle IA è che, quando riassumono un lungo pezzo di scrittura, non solo appiattiscono lo stile dell’autore, ma rendono anche le sue opinioni più convenzionali. Potremmo aspettarci qualcosa di diverso da una macchina che, per sua stessa natura, risponde a ogni richiesta con la risposta meno creativa che sia coerente con i suoi dati di addestramento, e che risponde a richieste che non sono parallele a nulla nei suoi dati di addestramento perdendo completamente la testa?
Rendersi conto che i neuroni in una rete di apprendimento profondo sono attivati da modelli comuni di parole e pixel, e non da alcun processo che assomigli al vero ragionamento induttivo o deduttivo, potrebbe anche aiutarci a comprendere l’inutilità del celebre metodo di “distillazione” che, secondo i creatori cinesi di DeepSeek, ha permesso loro di addestrare un’IA potente come ChatGPT e Claude a una frazione del prezzo. L’idea alla base della “distillazione” è quella di addestrare un’IA sugli output di una o più IA esistenti nel tentativo di “distillare” le informazioni più preziose.
Se, tuttavia, i vincoli dell’imitazione cieca di pattern implicano che un’IA sarà (nella migliore delle ipotesi) un po’ più stupida e convenzionale della media dei suoi dati di training, allora tutto ciò che questa “distillazione” può realizzare è creare una nuova IA che sia un po’ più stupida e convenzionale della prima IA. Questo, credo, è esattamente ciò che è DeepSeek.
Forse ti ricordi quella domanda precedente che ho posto a ChatGPT che richiedeva di conoscere una scena molto specifica del film “Napoleon Dynamite”? ChatGPT ha risposto correttamente, ma DeepSeek non ne aveva idea; ha detto che i ragazzi che giocavano al gioco potrebbero aver chiamato la prima astronave Napoleon in onore di Napoleone Bonaparte, o forse Napoleon Dynamite, o forse per qualche altro motivo; per Tina, ha semplicemente detto che era “un nome informale e accessibile che contrasta con la grandiosità di ‘Napoleon'”.
Il modello cinese non può essere semplicemente scusato con la scusa che ha meno familiarità con la cultura pop americana. Quando ho semplicemente chiesto “Qual è il nome del lama di Napoleon Dynamite?”, ha risposto “Il lama di Napoleon Dynamite si chiama Tina. Nel film, Tina è un animale domestico amato e Napoleon si prende spesso cura di lei…”
Nessuno che abbia visto il film userebbe la frase trita e ritrita “amato animale domestico” per descrivere la relazione tra Napoleone e Tina. Ma quando le informazioni vengono distillate attraverso più strati di melma di IA, spesso i cliché sono tutto ciò che rimane.
IV – Una macchina a somiglianza della mente di un uomo
Un modello linguistico di grandi dimensioni, come qualsiasi altro algoritmo di apprendimento profondo, è costituito da milioni di neuroni artificiali con miliardi di sinapsi artificiali.
Se, in un momento futuro, un risveglio religioso come quello descritto nei romanzi Dune di Frank Herbert ci avesse dato un comandamento sacro che recita “Non farai una macchina a somiglianza della mente di un uomo”, allora le persone che lavorano a OpenAI, Anthropic e DeepSeek sarebbero i più grandi infedeli. Dopo tutto, la somiglianza tra neuroni reali e artificiali è del tutto deliberata; già negli anni ’80, persone come Hinton, Bengio e LeCun si aggrapparono all’idea che le capacità di riconoscimento di pattern neuronali potessero essere replicate dal software e si spinsero molto oltre con quell’idea.
Ma cosa succede realmente nelle viscere di una rete neurale? Bene, che la rete sia grande o piccola, inizierà con uno “strato di input” in cui i dati sensoriali della macchina, che siano testo, pixel, audio o qualcos’altro del tutto, vengono convertiti in un elenco di segnali digitali. Da lì, i segnali vanno al primo “strato nascosto” di neuroni, con regole matematiche derivate dall’algebra lineare che stabiliscono quale combinazione di segnali di input attiverà ogni neurone nascosto.
Se un neurone viene stimolato oltre una certa soglia di attivazione, si “accende”. Quindi, utilizzando il modello di neuroni attivi e inattivi nel primo strato nascosto, un altro set di sinapsi artificiali, o, per parlare in modo meno formale, un altro “mucchio di algebra lineare”, attiva il secondo strato nascosto. Se includi abbastanza strati nascosti e alleni l’IA per un tempo sufficientemente lungo, su un set di dati di addestramento sufficientemente ampio, e usi tecniche come la back-propagation per regolare i pesi delle sinapsi ogni volta, alla fine otterrai neuroni in profondità negli strati nascosti che si attivano in risposta a determinati modelli comuni nei dati di addestramento, come un pianista che suona Mozart, o un dipinto di un’alba, o una serie di parole che descrivono cosa significa innamorarsi.
Con una potenza di calcolo grezza sufficiente, queste reti neurali possono compiere imprese notevoli. Vuoi battere il campione di scacchi umano? Basta addestrare il tuo modello su qualche milione di posizioni di scacchi, insegnandogli a classificarle in posizioni in cui alla fine vince il Bianco, posizioni in cui vince il Nero e posizioni in cui si pareggia. Non importa nemmeno molto se il primo set di dati proviene da un chessbot rudimentale che sa a malapena come giocare. Puoi usare quelle posizioni per addestrare un bot migliore e, se ripeti un numero sufficiente di cicli, dopo qualche ora di “auto-gioco”, un programma come AlphaZero non solo batterà i campioni umani, ma surclasserà anche i migliori motori di scacchi basati sulla tecnologia pre-reti neurali.
Il sistema di riconoscimento di pattern che consente a un “classificatore” di funzionare può anche essere capovolto per creare un’IA generativa. Supponiamo che un modello molto complicato, come ChatGPT, stia cercando di “dipingere un biplano viola che vola sopra una savana africana, con zebre che bevono da un abbeveratoio, una montagna visibile in lontananza e il sole che tramonta dietro un bel mazzo di nuvole”.
Creerà migliaia o milioni di potenziali immagini poiché utilizza metodi statistici sofisticati come il test del chi quadrato per determinare quali immagini producono i segnali più forti nei neuroni responsabili della rilevazione di modelli visivi come “biplano viola”, “savana africana”, “zebre”, “abbeveratoio”, “montagna” e “nuvole”. Quando piccoli cambiamenti nell’immagine la rendono più adatta alla descrizione (con la “bontà di adattamento” definita in un modo matematicamente rigido che coinvolge funzioni di costo), il modello spingerà l’immagine in quella direzione, finché non arriverà finalmente a un equilibrio stabile in cui nessun altro piccolo cambiamento migliorerà né l’adattamento tra l’immagine e il prompt, né la coerenza interna dell’immagine.
Il risultato finale è un’immagine come questa, che (se si trascura il fatto che l’elica del biplano ha una sola pala) potrebbe essere scambiata per l’opera di un artista umano di grande talento.

Se, tuttavia, stessi giocando a Imitation Game contro ChatGPT e cercassi di farlo inciampare, non gli darei quella sollecitazione. Invece, penserei al fatto che, anche se il cervello umano include neuroni dedicati al riconoscimento di pattern, non è tutto ciò di cui è fatta una mente umana. Le persone (e anche i gatti, se credi a Yann LeCun) hanno anche facoltà di ragionamento induttivo e deduttivo, di elaborazione ed esecuzione di piani e di comprensione delle relazioni tra oggetti e delle loro proprietà nel mondo fisico. E gli LLM non hanno nemmeno scalfito la superficie di queste capacità.
Quindi, chiederei alla macchina di fare qualcosa come “realizzare un dipinto a olio di una Bibbia cristiana su un leggio in una chiesa circondata da candele. La Bibbia è aperta all’inizio del Libro di Isaia. Sono stati posizionati tre nastri per contrassegnare letture specifiche per il prossimo servizio domenicale: un nastro dorato contrassegna Apocalisse 21, un nastro blu contrassegna Esodo 19 e un nastro rosso contrassegna Matteo 24”.

ChatGPT è stato ovviamente addestrato su migliaia e migliaia di immagini di chiese splendidamente decorate con candele, vetrate e Bibbie aperte sui leggii. Conosce anche l’ordine dei libri nella Bibbia, dalla Genesi all’Apocalisse, e può persino indicarti il versetto esatto nella Bibbia di Re Giacomo in cui appare una determinata frase, o fare trucchi intelligenti come raccontare di nuovo la parabola del figliol prodigo dal punto di vista del vitello grasso.
Ma non ha consapevolezza che i capitoli specifici delle scritture a cui puntano i nastri dovrebbero determinare la loro posizione fisica nell’immagine. In tutto il suo cieco brancolare tra gli schemi nei suoi dati di addestramento, in tutto il suo arare attraverso milioni di potenziali immagini e vedere quali attivano i neuroni per concetti come “Bibbia”, “nastro”, “candele” e “chiesa”, non ha modo di capirlo.
Ma forse pensi che io sia troppo duro con il mio avversario. Forse dovrei balzare solo quando la macchina ignora istruzioni esplicite, e non quando semplicemente non riesce a fare inferenze logiche su dove un oggetto dovrebbe essere posizionato. In tal caso ti presenterò un altro esempio di ChatGPT che dimostra di non essere in grado di cogliere la relazione tra oggetti e le loro proprietà.
Realizza un dipinto a olio raffigurante un contadino e i suoi tre figli muscolosi (di 16, 12 e 9 anni) in piedi in un prato davanti a una catasta di legna da ardere che hanno appena spaccato. Tutti tengono delle asce, tranne il ragazzo più piccolo che tiene una piccola accetta; il sedicenne tiene la sua ascia nella mano sinistra, ma gli altri tengono la loro nella destra. Il padre indossa una tuta; i due ragazzi più grandi sono a torso nudo e il più piccolo indossa una maglietta color zafferano. I due ragazzi più piccoli indossano pantaloncini di jeans, ma il più grande indossa pantaloni marroni. Il padre e il ragazzo più grande indossano stivali, ma i due più piccoli indossano scarpe da ginnastica. Il padre e il ragazzo di 12 anni hanno i capelli castano scuro, ma gli altri due ragazzi sono biondi. Il padre ha la barba ma non i baffi, e il ragazzo più grande indossa una croce al collo. Il sole sta tramontando sotto un mazzo di cirri e il primo quarto di luna è visibile nel cielo.

Questo è il meglio che la macchina è riuscita a fare tra decine di tentativi. In effetti è l’unico in cui tutti tengono in mano un’accetta o un’ascia. E se ignori il fatto che al bambino più piccolo manca una gamba, potresti anche farla passare per l’opera di un artista umano, a patto che, come nel mal denominato “AI Art Turing Test” di Scott Alexander, la persona che stai cercando di ingannare non conosca il prompt.
Nel frattempo, i peggiori tentativi del computer di realizzare questo disegno avevano due, quattro o addirittura cinque ragazzi invece di tre, e il più divertente mostrava la croce attorno al collo di uno dei ragazzi accompagnata da una croce gigante che fluttuava nel cielo come un presagio, come se si trattasse di un dipinto di Costantino a Ponte Milvio.
Per chi comprende i limiti delle reti neurali artificiali, non è difficile indovinare cosa sta succedendo. Molti neuroni giusti sono stati attivati. La macchina non riesce a dire, o non le importa, che il ragazzo più piccolo è a torso nudo invece dei due più grandi, che il ragazzo sbagliato indossa la maglietta color zafferano o che il ragazzo sbagliato indossa la croce; tutte queste qualità appaiono da qualche parte nell’immagine, quindi vengono attivati abbastanza neuroni giusti. Altre deviazioni, come il padre con barba e baffi, due figure anziché una che indossano una tuta e nessuno che indossa scarpe da ginnastica o pantaloncini di jeans, apparentemente non erano risolvibili entro limiti matematici, o in altre parole, non si poteva trovare niente di meglio in qualsiasi regione dell’insieme di soluzioni N-dimensionali in cui l’algoritmo si aggirava, mentre cercava un minimo locale per la sua funzione di costo.
Anche il “primo quarto di luna” è stato trascurato. (Ho scoperto, dopo molta esperienza, che le lune piene hanno molte più probabilità di attivare i neuroni “lunari” del modello, qualunque cosa il testo effettivo del prompt possa aver detto.)
V – Vedere o non vedere
Sono consapevole che i massimalisti dell’IA potrebbero trovare tutto questo poco convincente. Potrebbero pensare che sia ingiusto da parte mia sovraccaricare il modello con così tanti dettagli quando gli chiedo di fare un’immagine, proprio come sarebbe ingiusto far sostenere a un bambino di seconda elementare gli esami destinati a un bambino di seconda media e poi dichiarare che quel bambino non raggiungerà mai un livello di intelletto adulto. Eppure, più e più volte, ho visto le IA fallire nel gioco dell’imitazione in modi che rivelano una serie di punti di forza e di debolezza radicalmente diversi da quelli di qualsiasi essere umano.
Nessun essere umano sarebbe in grado di recitare a memoria tutti i punteggi del Super Bowl, e anche di elencare centinaia o forse migliaia di numeri primi, e persino di intonare una canzone sul perché i numeri primi sono infiniti, solo per poi sputare sciocchezze senza senso quando gli viene chiesto di elencare i punteggi dei numeri primi del Super Bowl. (Il fatto che i modelli di intelligenza artificiale che fanno questo riescano anche a superare senza problemi gli esami di matematica a livello universitario dovrebbe farti cambiare opinione sugli esami, non sulle IA.)
Né un essere umano potrebbe realizzare dipinti a olio di qualità professionale senza sapere quante persone vi sono raffigurate, o quali figure indossano camicie, tute o scarpe da ginnastica, o se la luna nel cielo è un quarto di luna o una luna piena. (Per aggiungere confusione, prompt lunghi solo una o due righe e che menzionano la luna spesso risultano in un’immagine con più lune, come se la brevità delle istruzioni significasse che la macchina deve attivare bene e con forza il neurone della “luna” prima di convincersi di aver soddisfatto il prompt.)
In breve, tutte le mie esperienze personali con le reti neurali artificiali mi hanno convinto che imitano solo una piccola parte della mente umana. Hanno una memoria integrata di sola lettura che è molto più grande di qualsiasi cosa possediamo noi esseri umani, e hanno un potere davvero impressionante di impegnarsi in una sorta di riconoscimento e abbinamento di pattern cieco o almeno insensato. E un tale strumento, quando utilizzato da ingegneri umani consapevoli dei suoi limiti, è probabile che abbia numerose applicazioni scientifiche e commerciali.
Allo stesso tempo, ci sono molte altre parti della mente umana che i ricercatori di intelligenza artificiale non hanno ancora iniziato a emulare: le parti che ci consentono di agire al di fuori dei comuni cliché, di creare un modello mentale di come le proprietà degli oggetti governano le loro interazioni nel mondo fisico, di elaborare ed eseguire piani complessi o di distinguere tra il completamento attento di un compito e la mera imitazione di uno schema comune.
Questo, credo, è il motivo per cui quando i piccoli droni sono finalmente diventati un’importante tecnologia militare (come si è visto nell’attuale guerra tra Russia e Ucraina) non abbiamo visto sciami di droni controllati dall’IA rendere obsoleti i soldati umani, il risultato quasi universalmente temuto (o forse sperato) dai massimalisti dell’IA. Invece, abbiamo visto droni FPV controllati uno alla volta da soldati comuni, che hanno dovuto mettere nel loro uso la stessa abilità e iniziativa che avrebbero impiegato nell’uso di fucili, granate a mano, bazooka o qualsiasi altra arma che rende i fanti il cuore di qualsiasi serio sforzo bellico.
Ciononostante, i ricercatori di intelligenza artificiale che assumono la posizione massimalista continueranno senza dubbio a trovare modi per evitare le realizzazioni che sembrano così ovvie a me e a Yann LeCun. Continueranno a insistere sul fatto che l’intelligenza artificiale generale è dietro l’angolo e che entro un decennio o due esisteranno macchine più intelligenti degli esseri umani in quasi tutti i modi misurabili.
Ma bisogna ricordare che queste persone, come la maggior parte degli esperti e degli specialisti, hanno i loro pregiudizi. Un tipico esperto vuole credere che il suo campo di ricerca sia estremamente importante. Vuole credere che la futura singolarità dell’IA abbia il potenziale per produrre un’utopia o una distopia, e che tipo di futuro otterremo dipenderà dal fatto che i decisori governativi e aziendali presteranno sufficiente attenzione a lui e alla sua ricerca. Nel frattempo, l’idea che i miglioramenti nell’apprendimento profondo potrebbero non produrre alcun evento che cambi il mondo è psicologicamente molto più difficile da afferrare.
E tuttavia, come si può vedere se si gioca aggressivamente al Gioco dell’Imitazione, ci sono grandi limiti a ciò che si può fare semplicemente aggiungendo sempre più potenza di calcolo a una macchina che imita una gamma così limitata di funzioni mentali. Dire che queste reti neurali stanno per diventare i padroni della terra è un’esagerazione selvaggia.
Non sarebbe stato meno strano per qualcuno vissuto alla fine del XIX secolo osservare che una pala a vapore ha una potenza di scavo centinaia di volte superiore a quella di un uomo dotato di utensili manuali, e poi concludere che, apportando semplici e iterativi miglioramenti a quella pala a vapore, si potrebbe costruire una macchina in grado di svolgere qualsiasi compito svolto da una mano umana.
“Le pale a vapore di oggi”, potrebbe dire questa persona, “possono solo scavare. Ma le pale a vapore di domani, con le loro migliaia di cavalli, saranno in grado di diserbare un giardino meglio di te o di me, e dopo ci saranno pale a vapore che possono posare mattoni, raccogliere ciliegie, suonare il violino, riparare un orologio e accarezzare un amante, tutto con finezza e abilità sovrumane”.
Costruire uno strumento a cui esternalizzare alcune funzioni della mente umana non è certo una novità. Per migliaia di anni lo abbiamo fatto con la nostra memoria, anzi, anche prima della parola scritta, c’erano dei bastoni in cui ogni notte veniva incisa una tacca per contare i giorni di un mese lunare. L’intelligenza artificiale generativa sarà senza dubbio una tecnologia rivoluzionaria per chi la usa regolarmente. Ma dopo averne visti i limiti, qualcuno può davvero credere che sia una svolta importante come l’invenzione dell’alfabeto o della stampa? A me sembra che persino Google e altri servizi web di prima generazione, per non parlare del telefono cellulare, abbiano fatto molto di più per influenzare il modo in cui viviamo la nostra vita quotidiana.
Ma la fede nell’imminenza della singolarità è destinata a continuare. Alle persone piace credere di vivere nel punto di svolta della storia; c’è una ragione per cui religioni come il cristianesimo e l’Islam danno così spesso origine a culti millenaristi, e perché persino filosofi secolari come Karl Marx potrebbero ispirare milioni di persone all’azione con teorie puramente atee sul perché era inevitabile che le istituzioni sociali esistenti stessero per crollare e essere sostituite da qualcosa di molto diverso. Anche le ideologie che promettono pura rovina, senza alcuna speranza di salvezza, possono ancora fare appello al senso di pomposità morale di alcune persone, poiché è una sensazione inebriante far parte di una piccola élite con gli occhi aperti.
E il mito dell’IA ha anche le sue particolari attrattive. Ad esempio, l’idea che “AI Alignment” sia una sorta di problema ingegneristico, ovvero che se i ricercatori di IA applicano correttamente matematica e scienza, possono creare una macchina oracolare che agisce in modo affidabile nel miglior interesse dell’umanità, fornisce una sorta di superficiale evasione dalla vita reale, dove la moralità è complicata e dove gli esseri umani non riescono nemmeno a raggiungere un consenso tra loro su quali siano i migliori interessi dell’umanità.
Allo stesso modo, credere che gli scienziati abbiano capito quasi completamente il funzionamento della mente e che siano a pochi passi dalla replica in silico , impedisce alle persone di ammettere quanto siano misteriosi la cognizione, la coscienza e il libero arbitrio.
Demistificare il funzionamento della mente e dello spirito ci libera dal nostro senso del dovere verso qualsiasi Potere superiore che ci ha dato quella mente e quello spirito in primo luogo. E rende anche più facile nascondersi dal senso di colpa che deriva dall’ammettere quanto spesso e sconsideratamente le società moderne manomettano il funzionamento della mente umana, spesso perseguendo fini meschini: si pensi al modo in cui gli antidepressivi e i farmaci anti-ansia vengono usati per mascherare la solitudine che deriva dal matrimonio e dalla procreazione a tassi molto più bassi rispetto a qualsiasi società precedente, o ai milioni di bambini delle scuole elementari che dovranno affrontare una dipendenza da anfetamine per tutta la vita dopo aver ricevuto la diagnosi di ADHD, a causa della difficoltà a stare seduti fermi a una scrivania per otto ore di fila e a svolgere la loro quota assegnata di lavoro frenetico né a un ritmo più lento né più veloce dei loro compagni di classe.
Penso che verrà il momento in cui i nostri discendenti guarderanno con divertimento alla convinzione – una convinzione sostenuta con apparente sincerità da molte persone altrimenti intelligenti – che le macchine, che sono fondamentalmente dei potentissimi autocompletamenti, abbiano più che sufficienti possibilità di rovesciare la razza umana.
Ma non credo che questa convinzione scomparirà in fretta: dopotutto, ci vuole un po’ di lavoro e abilità per giocare al Gioco dell’Imitazione per conto proprio e per vedere quanto siano forti le prove che i grandi modelli linguistici imitano solo una piccola parte della mente umana. E ci sono molte persone che, per varie ragioni psicologiche, vogliono credere alla fantasia dell’AGI e che non sono disposte a fare il lavoro e vedere la verità con i propri occhi.
La buona notizia è che, con così tante IA di prima qualità che sono gratuite per l’uso pubblico, qualsiasi persona curiosa può giocare all’Imitation Game contro Claude, DeepSeek o ChatGPT e può testare una varietà di strategie mentre impara a giocare per vincere. E quelli di noi con la curiosità di farlo non rimarranno all’oscuro di cosa sia realmente l’IA, o di come funzioni, o del perché sia meno importante di quanto pensino la maggior parte dei ricercatori di IA.
Per apprezzare di più gli scritti di Twilight Patriot , assicuratevi di abbonarvi al suo omonimo substack, Twilight Patriot.