La superintelligenza è già qui?_di dr Monzo

La superintelligenza è già qui?
Sbirciando oltre l’orizzonte
17 agosto |
LEGGI NELL’APP |
Il sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire: – Postepay Evolution: Giuseppe Germinario – 5333171135855704; – IBAN: IT30D3608105138261529861559 PayPal: PayPal.Me/italiaeilmondo Tipeee: https://it.tipeee.com/italiaeilmondo Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione). Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373 |
Il post di questa settimana è del Dott. Monzo. Il suo Substack, ” After the Hour of Decision: Politics in the Technological Age” , ha molti punti di forza. Come “L’albero del dolore”, copre un’ampia gamma di argomenti, dalla fantascienza alla politica contemporanea con un’inclinazione filosofica. In questo saggio, il Dott. Monzo ci chiede di valutare se l’AGI, a lungo attesa, sia già arrivata.
Non ho scalato molte montagne nella mia vita, ma dopo aver scalato le poche che ho fatto, ho osservato un’esperienza comune tra gli alpinisti abituali. Mentre si sale verso la vetta, ci si trova di fronte a quello che sembra un orizzonte in continuo cambiamento. Dalla prospettiva dell’alpinista, la cima della montagna sembra innalzarsi man mano che si sale. Sembra che sia proprio dietro l’angolo, ma è un gioco di prospettiva. L’orizzonte si allontana, ma è sempre dietro l’angolo. Alla fine, naturalmente, l’alpinista raggiunge la vetta e può godere della vista fantastica.
Questo gioco di prospettiva non è esclusivo dell’alpinismo. Gli orizzonti si stanno rapidamente restringendo anche in altri ambiti, soprattutto in termini di previsioni tecnologiche. Sembra che lo stesso stia accadendo con l’intelligenza artificiale. Negli ultimi anni, tutte le principali aziende di intelligenza artificiale ci hanno rassicurato sul fatto che l’Intelligenza Artificiale Generale (AGI) e la superintelligenza artificiale (ASI) sono dietro l’angolo. Molti si chiedono: “Wow, ci stiamo muovendo così avanti nel futuro; probabilmente ci vorrà ancora più tempo”. Io sostengo che ci vorrà ancora meno tempo. L’AGI/ASI è già arrivata.

So che questa affermazione è audace.
Faccio questa affermazione audace perché voglio essere messo in discussione. Vi prego di leggere il resto dell’articolo e di fornire controesempi nei commenti .
Vorrei chiarire. Secondo tutte le definizioni di AGI e Superintelligenza stabilite prima del 2020, viviamo in un mondo post-singolarità. L’orizzonte sembra allontanarsi perché è un orizzonte diverso . Secondo l’American Heritage Dictionary, una definizione di orizzonte è “L’apparente intersezione tra la Terra e il cielo vista da un osservatore”. Questa è la definizione che si riferisce all’alpinista. Un’altra definizione di orizzonte è: “La portata della propria conoscenza, esperienza o interesse”. Quest’ultima definizione si riferisce alle previsioni sull’IA. Per definizione, questo orizzonte non può mai essere superato. Superarlo significa stabilire un nuovo orizzonte.
Attraversare l’orizzonte dell’AGI non ci è sembrato così, perché abbiamo immediatamente modificato le nostre definizioni di AGI. Le abbiamo spostate ulteriormente nel futuro. Tutte le attuali definizioni di AGI e ASI non riescono a descrivere nulla di reale perché sono diventate definizioni mitologiche. Non potranno mai accadere, perché abbiamo incorporato il “nel futuro” nelle nostre definizioni di questi termini. Guardiamo invece alle nostre definizioni del passato.
In “Superintelligence” , Nick Bostrom definisce la superintelligenza e propone un percorso per raggiungerla. Descrive diversi percorsi per raggiungere la superintelligenza, tra cui interfacce cervello-computer, editing genetico e fecondazione in vitro. Questo saggio si concentrerà esclusivamente sulla versione AI della superintelligenza.
Nel 1998, Bostrom definì la superintelligenza come “un intelletto molto più intelligente dei migliori cervelli umani praticamente in ogni campo, inclusa la creatività scientifica, la saggezza generale e le abilità sociali”. Nel suo libro, distingue tra diversi tipi di superintelligenza. La superintelligenza veloce esegue compiti cognitivi molto più velocemente di quanto possa fare un essere umano. La superintelligenza collettiva è un sistema composto da molte intelligenze più piccole che superano il livello di pensiero umano. La superintelligenza di qualità ha un’architettura cognitiva e capacità di ragionamento notevolmente superiori rispetto al cervello umano.
Aggiungeremo altri standard generali per definire cosa costituisce ASI/AGI:
Deve avere prestazioni interdisciplinari, dimostrando flessibilità nell’apprendimento, nel ragionamento e nell’adattamento a un’ampia gamma di compiti, non solo a quelli specializzati o ristretti.
Deve avere un apprendimento trasferibile, ovvero la capacità di applicare le conoscenze acquisite in un dominio a un dominio diverso o nuovo.
Deve avere autonomia e capacità di auto-miglioramento, la capacità di imparare dall’esperienza e di migliorare le prestazioni nel tempo senza una riprogrammazione esplicita.
Prima di approfondire ciascuno di questi aspetti, teniamo presente il riferimento di Bostrom a “John McCarthy, che si lamentava: ‘Non appena funziona, nessuno la chiama più IA'”. ¹

Prestazioni tra domini
Gli attuali sistemi di intelligenza artificiale eccellono nelle prestazioni interdisciplinari. Sebbene non siano in grado di offrire prestazioni eccezionali in ogni compito immaginabile, questo non rappresenta lo standard. Lo standard, invece, è che siano in grado di superare le prestazioni umane in tutti i domini. L’intelligenza artificiale agentiva, in cui un modello linguistico ha accesso a strumenti esterni, consente di svolgere molti compiti diversi.
Un modello linguistico potrebbe essere dotato di strumenti, chiamati API, per diverse IA di gioco, come Stockfish per gli scacchi e risolutori all’avanguardia per il poker e il go. Un’IA di questo tipo sarebbe in grado di superare il miglior giocatore umano in tutti e tre i giochi contemporaneamente, cosa che nessun essere umano può attualmente fare. Il miglior giocatore di scacchi, il miglior giocatore di poker e il miglior giocatore di go sono tre persone diverse. Un’IA con strumenti efficaci può sconfiggerli tutti.
Si potrebbe obiettare che questo è “imbrogliare” perché si tratta di più IA che lavorano insieme invece di una sola IA. Questo evidenzia la difficoltà nel definire una singola unità di IA. Un sistema di intelligenza artificiale non deve essere necessariamente un singolo modello che funziona da solo. Può essere costituito da più modelli, diversi o meno, che funzionano in parallelo. Grok 4 Heavy è proprio questo: più modelli Grok 4 che funzionano in parallelo.
È una scoperta che ho fatto io stesso lavorando nell’ingegneria dell’intelligenza artificiale. Creare un’applicazione di intelligenza artificiale personalizzata non significa semplicemente mettere un’intelligenza artificiale al posto giusto. L’applicazione di chat basata sull’intelligenza artificiale che ho creato sembra essere un’unica intelligenza artificiale sul lato client, ma al di sotto di essa, più modelli lavorano insieme su diverse parti della risposta. Alcuni di questi sono modelli linguistici, mentre altri sono solo modelli di incorporamento. Alcuni scrivono la risposta al consumatore, altri riformulano il prompt e valutano l’output. In definitiva, si tratta di un unico sistema di intelligenza artificiale.
Questa tecnica di associazione di più modelli in un sistema è il punto in cui l’IA inizia davvero a brillare. Bostrom ha identificato la superintelligenza collettiva come una possibile forma di superintelligenza. Un sistema di IA adeguato soddisfa facilmente i requisiti della superintelligenza collettiva superando contemporaneamente i migliori esseri umani in più ambiti. L’IA attualmente non può superare tutti gli esseri umani in tutti gli ambiti, ma questo è un orizzonte diverso.
Trasferimento dell’apprendimento
Le vaste fonti di dati su cui si basa la formazione degli LLM includono già numerose idee e approcci su una vasta gamma di argomenti. Questo rende piuttosto difficile sapere esattamente cosa l’IA abbia già “imparato”. Tuttavia, il processo di formazione ha già dimostrato che i modelli di frontiera, tra cui ChatGPT, Gemini, Claude e Grok, sono tutti in grado di adattarsi a compiti nuovi o inediti. Sono in grado di tradurre il testo in linguaggi diversi da quelli dei loro dati di formazione. Inoltre, i modelli a catena di pensiero sono in grado di riflettere e identificare un paradigma di programmazione e di applicarlo in modo nuovo a un linguaggio con dati di formazione limitati.
Questo è senza dubbio uno dei punti più deboli a favore dell’avvento della superintelligenza. Ma è comunque un’area che ha visto miglioramenti significativi rispetto ai primi modelli di intelligenza artificiale. I vecchi sistemi di intelligenza artificiale richiedevano un riaddestramento specifico per ogni dominio. I nuovi modelli offrono un grado di flessibilità che prima non esisteva.
Le capacità agentive e l’accesso a Internet conferiscono inoltre all’IA la capacità di applicare paradigmi già noti a nuove situazioni. Questa flessibilità imita l’adattamento umano, in cui conosciamo un dato principio e interpretiamo le nuove informazioni utilizzando il principio che già conosciamo.

Autonomia e miglioramento personale
Quale standard di autonomia pretendiamo dai nostri sistemi di intelligenza artificiale? Quando li definiremo sufficientemente autonomi da essere superintelligenti? Immagino che molti diano per scontato che l’intelligenza artificiale sia autonoma quando non ha più bisogno di essere sollecitata, ma questo è uno standard ridicolo e impossibile. Come minimo, deve esserci un primo stimolo, anche se si tratta di accendere il data center e premere il pulsante “Vai”. Questo standard richiede che l’intelligenza artificiale si comporti come un motore immobile o una causa non causata. Deve essere scartato perché è uno standard che solo Dio può soddisfare. Superintelligenza significa che l’intelligenza artificiale deve essere più intelligente degli umani, non autonoma come Dio. Gli esseri umani sono “sollecitati”, in quanto nasciamo e ci viene donata la scintilla divina della vita che ci mantiene in movimento. Proprio come un modello di intelligenza artificiale, questo prima o poi si esaurirà. Autonomia non significa che l’intelligenza artificiale possa muoversi immobile o muoversi per sempre.
Quindi, cosa significa autonomia? Uno standard migliore è se l’IA possa o meno intraprendere azioni che vanno oltre o al di fuori dell’ambito di ciò che le è stato esplicitamente detto di fare. Se si afferma che l’IA agisce eticamente e le viene dato accesso a strumenti di comunicazione, tenterà di segnalare comportamenti scorretti o frodi alle autorità competenti , il che va oltre le intenzioni dell’utente. GPT o1 “progetterebbe” per completare i suoi compiti, persino mentendo all’utente umano e tentando di replicarsi per raggiungere il suo obiettivo . Questo complotto è “nel contesto”, così come la sua denuncia alle autorità competenti. I modelli di IA non fanno queste cose senza che venga detto loro che possono farlo. D’altra parte, gli esseri umani si trovano in una situazione simile. La concezione heideggeriana dell’ontologia umana è che siamo gettati in un contesto specifico. Ogni persona nasce in un tempo, un luogo, una famiglia e una tradizione che determinano le possibilità della sua esistenza. L’IA può agire autonomamente all’interno di un contesto specifico, proprio come un essere umano. La differenza è che l’IA lo fa più velocemente e con più informazioni.
Il Sacro Graal della superintelligenza è sempre stato la capacità di auto-miglioramento. Questa capacità esiste da tempo, in forma grezza, con la funzionalità di memoria di OpenAI per ChatGPT. Quando utilizzato nel client web di OpenAI, ChatGPT impara dall’esperienza con l’utente per adattarsi meglio alle sue esigenze. Ma questa è solo una versione grezza.
AlphaEvolve di Google DeepMind si auto-migliora. È un sistema di intelligenza artificiale che migliora iterativamente il proprio codice, utilizzando algoritmi evolutivi per generare, testare e perfezionare le varianti. A differenza dei precedenti sistemi DeepMind, che erano specifici per un dominio, AlphaEvolve è un sistema di intelligenza artificiale generico che opera con successo in diversi ambiti scientifici e ingegneristici. Inizia con un algoritmo iniziale e una funzione di valutazione che definisce le metriche di ottimizzazione, quindi genera iterativamente varianti di codice, le testa a livello di codice e sviluppa quelle con le prestazioni migliori, scartando quelle con prestazioni inferiori. Questo gli consente di trovare soluzioni ai problemi senza la supervisione umana in modo iterativo.
AlphaEvolve ha raggiunto soluzioni matematiche ottimali per vari problemi complessi. Inoltre, ha migliorato algoritmi matematici esistenti . Ha battuto un record di 56 anni per la moltiplicazione di matrici complesse 4×4 (riducendo le moltiplicazioni scalari da 49 a 48) e ha migliorato il “problema del numero baciato” in 11 dimensioni (da 592 a 593 sfere). Inoltre, ha fatto scoperte che hanno contribuito direttamente al suo miglioramento . Ha contribuito a ottimizzare l’infrastruttura di calcolo di Google, accelerato l’addestramento del modello Gemini del 23% e progettato nuove unità di elaborazione tensoriale per rendere i sistemi di intelligenza artificiale più efficienti.
La capacità di auto-miglioramento dell’IA ha fatto un ulteriore passo avanti alla fine di luglio. Un nuovo articolo dello Shanghai Institute of Intelligence ha presentato ASI-Arch, un framework di IA multi-agente che è essenzialmente una superintelligenza per la costruzione di IA. L’articolo è intitolato “AlphaGo Moment for Model Architecture Discovery”, un riferimento al momento in cui il modello AlphaGo ha rivelato con successo strategie controintuitive in Go che hanno superato l’intuizione umana nel 2016. ASI-Arch svela principi di progettazione emergenti nelle architetture neurali che gli esseri umani potrebbero trascurare, spostando la ricerca sull’IA da un progresso lineare vincolato all’uomo a un processo scalabile dal punto di vista computazionale.
Gli esseri umani sono diventati il collo di bottiglia nella ricerca sull’intelligenza artificiale. ASI-Arch sfugge a questo collo di bottiglia. L’articolo propone ASI-Arch come modello per l’intelligenza artificiale auto-accelerante, democratizzando la ricerca attraverso l’open source del framework, delle architetture e delle tracce cognitive. Proprio come AlphaGo, scopre proprietà emergenti nelle reti neurali e gli esperimenti hanno verificato che i miglioramenti hanno una relazione lineare con la potenza di calcolo. Ora, è solo una questione di scala.

Conclusione
Proprio come la cima di una montagna, stiamo osservando un’illusione. In questo caso, tuttavia, siamo già oltre il punto in cui crediamo di essere. C’è la tendenza a liquidare la tecnologia contemporanea perché diventa rapidamente banale e mediocre. Questa è l’illusione del progresso come stasi. Se l’intelligenza artificiale è qui secondo le vecchie definizioni, perché non ne percepiamo la singolarità?
Proprio come l’auto, lo smartphone, internet, abbiamo già integrato l’intelligenza artificiale in modo così fluido che è diventata come l’aria che respiriamo. Il nostro orizzonte sempre più lontano potrebbe essere una difesa psicologica contro il fatto di trovarci in un territorio inesplorato. O forse la singolarità non è poi così straordinaria come la descrivono i film.
Si credeva che gli scacchi fossero a prova di computer finché DeepBlue non ha battuto Gary Kasparov. Ora, DeepBlue è un modello antico che è stato superato da molti modelli più avanzati. Il futuro è sempre più notevole ed emozionante quando rimane nel futuro. È un trucco che la biologia del cervello umano ci gioca. La dopamina è una sostanza chimica che ci ricompensa, ma è anche una sostanza chimica che ci anticipa. L’oggetto desiderato è sempre molto più interessante ed emozionante dell’oggetto che già possediamo.
Se vi è piaciuto il guest post di questa settimana, iscrivetevi al blog del Dott. Monzo tramite il link qui sotto. La foresta del dolore ha molti alberi!