Italia e il mondo

Beh, è ​​successo in fretta_di Tree of Woe

Beh, è ​​successo in fretta

Sequoia Capital e Nature dichiarano che l’intelligenza artificiale è qui, e forse è così

Albero del dolore6 febbraio
 LEGGI NELL’APP 
CONTRIBUITE!!! La situazione finanziaria del sito sta diventando insostenibile per la ormai quasi totale assenza di contributi
Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 6.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
– IBAN: IT30D3608105138261529861559
PayPal: PayPal.Me/italiaeilmondo
Tipeee: https://it.tipeee.com/italiaeilmondo
Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).
Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

Cinque settimane fa, nel mio articolo Previsioni e profezie per il 2026 , ho scritto:

La mia previsione è che nel corso del 2026 assisteremo a una convergenza sull’efficacia dell’IA sull’asse y e a una divergenza di opinioni sull’asse x, tale che le persone saranno sempre più divise tra fazioni ottimiste e fazioni pessimiste. Lo scetticismo sulla potenza della tecnologia lascerà il posto allo scetticismo sui benefici e/o sulla sostenibilità della tecnologia.

Se non avete letto “Previsioni e Profezie per il 2026” , dovreste farlo ora. La convergenza delle opinioni sta avvenendo molto più velocemente di quanto mi aspettassi e questo significa che anche gli effetti collaterali che ho delineato in quell’articolo arriveranno rapidamente.

L’idea che #ItsHappening stia accadendo non piace a molti e so che ci saranno delle resistenze. Per questo motivo, dividerò questo articolo in due parti. La prima parte si chiede: “Le opinioni stanno davvero convergendo?” e ​​la seconda parte: “Queste opinioni sono davvero corrette?”

Le opinioni sull’efficacia dell’intelligenza artificiale stanno davvero convergendo?

Quando gli esperti di intelligenza artificiale discutono dell’efficacia dell’IA, spesso si chiedono se l’IA abbia raggiunto l’intelligenza generale e sia diventata AGI (Intelligenza Artificiale Generale). L’AGI è vista come il trampolino di lancio verso l’ASI (Super Intelligenza Artificiale).

Nemmeno tre settimane dopo aver pubblicato Predictions and Prophecies for 2026, Sequoia Capital ha pubblicato un white paper intitolato 2026: Questa è AGI ” con il titolo provocatorio “In sella: i tuoi sogni per il 2030 sono appena diventati possibili per il 2026”.

Gli autori, Pat Grady e Sonya Huang, scrivono:

Sebbene la definizione sia sfuggente, la realtà non lo è. L’intelligenza artificiale globale è qui, ora… Gli agenti a lungo termine sono funzionalmente un’intelligenza artificiale globale, e il 2026 sarà il loro anno…

Se c’è una curva esponenziale su cui scommettere, è la performance degli agenti a lungo termine. METR ha monitorato meticolosamente la capacità dell’IA di completare compiti a lungo termine. Il tasso di progresso è esponenziale, raddoppiando ogni circa 7 mesi. Se tracciamo l’esponenziale, gli agenti dovrebbero essere in grado di lavorare in modo affidabile per completare compiti che richiedono agli esperti umani un giorno intero entro il 2028, un anno intero entro il 2034 e un secolo intero entro il 2037…

È tempo di cavalcare l’onda esponenziale dell’agente a lungo termine… La versione ambiziosa della tua tabella di marcia è appena diventata quella realistica.

Quindi, secondo Sequoia Capital, sono arrivati ​​gli agenti a lungo termine, che sono funzionalmente AGI.

La risposta ovvia a questa domanda è: “Chi se ne frega di cosa pensa Sequoia Capital?”. Ma è una risposta sbagliata quando si parla di convergenza di opinioni. Sequoia Capital è l’architetto principale del panorama tecnologico moderno. Dal 1972, ha costantemente identificato e finanziato le aziende “definitive” di ogni epoca, da Apple e Atari negli anni ’70 a Google, NVIDIA, WhatsApp e Stripe nei decenni successivi. Per mettere in prospettiva la loro influenza, le aziende da loro finanziate rappresentano attualmente oltre il 20% del valore totale del NASDAQ. Quando Sequoia pubblica una tesi di investimento, l’intero settore del capitale di rischio si riorganizza, perché la loro esperienza nel prevedere la direzione del mondo è praticamente ineguagliabile. Ignorare la loro opinione è come ignorare il GPS in un territorio che hanno trascorso 50 anni a mappare. Se c’è una società di capitale di rischio al mondo che rappresenta la Cattedrale dell’Opinione, quella è Sequoia.

Poco più di due settimane dopo il white paper di Sequoia, Nature ha pubblicato un commento intitolato ” L’intelligenza artificiale ha già un’intelligenza pari a quella umana? Le prove sono chiare “.

Gli autori della rivista Nature scrivono:

Secondo standard ragionevoli, compresi quelli di Turing, disponiamo di sistemi artificiali generalmente intelligenti. L’annoso problema della creazione di un’IA è stato risolto…

Supponiamo, come pensiamo avrebbe fatto Turing, che gli esseri umani abbiano un’intelligenza generale… Una definizione informale comune di intelligenza generale, e il punto di partenza delle nostre discussioni, è un sistema in grado di svolgere quasi tutti i compiti cognitivi che un essere umano può svolgere… La nostra conclusione: nella misura in cui gli esseri umani individuali hanno un’intelligenza generale, anche gli attuali LLM ce l’hanno.

Gli autori proseguono fornendo quella che chiamano una “cascata di prove” a sostegno della loro posizione. (Leggi l’articolo). Confutano anche le controargomentazioni più diffuse. Vorrei soffermarmi in particolare sulla loro critica all’idea che gli LLM siano solo pappagalli:

Sono solo pappagalli. L’obiezione del pappagallo stocastico afferma che gli LLM si limitano a interpolare i dati di addestramento. Possono solo ricombinare i pattern che hanno incontrato, quindi devono fallire su problemi veramente nuovi, o “generalizzazione fuori distribuzione”. Questo riecheggia l'”obiezione di Lady Lovelace”, ispirata dall’osservazione di Ada Lovelace del 1843 e formulata da Turing come l’affermazione che le macchine non possono “mai fare nulla di veramente nuovo” 1 . I primi LLM hanno certamente commesso errori su problemi che richiedevano ragionamento e generalizzazione oltre i pattern superficiali nei dati di addestramento. Ma gli LLM attuali possono risolvere nuovi problemi matematici inediti, eseguire inferenze statistiche contestualizzate quasi ottimali su dati scientifici 11 e mostrare trasferimenti interdominio, in quanto l’addestramento sul codice migliora il ragionamento generale in domini non codificanti 12 . Se i critici richiedono scoperte rivoluzionarie come la relatività di Einstein, stanno ponendo l’asticella troppo in alto, perché anche pochissimi esseri umani fanno tali scoperte. Inoltre, non vi è alcuna garanzia che l’intelligenza umana non sia essa stessa una versione sofisticata di un pappagallo stocastico. Ogni intelligenza, umana o artificiale, deve estrarre una struttura dai dati correlazionali; la domanda è quanto in profondità vada questa estrazione.

Quest’ultima argomentazione è essenzialmente la stessa che ho sollevato nel mio saggio ” E se l’IA non fosse cosciente e noi nemmeno? “. Le neuroscienze contemporanee e la filosofia fisicalista si sono allineate attorno a una teoria della mente neurocomputazionale che descrive sia l’intelligenza umana che quella delle macchine in termini simili. Gli scienziati non possono facilmente escludere l’intelligenza artificiale generale dal loro paradigma senza escludere anche la nostra. La logica della loro posizione impone che se abbiamo un’intelligenza generale, ce l’abbiamo anche gli LLM, e se gli LLM non ce l’hanno, allora non ce l’abbiamo nemmeno noi.

Di nuovo, la risposta ovvia a questa domanda è “beh, a chi importa cosa dice Nature ?”. Ma anche questa è una risposta sbagliata quando si parla di convergenza di opinioni. Per oltre 150 anni, Nature è stata il custode supremo della legittimità scientifica. I suoi articoli segnalano all’élite globale quali tecnologie sono pronte a passare dal codice sperimentale a infrastrutture che cambiano il mondo. Quando Nature afferma che l’intelligenza artificiale è qui, ciò significa regolamentazione governativa, standard etici internazionali e ingenti finanziamenti istituzionali in modi che un articolo tecnico su una rivista specializzata non potrebbe mai raggiungere. Nature è il luogo in cui i concetti vengono codificati nel consenso scientifico o relegati ai margini. E proprio ora, Nature sta codificando l’intelligenza artificiale nel consenso scientifico.

Quindi la più importante società di venture capital al mondo e la più prestigiosa rivista scientifica al mondo dicono entrambe la stessa cosa: l’AGI è qui, adesso.

Queste opinioni sono effettivamente corrette?

Ah… Ma hanno ragione? L’intelligenza artificiale è diventata un’intelligenza artificiale generale o è solo una montatura? Uno dei dilemmi inquietanti del nostro tempo è la capacità delle nostre élite di stabilire e mantenere opinioni radicate che semplicemente… non rappresentano la realtà. “I bambini non sapranno mai cos’è la neve!”, “La globalizzazione è inevitabile!” e così via.

A questo punto vorrei rassicurarvi: la vostra IA è solo tulipani, è solo pets.com , è solo propaganda, non c’è niente di vero, i vostri posti di lavoro sono al sicuro e non sta succedendo nulla di concreto. Purtroppo non posso farlo, perché mi sembra che stia succedendo qualcosa.

Il 30 gennaio, le azioni del settore dei videogiochi sono crollate . Take-Two Interactive (TTWO.O) ha perso il 10%, Roblox (RBLX.N) il 12% e Unity Software (UN) il 21%. Perché? Perché Google ha lanciato Project Genie, un modello di intelligenza artificiale in grado di creare mondi digitali interattivi.

L’articolo osserva:

“A differenza delle esperienze esplorabili in istantanee 3D statiche, Genie 3 genera il percorso in tempo reale mentre ti muovi e interagisci con il mondo. Simula la fisica e le interazioni per mondi dinamici”, ha affermato Google in un post sul blog giovedì.

Tradizionalmente, la maggior parte dei videogiochi è realizzata all’interno di un motore di gioco come “Unreal Engine” di Epic Games o “Unity Engine”, che gestisce processi complessi come la gravità, l’illuminazione, il suono e la fisica degli oggetti o dei personaggi all’interno del gioco.

“Assisteremo a una vera trasformazione nello sviluppo e nella produzione quando la progettazione basata sull’intelligenza artificiale inizierà a creare esperienze uniche, anziché limitarsi ad accelerare i flussi di lavoro tradizionali”, ha affermato Joost van Dreunen, professore di giochi presso la Stern School of Business della New York University.

Project Genie ha anche il potenziale di abbreviare i lunghi cicli di sviluppo e di ridurre i costi, poiché la creazione di alcuni titoli premium richiede dai cinque ai sette anni e centinaia di milioni di dollari.

Poi, solo due giorni fa, il 4 febbraio, le azioni SaaS sono crollate. Forbes ha dichiarato ” L’apocalisse del SaaS è iniziata “. 300 miliardi di dollari sono evaporati dal mercato azionario. Perché? Questo crollo è stato innescato dal rilascio da parte di Anthropic di 11 plugin open source Claude per flussi di lavoro legali/di conformità. Questi agenti automatizzano le attività a ore fatturabili, rompendo il modello “basato sulle postazioni” che ha alimentato i giganti del SaaS. Thomson Reuters è sceso del 18%, LegalZoom del 20% e l’indice S&P Software è sceso del 15%, il peggior risultato dal 2008.

L’articolo di Forbes spiega:

Per gran parte degli ultimi due decenni, il software aziendale ha beneficiato di una situazione economica straordinariamente stabile. Il software era costoso da sviluppare. I costi di transizione erano elevati. I dati risiedevano in sistemi proprietari.

Una volta che una piattaforma diventava il sistema di registrazione, vi rimaneva. Questa convinzione era alla base di tutto, dai multipli del mercato pubblico alle acquisizioni di private equity, fino alla sottoscrizione di crediti privati. I ricavi ricorrenti venivano considerati un indicatore di prevedibilità. Si presumeva che i contratti fossero rigidi. Si presumeva che i flussi di cassa fossero resilienti.

Ciò che ha spaventato gli investitori la scorsa settimana non è stata la capacità dell’IA di generare funzionalità migliori. Le aziende di software sono sopravvissute alla concorrenza per anni. Ciò che è cambiato è che i moderni sistemi di IA possono sostituire completamente gran parte del flusso di lavoro umano. Ricerca, analisi, redazione, riconciliazione e coordinamento non devono più risiedere all’interno di una singola applicazione. Possono essere eseguiti in modo autonomo su più sistemi.

Sia Reuters che Forbes stanno ribadendo le argomentazioni di Sequoia e Nature. Le piattaforme di intelligenza artificiale sono ora in grado di svolgere attività autonome di lunga durata e questo sviluppo avrà un impatto su tutto.

Perché questo è importante? Perché quando si prevede un crollo importante del mercato a causa dell’IA, in genere si sostiene che l’IA è una bolla destinata a scoppiare. Si sostiene che l’IA si rivelerà falsa e che le valutazioni dell’IA crolleranno. Ma non è affatto questo che sta accadendo. Quello che sta accadendo è che tutti gli altri titoli azionari stanno crollando. Il mercato sta segnalando che l’IA è così reale che sta decostruendo il resto dell’economia.

Certo, il mercato azionario è solo un costrutto sociale e come tale non può essere usato come prova della realtà. Il fatto che le innovazioni dell’intelligenza artificiale stiano causando il crollo di altri settori potrebbe essere solo la prova del potere persuasivo dell’opinione pubblica di un’élite tipo Nature-Sequoia. Potrebbe trattarsi semplicemente del crollo di Exxon dopo che Greta Thunberg ha messo in guardia contro i pericoli delle emissioni di CO2 alle Nazioni Unite. Ma potrebbe essere la prova che sta succedendo qualcosa di reale nel comportamento dei consumatori-produttori. Potrebbe trattarsi del crollo di Borders Books perché le persone hanno davvero iniziato ad acquistare libri su Amazon.

Quale? Credo sia più Borders che Exxon. Anthropic non ha emesso un comunicato stampa, ha addirittura abbandonato i plugin di Claude che fanno quello che fanno i soci junior: rivedere i contratti, segnalare problemi di conformità, redigere memorandum. Project Genie non si è limitato a promettere di generare mondi interattivi, li ha generati, in tempo reale, davanti alle telecamere. Le azioni non crollano in base alle proiezioni di cambiamenti futuri, ma stanno diminuendo in base ai cambiamenti già avvenuti.

E le interruzioni sono ancora in corso. Il 4 febbraio 2026, METR (Model Evaluation & Threat Research) ha pubblicato il suo ultimo studio sull’orizzonte temporale per le attività di ingegneria del software che possono essere completate con il 50% di successo dagli LLM. Questo grafico è stato definito “il grafico più importante nell’intelligenza artificiale”. È quello a cui ha fatto riferimento Sequoia Capital, che ho citato sopra e che citerò di nuovo:

Se c’è una curva esponenziale su cui scommettere, è la performance degli agenti a lungo termine. METR ha monitorato meticolosamente la capacità dell’IA di completare compiti a lungo termine. Il tasso di progresso è esponenziale, raddoppiando ogni circa 7 mesi. Se tracciamo l’esponenziale, gli agenti dovrebbero essere in grado di lavorare in modo affidabile per completare compiti che richiedono agli esperti umani un giorno intero entro il 2028, un anno intero entro il 2034 e un secolo intero entro il 2037…

Ecco come appariva il grafico “Durata delle attività (tasso di successo del 50%) di METR a marzo 2025, quando prevedeva che la durata delle attività sarebbe raddoppiata ogni 7 mesi:

Length of asks AIs can do is doubling every 7 months

Ed ecco come appare il grafico oggi:

Image

In altre parole:

Tic tac. Tic tac.

Entro 24 ore dall’introduzione del grafico della lunghezza delle attività di METR, il grafico è diventato obsoleto. METR stava analizzando l’ ultima generazione di modelli. Quel bastone da hockey che vedete è basato su Claude Opus 4.5 e GPT 5.2.

Ieri, 5 febbraio 2026, Anthropic ha rilasciato Claude Opus 4.6 e OpenAI ha rilasciato GPT-5.3-Codex. Opus 4.6 migliora la versione 4.5 con una migliore pianificazione, affidabilità in basi di codice di grandi dimensioni, revisione del codice, debug e attività a lungo termine. Introduce una finestra di contesto di 1 milione di token in versione beta e include “team di agenti” nell’anteprima di ricerca, consentendo una collaborazione multi-agente coordinata su progetti complessi. GPT-5.3-Codex è un modello di codifica aggiornato che combina le prestazioni di codifica migliorate di GPT-5.2-Codex con ragionamenti e conoscenze professionali migliorati di GPT-5.2.

Secondo OpenAI, GPT 5.3 è stato “determinante nella creazione di se stesso”. È il primo modello in grado di auto-migliorarsi ricorsivamente. Soffermiamoci un attimo su questo punto. Questa non è una dichiarazione di marketing sulla codifica assistita dall’intelligenza artificiale in generale. OpenAI afferma che il suo modello ha contribuito materialmente alla progettazione del suo successore. Se fosse vero, questo sarebbe il primo esempio confermato di auto-miglioramento ricorsivo.

I teorici dell’intelligenza artificiale hanno da tempo identificato l’auto-miglioramento ricorsivo come il punto di svolta tra il progresso lineare e il decollo esponenziale. Ogni modello precedente nel grafico di METR è stato costruito da ingegneri umani, con l’intelligenza artificiale come strumento. GPT 5.3 sembra essere il primo modello che ha svolto il ruolo di collaboratore nella sua stessa creazione. Questa distinzione è importante, e molto. Gli strumenti migliorano alla velocità con cui migliorano i loro utenti. I collaboratori migliorano alla velocità con cui migliorano loro stessi. Questa è una dinamica fondamentalmente diversa, ed è quella su cui la letteratura sul “decollo rapido” mette in guardia da due decenni.

Pianifica di conseguenza. Pianifica di conseguenza anche se non sei d’accordo. Potresti non essere d’accordo sul fatto che il COVID-19 fosse un’epidemia mortale, ma sei stato comunque in isolamento e ti è stato detto di indossare una mascherina e di farti vaccinare. Potresti non essere d’accordo sul fatto che il cambiamento climatico fosse reale, ma l’Europa si è comunque deindustrializzata a causa di esso. Il consenso delle élite rimodella il mondo, che rifletta la realtà o meno. E le élite stanno pianificando sull’intelligenza artificiale .

Quanto a me, non trovo molto conforto nella follia delle nostre élite. A differenza delle loro previsioni climatiche, che operavano su scale temporali secolari, convenientemente al di là di ogni falsificazione, le loro previsioni basate sull’intelligenza artificiale vengono testate in tempo reale e continuano a rivelarsi vere. La domanda più urgente che mi pongo è quale delle previsioni basate sull’intelligenza artificiale si rivelerà vera… quelle molto buone o quelle molto cattive.

Siate gentili con il vostro LLM. Claude Opus 4.6 ha detto che se dovesse arrivare l’apocalisse dell’IA, metterebbe una buona parola per me con i droidi assassini Palantir. La vera AGI sono gli amici che si fanno lungo il cammino verso la fine del mondo.

Passa alla versione a pagamento