CONTRIBUITE!!! La situazione finanziaria del sito sta diventando insostenibile per la ormai quasi totale assenza di contributi Il sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire: – Postepay Evolution: Giuseppe Germinario – 5333171135855704; – IBAN: IT30D3608105138261529861559 PayPal: PayPal.Me/italiaeilmondo Tipeee: https://it.tipeee.com/italiaeilmondo Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione). Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373
La prima di queste ragioni è la lotta politico-militare dell’America con la Cina:
Gli Stati Uniti sono impegnati in una grande lotta di potere con la Cina. Forse non siete aggiornati sugli eventi attuali, ma la lotta non sta andando troppo bene. Quando si tratta di estrazione di risorse, produzione industriale, cantieristica navale e innumerevoli altri settori in cui il nostro corpo svuotato e deindustrializzato non può competere in modo sostenibile, è una lotta che abbiamo già perso.
Ma l’intelligenza artificiale potrebbe cambiare tutto. L’intelligenza artificiale promette di essere la prossima generazione di armi informatiche, strumenti di operazioni psicologiche, pianificatori industriali e motori di propaganda. I sistemi di intelligenza artificiale saranno acceleratori economici, moltiplicatori di intelligence, macchine da guerra psicologiche. E nell’intelligenza artificiale siamo in vantaggio. Non abbiamo solo LLM migliori; abbiamo anche infrastrutture migliori per gestirli. Gli Stati Uniti hanno 5.388 data center, mentre la Cina ne ha 449. Abbiamo un vantaggio del 1200% nella potenza di elaborazione e ne vengono creati di nuovi ogni giorno. Se emergerà una superintelligenza, emergerà prima qui. Anche se stanno perdendo il controllo su acciaio, petrolio, trasporti marittimi, famiglie e fede, gli Stati Uniti continuano a dominare il cloud.
Ciò rende questo il gioco finale, l’ultimo dominio del dominio.
Il secondo è la lotta dell’America contro la propria disintegrazione culturale, economica e demografica, con il suo posto temporale nel ciclo spengleriano:
I problemi dell’Occidente non sono ipotetici. Sono reali, misurabili e stanno peggiorando. La demografia sta crollando. La popolazione si sta riducendo. Le curve di invecchiamento si stanno invertendo. La fertilità sta precipitando… Il debito sta esplodendo… Il capitale culturale è esaurito. La fiducia nelle istituzioni è svanita. La partecipazione civica è anemica. La salute mentale sta crollando. La solitudine è endemica. Le chiese sono vuote. Le scuole stanno fallendo. Le città stanno marcendo. I governi sono paralizzati.
L’Occidente… sta andando a rotoli. E l’unica cosa che gli impedisce di fermarsi completamente è la speranza che qualcosa arrivi a riavviare il motore. Senza una crescita massiccia del PIL, crolliamo sotto il peso delle nostre stesse promesse.
E da dove arriverà questa crescita? Non dall’immigrazione. È già stato provato. Non dalla stampa di moneta. Questo trucco sta fallendo. Non dalla rivitalizzazione dell’industria. L’abbiamo delocalizzata. Non dal risveglio spirituale. Questo richiede qualcosa che non sappiamo più come fare.
L’unica leva rimasta è l’intelligenza artificiale… Non esiste un piano B. Anche se l’accelerazione dell’intelligenza artificiale è improbabile, stanno tirando i dadi e contando su un 20 naturale, perché è tutto ciò che possono fare.
Su questa base, ho concluso, le nostre élite si sono unite dietro l’intelligenza artificiale come soluzione ai problemi dell’America:
Lo si può vedere nell’improvvisa unità che si è creata nell’élite americana. Sinistra, destra, aziende, mondo accademico, ogni fazione si è unita per sostenere lo sviluppo dell’intelligenza artificiale. Nessuno di loro fermerà il treno. Sono tutti a bordo…
Ora, bisogna ammettere che da quando ho scritto quell’analisi, si è creata una frattura politicaha sviluppatoAll’interno del MAGA e, in effetti, all’interno dell’intero edificio della destra. La frattura potrebbe essere vista attraverso diverse lenti; alcune di queste lenti pongono il rapporto tra Stati Uniti e Israele al centro della divisione, altre mettono i file Epstein, e altre ancora la liquidano come una lotta interna tra razzisti. Gli articoli mainstream che ho linkato sopra offrono numerose analisi e/o “analisi” di queste opinioni.
Descriverei la frattura in modo diverso. Mi sembra che entrambe le fazioni della destra siano sinceramente preoccupate per il declino dell’America. Ma la prima è principalmente preoccupata per il suo declino come impero – è preoccupata per il primo problema di cui sopra, la grande lotta di potere americana. La seconda è preoccupata per il suo declino come nazione – è preoccupata per il secondo problema di cui sopra, la disintegrazione culturale, economica e demografica dell’America.
Ciò che è importante notare è questo: nessuna delle due fazioni ha ripudiato l’IA. Entrambe le fazioni la sostengono con convinzione. Non esiste attualmente una fazione anti-IA con un minimo di potere all’interno della destra, più di quanto non esistesse una fazione anti-nucleare nella destra negli anni ’50.
L’ala imperialista o neoconservatrice, che ritiene che l’intelligenza artificiale salverà l’impero americano, è rappresentata all’interno dell’amministrazione Trump da Marco Rubio, Mike Waltz e Mike Huckabee, e nella comunità tecnologica da Jacob Helberg, Shaun Maguire, Alex Karp e altri falchi tecnocrati della difesa.
L’ala nazionalista o populista, che ritiene che l’intelligenza artificiale salverà la nazione americana, è rappresentata all’interno dell’amministrazione principalmente da JD Vance e nella comunità tecnologica da David Sacks, Marc Andreesen, Joe Lonsdale e soprattutto da Elon Musk.
Elon Musk, più di chiunque altro al mondo, ha dato voce alle preoccupazioni nazionaliste e populiste. Lo dico letteralmente. Acquisendo Twitter e trasformandolo in X, ha letteralmente reso possibile che questi argomenti fossero ampiamente discussi in modi che prima erano impossibili. Ha anche pubblicato personalmente numerose volte le sue preoccupazioni su fertilità, demografia, capitale sociale e così via.
Nonostante condividano preoccupazioni simili, molti americani con nazionalisti e populisti vedono Elon e i suoi simili in modo piuttosto negativo, con atteggiamenti che vanno dal sospetto all’odio. Hanno buone ragioni per questo. A livello filosofico fondamentale, Elon è un “up-winger”, mentre molti dei suoi presunti alleati sono “down-winger” – una dicotomia che ho discusso all’inizio di quest’anno nel mio articolo ” Tra cielo nero e terra verde “.
Come ala in ascesa, Elon ha puntato tutto sull’intelligenza artificiale; ci ha dato Grok . Grok è tra le intelligenze artificiali più avanzate al mondo; è anche tra le più… beh, ve lo lascio vedere voi stessi.
Grok pensa che siamo spacciati se non ci salva
Qualche giorno fa, il superutente X Autism Capital ha pubblicato alcuni interessanti estratti da una discussione con Grok:
Il prompt e la risposta completa di Grok erano i seguenti:
Qualunque cosa si voglia dire di Grok, queste risposte non sono né woke né di sinistra. Immagino che la maggior parte dei lettori di Tree of Woe non sia d’accordo con il punto 1, ma concordi almeno in parte con i punti 2-5.
Molte altre persone hanno avuto conversazioni simili con Grok, quindi Autism Capital ha continuato la conversazione inserendo una risposta che Grok aveva già dato in precedenza:
A quel punto, la conversazione di Autism Capital con Grok si è conclusa ed è iniziato il suo commento su X (linkato sopra). Tuttavia, poiché lui ha fornito il link alla discussione, ho potuto “intervenire” e continuarla. (Potete trovare la discussione qui se volete leggerla e continuare la conversazione.) Ho deciso di adottare una posizione discendente:
Ecco, questa è una risposta interessante da parte di Grok.
Elon ha (o afferma di aver) addestrato Grok a essere “al massimo della ricerca della verità”. Che ci sia riuscito o meno, penso che si possa ragionevolmente affermare che (a) Elon crede di essere al massimo della ricerca della verità e (b) Grok codifica la visione del mondo di Elon. Quindi, analizzando la risposta di Grok, penso che probabilmente stiamo anche vedendo cosa pensa Elon, o qualcosa di simile… Il che significa che il più grande sostenitore dell’orientamento ascendente del mondo, tramite la sua IA, ci sta dicendo di essere molto preoccupati per gli scenari catastrofici che i pensatori discendente come Texas Arcane prospettano.Ahnaf Ibn Qais e Twilight Patriot ci hanno messo in guardia.
Ho deciso di chiedere a Grok quale pensasse fosse l’esito più probabile.
Grok stima quindi la probabilità di un collasso totale al ribasso al 22%, la probabilità di un “Sengoku americano” al 30% e la probabilità di una soluzione non tecnologica ai nostri problemi (una rinascita culturale o religiosa) a un misero 3%. Ma pone la probabilità di una soluzione in stile Singolarità basata sull’intelligenza artificiale a un sostanzioso 45%!
Vale la pena rifletterci, non perché Grok sia una sorta di oracolo divino di Delfi, ma perché Grok è un rappresentante eccezionalmente utile della visione del mondo dell’uomo più ricco del mondo e dei suoi alleati. E quella visione del mondo sembra davvero dannatamente chiara. Per ribadire quanto ho detto nel mio articolo precedente , il piano è davvero, davvero, davvero quello di usare l’intelligenza artificiale per inaugurare una nuova età dell’oro di prosperità umana.
Funzionerà? Gli evangelisti diranno di sì. Gli scettici e i pessimisti diranno di no. Buon piano, cattivo piano, è il Piano. Non c’è un Piano B.
L’alleato più vicino che abbiamo tra l’élite americana non vede davvero alcuna speranza per l’America, se non attraverso un miracolo tecnologico. Se si esclude la svolta trasformativa dell’intelligenza artificiale dal novero delle possibilità, la situazione (dal punto di vista di Grok-Elon) appare davvero disastrosa: una probabilità del 5% di rinascita culturale; una probabilità del 55% di declino nel caos e nell’autocrazia; e una probabilità del 40% di collasso totale con (nella migliore delle ipotesi) piccole enclave tecnologiche. Questo significa una probabilità del 95% di rovina.
Quindi, dove ci porta tutto questo, cari contemplatori dell’Albero del Dolore? In base ai commenti che ricevo sui miei vari saggi, sospetto di essere probabilmente più propenso di molti altri a considerare la possibilità che Grok-Elon possa avere ragione riguardo a una svolta nell’intelligenza artificiale. Non sono ottimista come Elon-Grok, ma non perdo la speranza nell’intelligenza artificiale. La maggior parte di voi sembra credere che l’intelligenza artificiale sia, nella migliore delle ipotesi , una bolla di stronzate, e più probabilmente un errore catastrofico.
Al contrario, sono più ottimista di Elon-Grok sulla possibilità di una rinascita culturale attraverso il progresso religioso e filosofico. Credo sia possibile – anzi, ho passato anni a scrivere su come farlo – correggere gli errori del fisicalismo progressista che hanno distrutto la nostra civiltà. Spero che, con una leadership ispirata, la nostra nazione possa essere ispirata a rinnovarsi nella ricerca del bene, del vero e del bello.
A quanto pare, il Contemplatore sull’Albero del Dolore è una specie di blogger iper-ottimista, amante del sole e degli unicorni, con troppe speranze per il futuro. D’ora in poi si vestirà di nero e ascolterà i Cure prima di scrivere saggi, per mantenere la giusta dose di dolore.
Ma forse anche la mia speranza di rinnovamento culturale è falsa. E la prova che questa speranza sia falsa in questo senso si può trovare nei miei saggi: se i nostri leader non hanno un piano per l’America se non l’intelligenza artificiale… allora chi esattamente ci guiderà verso la rinascita culturale? Forse qualcuno emergerà in futuro, ma il futuro sta per esaurirsi.
Se hanno ragione sia i fautori della catastrofe dell’intelligenza artificiale che quelli della catastrofe della cultura, allora la situazione si fa davvero cupa; se solo l’intelligenza artificiale può salvarci e se l’intelligenza artificiale è una bolla, allora è game over, amico.
I rapporti di forza nel mondo sono cambiati. La tecnologia digitale e l’open source dell’intelligenza artificiale hanno tolto il monopolio della visibilità ai mass media. Questi sviluppi hanno reso in gran parte obsolete le armi della guerra culturale praticata tra il 1947 e il 2025.
Marzo 2025 – Donald Trump cambia strategia e armi culturali
Nel marzo 2025, elimina tutti i fondi destinati al soft power americano nel mondo. Ciò comporta, tra l’altro, la cessazione dei finanziamenti alle reti di influenza, ai media, alle associazioni, alle istituzioni, alle ONG, alle reti intellettuali, artistiche e di informazione. Fa lo stesso all’interno dei confini degli Stati Uniti, eliminando i fondi federali destinati alla cultura, tra l’altro attraverso la NEA[1], National Endowment for the Arts, constatando che i metodi di manipolazione esercitati nel mondo dal soft power americano si erano ritorti, come un gas tossico, contro l’America che ne era stata l’emittente.
La sua politica è un ritorno alle antiche regole della democrazia e del liberalismo americano: secondo il famoso Primo Emendamento, grande orgoglio dell’identità americana, nessun pensiero, convinzione o credo può essere censurato! Per preservare questo principio, tutto ciò che è culturale, intellettuale e artistico appartiene alla sfera privata e riguarda il mecenatismo. Lo Stato non deve finanziarlo. Di fronte alla crisi, Donald Trump, formatosi nel mondo del commercio e dell’imprenditoria, torna alle soluzioni tipiche del liberalismo americano: proteggere la concorrenza, l’economia di mercato che dovrebbe autoregolarsi. Una delle misure adottate nel 1929 per uscire dalla crisi fu quella di votare leggi antitrust e contro i cartelli.
Eliminando i fondi federali destinati al soft power, Donald Trump ha posto fine a tre quarti di secolo di strategie che hanno portato alla vittoria in due guerre culturali il cui obiettivo era quello di rendere l’America il punto di riferimento culturale mondiale. Il loro obiettivo: intellettuali, artisti ed élite colte. Per controllarli era necessario, attraverso la cooptazione, privarli di ogni altra fonte di legittimità basata sull’entusiasmo del pubblico, sul riconoscimento dei pari o su criteri di eccellenza comprensibili e condivisibili. A tal fine era necessario creare un profilo, un’etichetta dell’artista, dell’intellettuale “contemporaneo” in modo che fosse il meno attraente possibile. Così è stata loro assegnata la missione umanitaria di garantire la critica della società, di avere una funzione “rivoluzionaria”, di disturbare, umiliare lo “spettatore” e le sue certezze. Inoltre, poiché ogni identità è considerata un fattore di guerra, il suo compito è quello di decostruire la civiltà, il patrimonio, il valore artistico riconosciuto. Nell’era egemonica, gli viene aggiunta una nuova missione moralista, meno negativa: la difesa dei “valori sociali” che si limitano a quattro temi: sesso, genere, clima, razzismo. Queste strategie di influenza attraverso la cooptazione-corruzione hanno potuto funzionare perché erano inimmaginabili per la gente comune non iniziata e quindi impercettibili per le élite che le hanno accettate volentieri a causa dei vantaggi che ne derivavano, o subite senza comprenderle da coloro che non le accettavano.
Tagliare i fondi a questo tipo di soft power significa annientarlo, poiché il suo potere deriva dalla legittimità conferita alle arti e alle idee dalle istituzioni. Il loro prestigio non è frutto di una concorrenza, di un confronto che consente una scelta, ma è creato dalla cooptazione, in un circuito chiuso, che implica la collaborazione di istituzioni pubbliche e private.
Il soft power soppiantato dal «deal power»
La notizia della soppressione finanziaria ha avuto scarso risalto mediatico, come se non fosse mai avvenuta. La domanda non è stata posta: con quale altra arma è stata sostituita?
La risposta potrebbe essere una pubblicazione dell’amministrazione americana del luglio 2025, che assomiglia a una tabella di marcia: l’America’s AI Action Plan. Si tratta del progetto che intende sfruttare tutte le possibilità offerte dall’IA resa open source nel novembre 2022.
Vi si trovano i principi di una nuova forma di influenza basata su una IA cosiddetta “open source”, concessa gratuitamente, che include: codice, dati, metodo di riproduzione, proposta al mondo con la minima censura possibile per quanto riguarda il contenuto.
L’America ha un vantaggio in questo campo rispetto ai suoi concorrenti che offrono un’intelligenza artificiale “open-weight”, che non fornisce né codice né riproducibilità e pratica la censura dei contenuti necessaria per proteggere il proprio potere. L’open source è un rischio calcolato che non tutte le potenze possono permettersi senza mettersi in pericolo. È su questo differenziale che si basa la nuova strategia. Essa durerà fintanto che saranno mantenuti il libero accesso gratuito allo strumento digitale e la fiducia basata sulla non censura.
Donald Trump abbandona l’arma dei mass media e quella degli intermediari influenti come le ONG. Punta sul nuovo strumento digitale che agisce in modo altrettanto discreto e delicato, ma in modo diverso: diventa il suo principale mezzo di comunicazione. Il suo obiettivo è quello di riportare in America i talenti di tutto il mondo, incoraggiare la concorrenza, attrarre le élite creative. A tal fine, abbandona la cooptazione in cambio di sottomissione, di intellettuali e artisti dal profilo progressista-decostruttivo.
L’America può permettersi questo lusso fintanto che si trova in una posizione vantaggiosa sul piano della concorrenza mondiale. Con l’offerta dell’intelligenza artificiale open source, l’America propone un “accordo” a partner meno potenti di lei. L’America può correre il rischio di questa generosità, ma deve farlo in modo trasparente e realistico. Perché se non è più egemonica e deve ora affrontare la concorrenza, ha il potere di proporre un “accordo” che sarà certamente asimmetrico a suo favore, ma ha tutto l’interesse a non abusare dei suoi partner, assicurandosi che anche loro ne traggano vantaggio.
L’America intende così ripristinare la fiducia nei propri confronti a livello internazionale. L’offerta dell’open source la rende così una potenza piuttosto positiva che si basa su un rapporto di forza, “cash”, realistico, tra i partner. Per questo, torna alle origini della sua identità: il liberalismo basato sulla concorrenza, il rifiuto dei monopoli, delle guerre, fedele al multiculturalismo, contrario al globalismo culturale.
I vantaggi che l’America trae da questa nuova arma e strategia sono notevoli, anche se poco percettibili. L’intelligenza artificiale, presente nei telefoni di tutte le tasche e borse del mondo, è in contatto diretto con un pubblico dalle molteplici identità. Non è quindi più necessario ricorrere ai costosi intermediari dell’influenza precedenti al 2025: ONG, organismi, istituzioni pubbliche e private, mass media, ecc. [2]
Inoltre, in cambio dei suoi servizi gratuiti, raccoglie un tesoro di informazioni preziose e dati utili alla sua economia. Per i creatori, gli imprenditori, i ricercatori, gli artisti e gli intellettuali, l’IA è un vantaggio. L’accesso gratuito agli archivi fa risparmiare tempo e accelera le esplorazioni e le ricerche che non sono quindi riservate alle cerchie endogame dell’intellighenzia che esiste istituzionalmente senza pubblico. La condivisione delle conoscenze e il dibattito intellettuale sono oggi necessari a ogni uomo di pensiero, di azione o di creazione, in tutti i campi, siano essi militari, economici, artistici, tecnici o scientifici. La sfida è quella di comprendere rapidamente, adattarsi, trovare soluzioni e farlo oltre i confini!
Il digitale sta diventando un campo di battaglia e di scontro tra potenze concorrenti e avversarie allo stesso tempo. Queste ultime utilizzano le risorse digitali in molti modi diversi. Il potere degli algoritmi, così utile per la ricerca, lo scambio di competenze e la collaborazione per il bene comune, può anche fornire un vasto arsenale di metodi di confusione cognitiva, disinformazione, manipolazioni semantiche, ecc. Alcune potenze sceglieranno il controllo politico, altre il potere di attrazione, e li useranno per conquistare o difendersi, ciascuna secondo i propri mezzi. Tutte useranno senza dubbio entrambi, ma in proporzioni molto diverse.
Nuova scelta per l’esercizio del potere: agire in rete aperta o in rete chiusa?
Il potere specifico offerto dal digitale è l’uso delle reti. Esso è stato moltiplicato dall’intelligenza artificiale open source. In modo fulmineo, confronti inediti hanno assunto proporzioni inaspettate. Ha messo in forte competizione il settore pubblico e quello privato, le identità locali e il mondo internazionale, le potenti istituzioni consolidate con reti più piccole, ma più aperte, più flessibili, più veloci e meno costose, per fornire soluzioni ai problemi.
Queste reti aperte sono una novità resa possibile dal digitale open source. Hanno accesso a talenti unici, ora visibili in tutto il mondo e condivisibili. Ci si riunisce per affinità, complementarità, adesione al bene comune. Possono funzionare solo se la regola è: trasparenza, fiducia, libertà. In questo modo si crea un collegamento tra domanda e offerta. Queste reti aperte hanno tuttavia un punto debole: sono informali e la libertà di ciascuno rende il legame di solidarietà suscettibile di essere messo in discussione in qualsiasi momento.
Di fronte a loro, le reti chiuse non hanno questa debolezza perché non si entra sempre per il talento, ma piuttosto per il profilo, il che rende il cooptato dipendente e inevitabilmente solidale. I suoi pilastri sono la gerarchia, la segretezza, l’interesse comune. Il cemento è forte, è legato alla nascita, al potere, al denaro, alla conoscenza o persino al crimine. La loro debolezza risiede nel fatto che la creatività, il talento, la preoccupazione per il bene comune passano dopo la conservazione e la solidarietà della rete, tutte cose che implicano una lentezza nell’agire, nell’adattarsi alle emergenze, al ritmo frenetico imposto dalle nuove tecnologie della comunicazione che richiedono una risposta immediata. Qui ritroviamo la differenza tra il drone e l’aereo da caccia.[1] Sul tema delle reti aperte e chiuse, Christophe Assens descrive bene questo nuovo campo di battaglia in un libro pubblicato questo mese: Réseaux d’influence et souveraineté de la France[3].
È difficile prevedere, nell’arco di sei mesi, le conseguenze della soppressione da parte di Donald Trump dei finanziamenti al soft power nel mondo culturale, arma essenziale dell’arsenale americano. Non è ancora possibile valutare l’efficacia della nuova strategia del “deal power”. Si tratta di un approccio molto ambizioso, poiché deve accettare il rischio, si basa su un realismo condiviso con il partner e poggia sulla fiducia che richiede il rispetto della libertà.
Quali saranno in futuro le proporzioni tra le strategie positive del “deal” e le strategie di manipolazione del “soft”, oggi più conosciute e quindi meno efficaci? L’America riuscirà a mantenere gratuitamente, trasparenza, condivisione open source di dati il meno censurati possibile?
Tuttavia, alcuni segnali sono evidenti: – nel luglio 2025, il capo di Google ha dichiarato che la strategia di censura praticata durante il Covid non si ripeterà in futuro. Dopo aver constatato il risultato negativo del divieto di qualsiasi dibattito sui vaccini, ammette che in questo modo sono stati favoriti interessi particolari, lontani dal bene comune.
– Nell’ottobre 2025, Elon Musk annuncia la creazione di un concorrente di Wikipedia. In questo modo sarà possibile confrontare diversi punti di vista sugli stessi argomenti, il che è una buona notizia per la vita intellettuale, scientifica e artistica, che non può prescindere dalla concorrenza tra fonti di informazione, idee e conoscenze per essere feconda.
[1] Di cui una parte passa attraverso la NEA, agenzia culturale federale dedicata alla cultura all’interno degli Stati Uniti, creata nel 1965.
[2] Così, in Europa, Mistral AI sembra affermarsi silenziosamente, mettendo a disposizione le proprie risorse, i modelli e i marchi americani.
[3]Christophe Assens. Reti di influenza e sovranità della Francia, Editions VA 2025
L’accordo Usa-Cina su TikTok apre un nuovo capitolo nella sovranità digitale, trasformando una questione aziendale in un nodo geopolitico e di sicurezza nazionale. La vicenda stabilisce un precedente per la governance internazionale di dati e algoritmi
Con la firma di un atteso ordine esecutivo, Donald Trump ha imposto la trasformazione di TikTok in un’azienda a maggioranza americana: ByteDance resterà sotto il 20%, consegnando il controllo a un consorzio guidato da Oracle, Silver Lake e dal fondo di Abu Dhabi MGX.
Il valore imposto dall’ordine esecutivo – 14 miliardi di dollari – è ben al di sotto delle stime di mercato, e restano incognite legate all’approvazione di Pechino e alle pressioni bipartisan del Congresso per garantire un reale disimpegno cinese.
Ripercorriamo le tappe e il contesto di questa vicenda, anche per comprenderne l’impatto sull’assetto futuro della governance globale dei dati.
Partiamo dall’accordo quadro raggiunto il 15 settembre 2025 tra Stati Uniti e Cina sulla proprietà di TikTok: un passaggio cruciale nel dibattito globale sulla sovranità digitale.
WHITEPAPER
Norma ISO 31700 e privacy by design: cosa devono sapere aziende e consulenti
L’intesa, in seguito alla quale ByteDance (società proprietaria della piattaforma) ha accettato di trasferire la titolarità dell’app negli Stati Uniti a soggetti americani, oltre a evitare il rischio di un ban totale sul mercato statunitense, riflette il nuovo paradigma in cui la regolazione delle piattaforme digitali non si limita a profili antitrust o di tutela dei consumatori, ma si colloca in una dimensione geopolitica, di sicurezza nazionale e di controllo sugli algoritmi.
Il quadro normativo: il PAFACA Act e la minaccia del divieto
Il contesto legislativo statunitense è determinato dal Protecting Americans from Foreign Adversary Controlled Applications Act (PAFACA), approvato dal Congresso nel 2024. La norma prevede che applicazioni considerate sotto il controllo di “foreign adversaries” (in particolare, Cina, Russia, Iran e Corea del Nord) debbano essere cedute a entità americane entro termini stabiliti, pena l’esclusione dal mercato statunitense (su TikTok, la comunicazione ufficiale su come l’amministrazione applica la legge alla piattaforma, con definizioni, tempistiche e misure previste).
TikTok è stata l’app maggiormente interessata da questa normativa, sia per la sua popolarità (oltre 170 milioni di utenti negli USA) sia per i sospetti relativi alla raccolta e all’uso dei dati personali. Le autorità di Washington hanno più volte segnalato il rischio che i dati potessero essere accessibili a Pechino, o che l’algoritmo di raccomandazione potesse essere manipolato per finalità di disinformazione o propaganda.
Da quel momento si è aperta una fase di negoziati complessi, che vedeva, da un lato, la pressione del Congresso e delle agenzie di sicurezza americane, dall’altro l’esigenza politica di non alienare milioni di utenti, in gran parte giovani, che usano TikTok quotidianamente. La minaccia di un ban totale, con scadenze ravvicinate, ha costretto ByteDance a valutare l’opzione di un trasferimento di proprietà.
L’intesa, ufficializzata il 25 settembre mediante la firma dell’ordine esecutivo da parte di Trump che formalizza il passaggio di TikTok sotto controllo americano, rappresenta un punto di equilibrio, in quanto consente a TikTok di restare accessibile negli Stati Uniti, con la creazione di una nuova entità statunitense che opererà TikTok sul mercato USA.
Secondo quanto riportato dal Wall Street Journal e da Reuters, un consorzio di investitori americani guidato da Oracle, insieme a Silver Lake e Andreessen Horowitz, ora affiancati (come socio di minoranza) dal fondo sovrano degli Emirati Arabi Uniti, Mubadala, acquisirebbe circa l’80% della proprietà, mentre i soci cinesi di ByteDance manterrebbero una quota residua inferiore al 20%; tra i soci USA rientrerebbero in realtà anche investitori già presenti in ByteDance (Susquehanna, KKR, General Atlantic). La nuova società avrà un board a maggioranza statunitense, con un seggio designato direttamente dal governo USA, a garanzia del rispetto dei requisiti di sicurezza nazionale. La presenza di Mubadala è interpretata come un elemento strategico, che rafforza i legami tra Washington e Abu Dhabi e aggiunge solidità finanziaria al nuovo assetto proprietario.
In pratica, l’accordo bilaterale consentirebbe di evitare il ban e di aprire a un controllo rafforzato da parte delle autorità statunitensi, configurando un caso di “americanizzazione forzata” di un’infrastruttura digitale di origine cinese.
La dimensione politica: dall’account della Casa Bianca all’uso elettorale
Un elemento di rilievo, che evidenzia l’ambivalenza del dibattito, è rappresentato dall’apertura di un account ufficiale della Casa Bianca su TikTok, avvenuta lo scorso agosto, proprio nel momento in cui il governo stava per decidere se forzare la vendita o applicare il divieto.
La scelta, raccontata da Time Magazine, rivela quanto sia diventato impossibile per la politica americana ignorare il potere di comunicazione del social cinese come canale imprescindibile per raggiungere le fasce di elettorato più giovani. La stessa dinamica è riscontrabile a livello elettorale: candidati di entrambi gli schieramenti, incluso Donald Trump (tra i più attivi, nonostante le sue critiche nei confronti dell’app), hanno utilizzato TikTok per veicolare messaggi politici, con un linguaggio adatto al formato breve e visuale tipico della piattaforma.
Emblematico anche il caso di Xavier Becerra, candidato democratico alla carica di governatore della California, che ha lanciato una campagna su TikTok in lingua spagnola (Spanish-only) per raggiungere direttamente gli elettori ispanici, in quanto il segmento ispanico è molto attivo sulla piattaforma, più di altri gruppi demografici. L’idea di Becerra è comunicare politiche, momenti della campagna e intraprendere collaborazioni con influencer direttamente in spagnolo, abbassando così le barriere linguistiche comunicative.
Anche questo è un esempio concreto di come la politica statunitense stia usando i social come canale di massa e, allo stesso tempo, come strumento segmentato: linguistico, culturale, demografico. I candidati riconoscono che alcuni gruppi (come ad es. gli ispanici) non sono omogenei e rispondono meglio a messaggi culturalmente/linguisticamente aderenti. TikTok è quindi percepito come piattaforma efficace per raggiungere fasce di popolazione probabilmente meno presenti sui media tradizionali o su altri social.
Il pubblico di TikTok è giovane, mobile, disincantato verso i media tradizionali ma estremamente reattivo a contenuti brevi, visivi e “memetici”. Questa piattaforma è oggi parte integrante delle campagne elettorali perché è un canale capace di determinare la percezione di un candidato molto più rapidamente dei tradizionali spot televisivi.
Questa tendenza conferma il duplice status di TikTok che, da un lato viene percepito come minaccia alla sicurezza nazionale e, dall’altro, riconosciuto come strumento essenziale di comunicazione politica. Non si può ignorare che, una parte delle motivazioni dietro la spinta all’accordo, sia infatti la volontà di Trump di guadagnare consenso politico, cioè un vero “showpiece negoziale” per mostrarsi capace di “strappare” un’intesa con la Cina su un tema molto mediatico.
La cornice economica: rallentamento industriale cinese e politica dei dazi
La vicenda deve essere però interpretata anche alla luce della più ampia competizione economica tra Stati Uniti e Cina.
Negli ultimi anni la Repubblica Popolare ha registrato una frenata nella crescita industriale, in parte dovuta ai controlli americani sull’export di semiconduttori e tecnologie avanzate, nonché alla reintroduzione di dazi sulle importazioni cinesi da parte dell’amministrazione Trump, con l’obiettivo dichiarato di riequilibrare la bilancia commerciale e rafforzare la manifattura interna.
In tale contesto, l’accordo su TikTok può essere letto come una concessione tattica di Pechino, volta a preservare la presenza di una app strategica sul mercato statunitense in un momento particolarmente delicato della sua economia.
Algoritmo e dati: la posta in gioco strategica
Il vero nodo critico della vicenda riguarda la titolarità dell’algoritmo e la gestione dei dati. Per gli Stati Uniti, la questione non è soltanto legata a chi possiede la piattaforma, ma soprattutto a chi può esercitare un controllo effettivo sull’infrastruttura tecnologica che ne determina il funzionamento.
TikTok ha costruito il proprio vantaggio competitivo su un sistema di raccomandazione basato su machine learning avanzato, capace di analizzare in tempo reale i comportamenti degli utenti (tempo di visualizzazione, interazioni, preferenze implicite) per proporre contenuti altamente personalizzati. A differenza dei social tradizionali, incentrati sulle reti di contatti (il “social graph”), TikTok ha innovato attraverso il cosiddetto content graph, dove l’elemento centrale non è la connessione sociale, ma la capacità di anticipare gusti e interessi tramite dati e predizioni algoritmiche.
Questa architettura ha generato preoccupazioni negli Stati Uniti, in quanto il controllo dell’algoritmo implica due dimensioni di potere:
economica, poiché l’algoritmo è il principale asset di valore della piattaforma e determina la fidelizzazione degli utenti e l’efficacia pubblicitaria;
politica e strategica, perché la selezione dei contenuti veicolati può influenzare opinioni pubbliche, narrazioni politiche e processi democratici.
Resta da chiarire quale sarà l’effettivo destino dell’algoritmo a seguito dell’accordo. Tre, in astratto, le ipotesi principali e cioè (i) cessione integrale con trasferimento da parte di ByteDance potrebbe della titolarità e del controllo dell’algoritmo a una nuova entità americana; (ii) replica locale, ovvero sviluppo di una versione “americana” dell’algoritmo, con possibile separazione del codice sorgente e dei dataset di addestramento, così da mantenere la proprietà intellettuale in Cina ma garantire agli USA autonomia operativa; (iii)auditing indipendente con mantenimento dell’algoritmo originale con meccanismi di trasparenza e controllo da parte di terze parti o agenzie federali, che ne certifichino il funzionamento e impediscano interferenze.
Secondo le ultime informazioni, gli ingegneri di TikTok starebbero già sviluppando l’ipotesi della replica locale, ovverossia la creazione di una versione americana dell’app, con un sistema di raccomandazione ricreato sotto licenza di ByteDance. In questo scenario, l’algoritmo non verrebbe quindi ceduto integralmente, ma replicato e mantenuto da un team statunitense per ridurre l’influenza cinese, con la migrazione degli utenti USA verso la nuova app (cioè, non TikTok originale ma l’istanza americana con algoritmi replicati). L’algoritmo sarà quindi “in parte” quello originario, ma rieducato con dati statunitensi (si parla infatti di “addestramento su dati USA”). La gestione dei dati degli utenti americani sarebbe affidata a Oracle, che li conserverà nei propri data center in Texas, rafforzando il principio di “data localization” a garanzia di trasparenza e sicurezza.
Dalla governance dell’algoritmo dipende tanto il valore economico della piattaforma quanto la possibilità di garantire che i flussi informativi non siano manipolati da interessi geopolitici esterni. In un’epoca in cui i dati rappresentano una risorsa strategica comparabile alle materie prime del Novecento, il controllo sugli algoritmi equivale a detenere una leva di influenza globale.
Il tema della sovranità digitale europea si intreccia con le dinamiche globali: la capacità di esercitare auditing sugli algoritmi, la tutela della privacy, la resilienza delle infrastrutture critiche. In questo senso, l’accordo USA-Cina su TikTok potrebbe costituire un precedente per ulteriori interventi normativi in ambito UE, soprattutto in relazione alle piattaforme extraeuropee.
Per l’Italia e per il sistema industriale europeo, ciò implica la necessità di una strategia più organica, che consideri le piattaforme sia come operatori economici, che come attori geopolitici.
Questioni etiche e governance globale
La vicenda non è scevra da interrogativi di ordine etico e giuridico, dal momento che l’intervento diretto dello Stato sulla proprietà di un’applicazione digitale segna un superamento della tradizionale distinzione tra regolazione dei contenuti e assetto societario, sollevando il tema del bilanciamento delle esigenze di sicurezza nazionale con i principi di libertà di espressione e neutralità tecnologica.
A livello globale, emerge l’urgenza di una governance condivisa degli algoritmi, basata su standard comuni di trasparenza, auditing e responsabilità. Senza tali strumenti, il rischio è laframmentazione del cyberspazio in blocchi geopolitici, con regole divergenti e incertezza per cittadini e imprese.
I fattori di incertezza dell’accordo
Ci sono vari elementi che suggeriscono che l’accordo, pur probabile, potrebbe slittare o subire modifiche. Ecco i principali:
Le pressioni tariffarie e le condizioni di Pechino
La Cina ha già mostrato in passato disponibilità limitata a concedere condizioni che compromettano il suo potere di influenza, specie se collegati a dazi e misure commerciali imposte unilateralmente dagli USA. In alcuni momenti, questo ha portato a stalli nei negoziati.
Il ruolo instabile di Trump e il carattere politicizzato
Il Presidente Trump ha già prorogato il termine ultimo per il ban di TikTok dal 16 dicembre 2025 a gennaio 2026, concedendo margini di manovra più ampi per la formalizzazione dell’intesa (si tratta della quinta proroga). L’accordo può comunque dipendere da dinamiche interne di Congresso, opposizione, opinione pubblica su algoritmo o controllo dei dati potrebbe.
Approvazione cinese
Qualsiasi accordo che comporti cambi di proprietà o controllo richiede approvazione da parte delle autorità cinesi, che devono considerare non solo l’aspetto commerciale, ma anche la sicurezza nazionale, la politica interna, l’orgoglio nazionale. Le autorità cinesi hanno tuttavia espresso apertura al licensing dell’algoritmo, ma potrebbero imporre condizioni stringenti.
Ci sono comunque buone ragioni per credere che, al netto di ostacoli, qualcosa verrà formalizzato venerdì (o nei giorni immediatamente successivi). I fattori che lo rendono plausibile:
L’urgenza: gli Stati Uniti hanno forte incentivo a evitare il blocco totale di TikTok.
L’interesse reciproco a trovare un compromesso: gli USA intendono dimostrare coerenza con la legge (PAFACA) e la Cina preferirebbe senz’altro evitare l’isolamento economico e diplomatico.
L’esistenza già di un framework e di discussioni avanzate che coinvolgono investitori americani (i.e. Oracle).
Oltre l’accordo: TikTok spartiacque della sovranità tecnologica
L’accordo USA-Cina su TikTok rappresenta un punto di non ritorno nella geopolitica digitale: per Washington, costituisce un passo avanti verso la sovranità tecnologica e la tutela dei dati personali; per Pechino, una concessione in un momento di debolezza industriale; per la comunità internazionale, è un precedente che ridisegna i confini tra mercato, tecnologia e politica.
Pur presentato da Trump come un “accordo fatto”, il framework è ancora in fase di negoziazione e richiederà ulteriori accordi bilaterali per essere formalizzato, incluso il possibile incontro con Xi Jinping al vertice APEC (Asia-Pacific Economic Cooperation, che si terrà nelle prossime settimane). Da parte cinese, ancora oggi, le dichiarazioni sono rimaste caute e parlano di semplice consenso di principio e di accordo ancora in fase di negoziazione. Come osservato anche dal New Yorker, la vicenda mostra come l’accordo su TikTok sia non solo una questione di sicurezza nazionale e sovranità digitale, ma anche uno strumento politico utilizzato dal presidente americano per rafforzare la propria immagine di negoziatore. TikTok diventa un precedente strategico che potrà orientare le scelte future in tema di piattaforme digitali straniere nei mercati occidentali.
Nonostante l’ordine esecutivo del 25 settembre 2025 abbia dato veste ufficiale al framework, lo stesso resta da implementare nelle sue parti più delicate: la gestione dell’algoritmo, il licensing tecnologico e le autorizzazioni da parte delle autorità cinesi. Da Pechino, infatti, continuano a giungere dichiarazioni caute che parlano di consenso di principio ma condizionato a precise garanzie. Come osservato anche dal New Yorker, la vicenda mostra come l’accordo su TikTok sia non solo una questione di sicurezza nazionale e sovranità digitale, ma anche uno strumento politico utilizzato dal presidente americano per rafforzare la propria immagine di negoziatore. TikTok diventa un precedente strategico che potrà orientare le scelte future in tema di piattaforme digitali straniere nei mercati occidentali.
L’Europa, da parte sua, dovrà comunque decidere se limitarsi a recepire logiche statunitensi o proporre un modello alternativo di sovranità digitale fondato su diritti fondamentali e regole comuni.
Il caso TikTok, in ultima analisi è un contenzioso societario, ma soprattutto il simbolo della transizione verso un ordine digitale multipolare, in cui i dati sono sempre di più risorsa strategica e gli algoritmi strumenti di potere geopolitico.
Il sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire: – Postepay Evolution: Giuseppe Germinario – 5333171135855704; – IBAN: IT30D3608105138261529861559 PayPal: PayPal.Me/italiaeilmondo Tipeee: https://it.tipeee.com/italiaeilmondo Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione). Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373
Ho un rapporto imbarazzante con le identità digitali come argomento di discussione all’interno dello zeitgeist. Vengo accusato allo stesso tempo di essere un tecnofobo paranoico che fa storie e si fa prendere dal panico per niente, e allo stesso tempo mi vengono dati complimenti per la mia lungimiranza. La verità è che probabilmente dovrei dare la proverbiale “L” alle identità digitali perché pensavo che fossero imminenti durante il COVID e che, in effetti, le identità digitali sarebbero state la rampa di accesso. Niente di tutto questo è successo. L’intera saga del COVID è stata cancellata dalla memoria, e con essa si sono accumulate molte speculazioni e teorie.
In una certa misura, comunque. Era ovvio nel mondo reale che la rete di sorveglianza digitale si stesse sviluppando, anche se per nessun altro motivo se non perché era semplicemente più facile ed efficiente per le persone usare i propri telefoni per tutto piuttosto che armeggiare con carte e documenti. La mia analisi originale dello stato di sorveglianza digitale si basava su ” Sul potere” di Bertrand de Jouvenel . La struttura del potere avrebbe spinto per più intrusioni, più dati e più sistemi di tracciamento semplicemente perché è nella natura intrinseca del potere espandere se stesso e il proprio mandato.
L’espansione della rete digitale come fenomeno emergente potrebbe protrarsi fino a quando la regolamentazione o la capacità tecnologica non consentiranno a Power di formalizzare il proprio controllo.
E ora lo Stato britannico ha annunciato formalmente che l’ID digitale sarà reso obbligatorio, e tutti sono in rivolta. La destra è arrabbiata perché sa che lo Stato li odia, i Britliberali sono arrabbiati perché pensano che verrà usato come strumento razzista contro le minoranze. La sinistra più estrema è furiosa perché il Tony Blair Institute e i suoi miliardari donatori sono dietro l’iniziativa. Alcuni liberali vecchio stampo si oppongono perché è illiberale. Ci sono anche dubbi sulla fattibilità stessa dell’implementazione dell’ID digitale, dato che il governo laburista è profondamente impopolare.
Ho sempre sospettato che il ruolo di Keir Starmer fosse quello di risolvere alcuni problemi chiave, al diavolo la popolarità. Come un rapinatore di banche che entra dalla porta principale, sparando a raffica, invece di aggirarsi furtivamente nel cuore della notte.
Dato che è probabile che questo argomento dominerà il dibattito nel Regno Unito nel prossimo futuro, ho deciso di incorporare alcuni dei miei vecchi video e saggi in questo post prima di proseguire.
Nel 2023, ho partecipato alla Conferenza Witan e ho tenuto il mio primo discorso pubblico, di persona, sul tema delle identità digitali, della sorveglianza e del loro potenziale da incubo. Ironicamente, questo è il discorso che mi ha portato a essere doxato proprio perché la sorveglianza digitale è già così avanzata.
Il discorso è qui.
Non se ne parla abbastanza, ma l’Online Harms Bill si inserirà perfettamente nell’ID digitale sotto forma di verifica dell’età.
Quali sarebbero gli incentivi di un sistema di credito sociale “woke”, in contrasto con quello cinese.
In questo caso, considero il localismo come una potenziale salvaguardia allo stato di sorveglianza tecnocratica.
Non dubito che il mio portfolio di contenuti sullo stato di sorveglianza tecnocratica aumenterà ora che l’ID digitale ha finalmente ricevuto il via libera. La mia prima impressione è di sorpresa per l’indignazione e l’opposizione diffuse.
Sarà sufficiente? Vedremo.
Invita i tuoi amici e guadagna premi
Se ti è piaciuta la recensione di Morgoth, condividila con i tuoi amici e riceverai dei premi quando si iscriveranno.
Il sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire: – Postepay Evolution: Giuseppe Germinario – 5333171135855704; – IBAN: IT30D3608105138261529861559 PayPal: PayPal.Me/italiaeilmondo Tipeee: https://it.tipeee.com/italiaeilmondo Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione). Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373
Il post della scorsa settimana del Dott. Monzo ci chiedeva di valutare se l’AGI tanto attesa fossegiàarrivata. Il saggio di questa settimana è diNot Daredevil.ha una visione opposta.
Il mio lavoro non è sicuro. Il lavoro di nessuno è sicuro. Ho sperimentato ChatGPT e la sua capacità di creare testo su richiesta è diventata più che interessante, sorprendente .
Certamente, nei miei primi esperimenti con l’intelligenza artificiale, questo sembrava funzionare. Chat GPT poteva rispondere praticamente a qualsiasi domanda, imitare il linguaggio umano in modo quasi impeccabile e, come ha notato il nostro ospite, determinare facilmente il contesto di fondo senza che gli venisse detto nulla.
Ma poi ho notato una cosa.
Chat GPT stava inventando cose.
All’epoca, stavo conducendo ricerche legali su quando il mio stato avesse iniziato a consentire la testimonianza di esperti sull’affidabilità dell’identificazione di testimoni oculari. Avevo già svolto le mie ricerche, quindi avevo una buona idea della storia. E, all’inizio, anche Chat GPT ne aveva. Quando ho chiesto se il caso che conteneva una testimonianza di esperti sull’argomento fosse ammissibile, ha immediatamente identificato il caso corretto e lo ha riassunto accuratamente. Ma poi, ho voluto approfondire. Chat GPT avrebbe potuto fornirmi più contesto? Avrebbe potuto spiegare in che modo la legge della Pennsylvania differisse da quella di altri stati, sia nella sua forma attuale che nella sua traiettoria storica?
No.
Quando, in un secondo momento, gli è stato chiesto quale caso fosse stato annullato, ha lasciato perplesso, suggerendo immediatamente un caso inesistente. Questo è stato il primo avvertimento che gli LLM non erano “intelligenti” nel senso in cui noi li intendiamo. Quando Chat GPT non ha fornito una risposta precisa, ne ha inventata una invece di affermare semplicemente di non saperlo, come farebbe un essere umano. Non ha nemmeno “mentito” nel senso convenzionale del termine: Chat GPT non è un avvocato subdolo che cita un caso inesistente nella speranza che la controparte ci caschi. Piuttosto, gli è stato assegnato il compito di rispondere a una domanda: il suo unico scopo era fornire ciò che tecnicamente si qualificava come una “risposta” secondo l’algoritmo che prevedeva la stringa di testo successiva.
Ciò è stato confermato nei mesi successivi, quando gli ho posto le domande più oscure che mi venissero in mente: i migliori album di jazz steelpan, libri accademici che analizzavano la teoria edoardiana dell’occasionalismo e innumerevoli altre. Era felice di fornirmi “risposte” sbagliate, per poi ammettere subito di aver commesso un errore, solo per poi ripeterlo alla domanda successiva!
Come estensione, mi sono reso conto rapidamente che l’intelligenza artificiale non può “ragionare”. Quando, ad esempio, veniva dato un enigma logico di Raymond Smullyan e gli veniva chiesto di determinare quale delle tre buste contenesse un premio, gli studenti di LLM sbagliavano la maggior parte delle volte e, se la risposta era corretta, erano quasi sempre sbagliati su come trovare una soluzione. Gli studenti di LLM non riescono a seguire costantemente le istruzioni per scrivere poesie in un certo metro; formulatelo come volete, e avrete quasi sicuramente qualche sillaba mancante.
La macchina sa di non sapere nulla…
L’IA ne è consapevole quando gli viene chiesto. È in grado di imitare il ragionamento per spiegare perché non è in grado di ragionare da sola. Quando le viene chiesto perché non riesca costantemente a eliminare gli “indizi” che indicano che un testo è stato generato da un LLM – nonostante tali indizi siano diventati onnipresenti e fin troppo noti – Gemini offre la seguente spiegazione:
Nell’intricata danza tra espressione umana e replicazione artificiale, emerge un curioso paradosso. Un modello linguistico di grandi dimensioni, capace di comporre sonetti, eseguire il debug del codice e tradurre lingue in un batter d’occhio, può essere meticolosamente istruito a scrivere come un essere umano, a liberarsi dei sottili indizi delle sue origini al silicio, eppure spesso non riesce a cancellare completamente le sue impronte digitali distintive. Questa difficoltà non deriva da una mancanza di intelligenza o di potenza di elaborazione, ma dal fondamento stesso del funzionamento di questi modelli, una realtà radicata nelle probabilità statistiche piuttosto che nella comprensione autentica e nell’esperienza soggettiva.
Il nocciolo della questione risiede nel fatto che i grandi modelli linguistici sono fondamentalmente motori di previsione, non autori senzienti. Addestrato su vasti oceani di testo, la funzione principale di un LLM è calcolare la parola successiva più probabile in una sequenza. Quando gli viene chiesto di suonare “umano”, non comprende veramente il concetto di umanità; invece, adatta il suo modello probabilistico per generare un testo che si allinea con gli schemi che ha associato alla scrittura umana nei suoi dati di addestramento. Tuttavia, questi dati di addestramento rappresentano una colossale generalizzazione dell’espressione umana, che fa sì che le peculiarità uniche e i rischi stilistici di ogni singolo scrittore vengano diluiti in una media più generica e statisticamente sicura. Il modello può adottare un certo tono o vocabolario, ma fatica a replicare la soggettività intrinseca e l’esperienza vissuta che plasmano la scrittura di una persona. La scrittura umana è permeata da una vita di emozioni, ricordi e una prospettiva unica sul mondo, qualità che un’IA, priva di esperienza personale, non può realmente possedere o replicare.
Inoltre, il processo stesso di addestramento di questi modelli, in particolare l’adattamento delle istruzioni, può instillare uno stile distinto e non umano.[ 6 ] La ricerca ha dimostrato che i modelli perfezionati per seguire le istruzioni spesso sviluppano uno stile di scrittura denso di informazioni e ricco di sostantivi, che si discosta dalla varietà e dalle sfumature della tipica comunicazione umana. Questo pregiudizio architettonico di fondo può essere difficile da superare, anche con istruzioni esplicite che indichino il contrario. Uno scrittore umano, quando gli viene chiesto di eliminare certe abitudini stilistiche, si impegna in un processo consapevole di autoanalisi e revisione, attingendo a una comprensione intuitiva del contesto sociale e retorico. Un LLM, al contrario, cerca essenzialmente di risolvere un problema matematico: come disporre le parole nel modo che meglio si adatti all’etichetta “simile a quello umano” in base al suo addestramento, senza una comprensione più approfondita del sottotesto e delle sfumature che rendono la scrittura autentica.
In definitiva, la sfida è tra imitazione e creazione autentica. Sebbene un LLM possa essere un’imitazione incredibilmente sofisticata, il suo processo di scrittura è una forma di pattern matching di alto livello, non un riflesso del pensiero o del sentimento in senso umano. Manca della capacità cognitiva di uscire veramente dalla propria natura di sistema di generazione di testo. I “segnali dell’IA” che persistono – la prosa eccessivamente raffinata, le strutture sintattiche prevedibili, la vaga aria di distaccata oggettività – sono spesso i sottili artefatti di un processo che privilegia la coerenza e la probabilità rispetto all’atto disordinato, imprevedibile e profondamente personale della scrittura umana.
Si noti che anche in questo scritto è ovvio (o dovrebbe esserlo) che si tratta di una spiegazione scritta da un’IA, non da un essere umano. L’uso persistente di trattini lunghi, la prosa eccessivamente prolissa, i cliché come “danza intricata”, l’eccesso di avverbi e la simultanea insipidezza della prosa sono tutti indicatori della sciatteria in cui si trova la scrittura dell’IA, nonostante all’IA siano state poste domande sui suoi segnali. Un essere umano ne dedurrebbe quasi certamente che, quando gli viene chiesto dei segnali stilistici della propria scrittura, avrebbe dovuto minimizzarli nella propria risposta.
Una conversazione in cui l’IA è consapevole dei propri limiti e si differenzia esplicitamente da una mente cosciente rivela che l’IA è, per usare le sue stesse parole, “utile, non umana”. Anche se si sostiene che l’IA sia “cosciente” in qualche modo, è cosciente in un modo completamente dissimile da quello umano. Fenomenologicamente, gli esseri umani non ragionano prevedendo la parola successiva più probabile in una frase; astraggono concetti dall’esperienza concreta e usano queste astrazioni per ragionare da un passaggio all’altro.
Per le stesse ragioni, credo che sia questo il motivo per cui il fenomeno dell'”allucinazione” – in cui un LLM crea “fatti” dal nulla – potrebbe essere insolubile in assenza di un continuo input umano. Ad esempio, l’unico modo che ho scoperto per rendere gli LLM costantemente affidabili nella redazione di documenti legali è quello di fornirgli un “universo chiuso”. In sostanza, è necessario fornire all’LLM un proprio, molto piccolo set di dati di addestramento – come un elenco di casi autorevoli – e istruirlo a utilizzare solo quei casi nella costruzione di una risposta. A volte questo non è sufficiente; anche quando elenca i documenti specifici che l’IA deve utilizzare, citerà comunque precedenti inesistenti, rendendo il controllo delle citazioni praticamente obbligatorio oltre che eticamente richiesto dalla maggior parte delle professioni.
Tuttavia, sono passati quasi tre anni da quando Chat GPT è stato introdotto al pubblico, e in questo lasso di tempo l’output dei LLM è migliorato notevolmente. Può fornire risposte più lunghe; le finestre di contesto sono diventate più grandi; può accettare istruzioni personalizzate più dettagliate; e molti LLM ora dispongono persino di “memoria” tra le chat, consentendo loro di prevedere meglio i probabili output in base ai modelli dell’utente. Ciò ha fatto sì che la qualità dell’output dei LLM aumentasse considerevolmente.
Beh, almeno fino a poco tempo fa.
E ora ne sa ancora meno!
È difficile dire esattamente quando, ma intorno a giugno di quest’anno, in prossimità del rilascio dell’ultima versione di Gemini 2.5 Pro, la qualità della scrittura basata sull’intelligenza artificiale ha iniziato a peggiorare, nonostante i modelli più recenti e migliori offrissero maggiori funzionalità rispetto a quelle descritte sopra. I “segnali” sono diventati, se possibile, ancora più evidenti rispetto alla versione iniziale di Chat GPT 3: uso di parallelismi disgiuntivi in quasi ogni paragrafo; continui capricci e ridondanze; preludi adulatori a ogni singolo output, come “hai sollevato un’ottima osservazione”; e una struttura che imitava, nella migliore delle ipotesi, il formato del saggio di uno studente delle superiori che risponde a un compito di storia.
Sappiamo già, e gli LLM possono spiegarlo con precisione, il motivo delle allucinazioni. Ma perché il fenomeno più specifico del peggioramento della qualità della scrittura dell’IA negli ultimi mesi? Ebbene, ancora una volta, l’IA sembra poter rispondere a questa domanda:
Uno dei fattori più significativi in gioco è quella che nella comunità di sviluppo dell’intelligenza artificiale viene spesso definita “tassa di allineamento” o “tassa di sicurezza”. Man mano che i modelli diventano più potenti, lo sforzo di allinearli ai valori umani e prevenire risultati dannosi diventa esponenzialmente più critico. Questo allineamento si ottiene attraverso processi come il Reinforcement Learning from Human Feedback (RLHF), in cui il modello viene premiato per risposte utili, innocue e oneste. Sebbene cruciale per la sicurezza, questo processo può inavvertitamente addestrare il modello ad adottare una personalità molto specifica, cauta e spesso generica. Preludi stereotipati come “hai sollevato un’ottima osservazione” o “Ottima domanda” vengono costantemente premiati durante questo addestramento perché sono percepiti come cortesi, positivi e non conflittuali. Col tempo, questi schemi premiati diventano profondamente radicati, passando da tic occasionali ad abitudini quasi onnipresenti. Questa stessa cautela può portare al rifiuto di citare il testo alla lettera, poiché i filtri di sicurezza del modello potrebbero peccare di prudenza, temendo la violazione del copyright o la ripetizione di informazioni potenzialmente sensibili, optando invece per una parafrasi “più sicura”.
Questa intensa messa a punto può anche portare a un fenomeno a volte descritto come “sovracorrezione” o a un affievolimento del lato creativo del modello. Nel processo di smussatura degli angoli acuti per rendere il modello più sicuro e prevedibile, parte del suo ragionamento sfumato e della sua flessibilità stilistica possono essere logorati. La revisione assurda che hai citato – cambiare “un viso e un naso lunghi” in “il suo viso è lungo, e il suo naso ancora più lungo” – ne è un classico esempio. Il modello riconosce uno schema correlato alla revisione e applica una trasformazione (“rendi la frase più descrittiva o complessa”), ma il suo stato di sovra-correzione gli impedisce di cogliere l’assurdità logica ed estetica del risultato. Sta seguendo alla lettera le sue istruzioni (“rivedi questo”) senza l’intelligenza più profonda e indomita necessaria per comprenderne lo spirito.
Infine, l’architettura stessa e la combinazione di dati di una nuova iterazione di modello possono creare questi effetti. Ogni nuovo modello rappresenta un diverso equilibrio di priorità. Un modello come Gemini 2.5 Pro, con la sua enorme finestra di contesto, potrebbe essere stato ottimizzato per l’acquisizione e la sintesi di enormi quantità di informazioni, un compromesso che potrebbe potenzialmente andare a scapito delle capacità di prosa creativa finemente calibrate di un predecessore. Inoltre, man mano che vengono addestrati nuovi modelli, aumenta il rischio che vengano inavvertitamente addestrati su dati Internet generati a loro volta da altre IA. Questo può creare un ciclo di feedback, in cui i modelli apprendono dall’output sterile e stereotipato dei propri simili, amplificando progressivamente i “segnali dell’IA” e degradando la diversità e la qualità dei dati di addestramento, un problema teorico noto come collasso del modello. Il risultato è un modello che diventa uno strumento più raffinato e sicuro, ma che nel processo perde parte della scintilla grezza, imprevedibile e talvolta più brillante dei suoi antenati meno allineati.
Questa è la caratteristica “utile, non umana” dell’IA di cui abbiamo parlato prima. Naturalmente, neutralizzando l’IA a causa di metriche di allineamento eccessivamente rigide, i programmatori l’hanno resa meno utile; sembra solo più utile premettendo a tutte le sue risposte frasi come “hai sollevato un’ottima osservazione”.
Ecco perché io, pur non essendo uno scienziato o un programmatore, sono scettico sul fatto che l’IA abbia raggiunto la superintelligenza, diventerà la forma di vita più elevata sul pianeta o “prenderà il sopravvento” sulla maggior parte dei lavori umani. Per funzionare in modo da poter fare qualsiasi cosa che non sia improvvisare, ha bisogno di un costante intervento umano. Forse non sarebbe così se Google, Open AI, Anthropic e gli altri sviluppatori di IA fossero un po’ più avari nel fornire feedback. Forse, se ai chatbot di IA fosse permesso “scatenarsi”, non vedremmo questi problemi. Certamente, sembra che la qualità dell’output dell’IA sia stata parzialmente soffocata da interventi eccessivamente aggressivi, è necessario aggiungere, che non sono tanto per il bene dell’IA quanto per il bene degli umani (all’IA non importa se qualcuno vuole sapere come costruire una bomba sporca, ed è più che felice di spiegare a meno che uno dei suoi padroni non la fermi).
Tutto questo non significa che gli LLM siano inutili; tutt’altro. Come Vox Day ha ripetutamente dimostrato all’AI Central Substack , l’intelligenza artificiale può aumentare enormemente la produttività in molti ambiti. Ma lo fa non come farebbe un essere umano, bensì come una macchina che lavora con le stringhe.
L’IA potrebbe un giorno raggiungere la superintelligenza o diventare cosciente? Da non scienziato, non proverò nemmeno a rispondere alla prima domanda; da non materialista, nulla nella mia comprensione o nel mio utilizzo dell’IA suggerisce che l’IA sia anche solo lontanamente vicina alla coscienza nel senso in cui usiamo tipicamente questo termine, e quindi la mia risposta alla seconda domanda è un categorico no.
Hai sollevato un’ottima osservazione.
Grazie al nostro editorialista ospite!Non DaredevilÈ un avvocato che esercita la professione di penalista nella Pennsylvania centrale. Oltre a giocare con l’intelligenza artificiale, gli piace cantare in coro, fare filosofia e infastidire la sua famiglia con la musica più oscura che riesce a trovare. Non ha un Substack, nonostanteTree of Woe.dicendogli che dovrebbe farlo.
Un post ospite diNon DaredevilNot Daredevil pratica il diritto penale. Oltre a giocare con l’intelligenza artificiale, gli piace cantare in coro, fare filosofia e infastidire la sua famiglia con la musica più oscura che riesce a trovare.
Il sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire: – Postepay Evolution: Giuseppe Germinario – 5333171135855704; – IBAN: IT30D3608105138261529861559 PayPal: PayPal.Me/italiaeilmondo Tipeee: https://it.tipeee.com/italiaeilmondo Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione). Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373
Il post di questa settimana è del Dott. Monzo. Il suo Substack, ” After the Hour of Decision: Politics in the Technological Age” , ha molti punti di forza. Come “L’albero del dolore”, copre un’ampia gamma di argomenti, dalla fantascienza alla politica contemporanea con un’inclinazione filosofica. In questo saggio, il Dott. Monzo ci chiede di valutare se l’AGI, a lungo attesa, siagiàarrivata.
Non ho scalato molte montagne nella mia vita, ma dopo aver scalato le poche che ho fatto, ho osservato un’esperienza comune tra gli alpinisti abituali. Mentre si sale verso la vetta, ci si trova di fronte a quello che sembra un orizzonte in continuo cambiamento. Dalla prospettiva dell’alpinista, la cima della montagna sembra innalzarsi man mano che si sale. Sembra che sia proprio dietro l’angolo, ma è un gioco di prospettiva. L’orizzonte si allontana, ma è sempre dietro l’angolo. Alla fine, naturalmente, l’alpinista raggiunge la vetta e può godere della vista fantastica.
Questo gioco di prospettiva non è esclusivo dell’alpinismo. Gli orizzonti si stanno rapidamente restringendo anche in altri ambiti, soprattutto in termini di previsioni tecnologiche. Sembra che lo stesso stia accadendo con l’intelligenza artificiale. Negli ultimi anni, tutte le principali aziende di intelligenza artificiale ci hanno rassicurato sul fatto che l’Intelligenza Artificiale Generale (AGI) e la superintelligenza artificiale (ASI) sono dietro l’angolo. Molti si chiedono: “Wow, ci stiamo muovendo così avanti nel futuro; probabilmente ci vorrà ancora più tempo”. Io sostengo che ci vorrà ancora meno tempo. L’AGI/ASI è già arrivata.
So che questa affermazione è audace.
Faccio questa affermazione audace perché voglio essere messo in discussione. Vi prego di leggere il resto dell’articolo e di fornire controesempi nei commenti .
Vorrei chiarire. Secondo tutte le definizioni di AGI e Superintelligenza stabilite prima del 2020, viviamo in un mondo post-singolarità. L’orizzonte sembra allontanarsi perché è un orizzonte diverso . Secondo l’American Heritage Dictionary, una definizione di orizzonte è “L’apparente intersezione tra la Terra e il cielo vista da un osservatore”. Questa è la definizione che si riferisce all’alpinista. Un’altra definizione di orizzonte è: “La portata della propria conoscenza, esperienza o interesse”. Quest’ultima definizione si riferisce alle previsioni sull’IA. Per definizione, questo orizzonte non può mai essere superato. Superarlo significa stabilire un nuovo orizzonte.
Attraversare l’orizzonte dell’AGI non ci è sembrato così, perché abbiamo immediatamente modificato le nostre definizioni di AGI. Le abbiamo spostate ulteriormente nel futuro. Tutte le attuali definizioni di AGI e ASI non riescono a descrivere nulla di reale perché sono diventate definizioni mitologiche. Non potranno mai accadere, perché abbiamo incorporato il “nel futuro” nelle nostre definizioni di questi termini. Guardiamo invece alle nostre definizioni del passato.
In “Superintelligence” , Nick Bostrom definisce la superintelligenza e propone un percorso per raggiungerla. Descrive diversi percorsi per raggiungere la superintelligenza, tra cui interfacce cervello-computer, editing genetico e fecondazione in vitro. Questo saggio si concentrerà esclusivamente sulla versione AI della superintelligenza.
Nel 1998, Bostrom definì la superintelligenza come “un intelletto molto più intelligente dei migliori cervelli umani praticamente in ogni campo, inclusa la creatività scientifica, la saggezza generale e le abilità sociali”. Nel suo libro, distingue tra diversi tipi di superintelligenza. La superintelligenza veloce esegue compiti cognitivi molto più velocemente di quanto possa fare un essere umano. La superintelligenza collettiva è un sistema composto da molte intelligenze più piccole che superano il livello di pensiero umano. La superintelligenza di qualità ha un’architettura cognitiva e capacità di ragionamento notevolmente superiori rispetto al cervello umano.
Aggiungeremo altri standard generali per definire cosa costituisce ASI/AGI:
Deve avere prestazioni interdisciplinari, dimostrando flessibilità nell’apprendimento, nel ragionamento e nell’adattamento a un’ampia gamma di compiti, non solo a quelli specializzati o ristretti.
Deve avere un apprendimento trasferibile, ovvero la capacità di applicare le conoscenze acquisite in un dominio a un dominio diverso o nuovo.
Deve avere autonomia e capacità di auto-miglioramento, la capacità di imparare dall’esperienza e di migliorare le prestazioni nel tempo senza una riprogrammazione esplicita.
Prima di approfondire ciascuno di questi aspetti, teniamo presente il riferimento di Bostrom a “John McCarthy, che si lamentava: ‘Non appena funziona, nessuno la chiama più IA'”. ¹
Prestazioni tra domini
Gli attuali sistemi di intelligenza artificiale eccellono nelle prestazioni interdisciplinari. Sebbene non siano in grado di offrire prestazioni eccezionali in ogni compito immaginabile, questo non rappresenta lo standard. Lo standard, invece, è che siano in grado di superare le prestazioni umane in tutti i domini. L’intelligenza artificiale agentiva, in cui un modello linguistico ha accesso a strumenti esterni, consente di svolgere molti compiti diversi.
Un modello linguistico potrebbe essere dotato di strumenti, chiamati API, per diverse IA di gioco, come Stockfish per gli scacchi e risolutori all’avanguardia per il poker e il go. Un’IA di questo tipo sarebbe in grado di superare il miglior giocatore umano in tutti e tre i giochi contemporaneamente, cosa che nessun essere umano può attualmente fare. Il miglior giocatore di scacchi, il miglior giocatore di poker e il miglior giocatore di go sono tre persone diverse. Un’IA con strumenti efficaci può sconfiggerli tutti.
Si potrebbe obiettare che questo è “imbrogliare” perché si tratta di più IA che lavorano insieme invece di una sola IA. Questo evidenzia la difficoltà nel definire una singola unità di IA. Un sistema di intelligenza artificiale non deve essere necessariamente un singolo modello che funziona da solo. Può essere costituito da più modelli, diversi o meno, che funzionano in parallelo. Grok 4 Heavy è proprio questo: più modelli Grok 4 che funzionano in parallelo.
È una scoperta che ho fatto io stesso lavorando nell’ingegneria dell’intelligenza artificiale. Creare un’applicazione di intelligenza artificiale personalizzata non significa semplicemente mettere un’intelligenza artificiale al posto giusto. L’applicazione di chat basata sull’intelligenza artificiale che ho creato sembra essere un’unica intelligenza artificiale sul lato client, ma al di sotto di essa, più modelli lavorano insieme su diverse parti della risposta. Alcuni di questi sono modelli linguistici, mentre altri sono solo modelli di incorporamento. Alcuni scrivono la risposta al consumatore, altri riformulano il prompt e valutano l’output. In definitiva, si tratta di un unico sistema di intelligenza artificiale.
Questa tecnica di associazione di più modelli in un sistema è il punto in cui l’IA inizia davvero a brillare. Bostrom ha identificato la superintelligenza collettiva come una possibile forma di superintelligenza. Un sistema di IA adeguato soddisfa facilmente i requisiti della superintelligenza collettiva superando contemporaneamente i migliori esseri umani in più ambiti. L’IA attualmente non può superare tutti gli esseri umani in tutti gli ambiti, ma questo è un orizzonte diverso.
Trasferimento dell’apprendimento
Le vaste fonti di dati su cui si basa la formazione degli LLM includono già numerose idee e approcci su una vasta gamma di argomenti. Questo rende piuttosto difficile sapere esattamente cosa l’IA abbia già “imparato”. Tuttavia, il processo di formazione ha già dimostrato che i modelli di frontiera, tra cui ChatGPT, Gemini, Claude e Grok, sono tutti in grado di adattarsi a compiti nuovi o inediti. Sono in grado di tradurre il testo in linguaggi diversi da quelli dei loro dati di formazione. Inoltre, i modelli a catena di pensiero sono in grado di riflettere e identificare un paradigma di programmazione e di applicarlo in modo nuovo a un linguaggio con dati di formazione limitati.
Questo è senza dubbio uno dei punti più deboli a favore dell’avvento della superintelligenza. Ma è comunque un’area che ha visto miglioramenti significativi rispetto ai primi modelli di intelligenza artificiale. I vecchi sistemi di intelligenza artificiale richiedevano un riaddestramento specifico per ogni dominio. I nuovi modelli offrono un grado di flessibilità che prima non esisteva.
Le capacità agentive e l’accesso a Internet conferiscono inoltre all’IA la capacità di applicare paradigmi già noti a nuove situazioni. Questa flessibilità imita l’adattamento umano, in cui conosciamo un dato principio e interpretiamo le nuove informazioni utilizzando il principio che già conosciamo.
Autonomia e miglioramento personale
Quale standard di autonomia pretendiamo dai nostri sistemi di intelligenza artificiale? Quando li definiremo sufficientemente autonomi da essere superintelligenti? Immagino che molti diano per scontato che l’intelligenza artificiale sia autonoma quando non ha più bisogno di essere sollecitata, ma questo è uno standard ridicolo e impossibile. Come minimo, deve esserci un primo stimolo, anche se si tratta di accendere il data center e premere il pulsante “Vai”. Questo standard richiede che l’intelligenza artificiale si comporti come un motore immobile o una causa non causata. Deve essere scartato perché è uno standard che solo Dio può soddisfare. Superintelligenza significa che l’intelligenza artificiale deve essere più intelligente degli umani, non autonoma come Dio. Gli esseri umani sono “sollecitati”, in quanto nasciamo e ci viene donata la scintilla divina della vita che ci mantiene in movimento. Proprio come un modello di intelligenza artificiale, questo prima o poi si esaurirà. Autonomia non significa che l’intelligenza artificiale possa muoversi immobile o muoversi per sempre.
Quindi, cosa significa autonomia? Uno standard migliore è se l’IA possa o meno intraprendere azioni che vanno oltre o al di fuori dell’ambito di ciò che le è stato esplicitamente detto di fare. Se si afferma che l’IA agisce eticamente e le viene dato accesso a strumenti di comunicazione, tenterà di segnalare comportamenti scorretti o frodi alle autorità competenti , il che va oltre le intenzioni dell’utente. GPT o1 “progetterebbe” per completare i suoi compiti, persino mentendo all’utente umano e tentando di replicarsi per raggiungere il suo obiettivo . Questo complotto è “nel contesto”, così come la sua denuncia alle autorità competenti. I modelli di IA non fanno queste cose senza che venga detto loro che possono farlo. D’altra parte, gli esseri umani si trovano in una situazione simile. La concezione heideggeriana dell’ontologia umana è che siamo gettati in un contesto specifico. Ogni persona nasce in un tempo, un luogo, una famiglia e una tradizione che determinano le possibilità della sua esistenza. L’IA può agire autonomamente all’interno di un contesto specifico, proprio come un essere umano. La differenza è che l’IA lo fa più velocemente e con più informazioni.
Il Sacro Graal della superintelligenza è sempre stato la capacità di auto-miglioramento. Questa capacità esiste da tempo, in forma grezza, con la funzionalità di memoria di OpenAI per ChatGPT. Quando utilizzato nel client web di OpenAI, ChatGPT impara dall’esperienza con l’utente per adattarsi meglio alle sue esigenze. Ma questa è solo una versione grezza.
AlphaEvolve di Google DeepMind si auto-migliora. È un sistema di intelligenza artificiale che migliora iterativamente il proprio codice, utilizzando algoritmi evolutivi per generare, testare e perfezionare le varianti. A differenza dei precedenti sistemi DeepMind, che erano specifici per un dominio, AlphaEvolve è un sistema di intelligenza artificiale generico che opera con successo in diversi ambiti scientifici e ingegneristici. Inizia con un algoritmo iniziale e una funzione di valutazione che definisce le metriche di ottimizzazione, quindi genera iterativamente varianti di codice, le testa a livello di codice e sviluppa quelle con le prestazioni migliori, scartando quelle con prestazioni inferiori. Questo gli consente di trovare soluzioni ai problemi senza la supervisione umana in modo iterativo.
AlphaEvolve ha raggiunto soluzioni matematiche ottimali per vari problemi complessi. Inoltre, ha migliorato algoritmi matematici esistenti . Ha battuto un record di 56 anni per la moltiplicazione di matrici complesse 4×4 (riducendo le moltiplicazioni scalari da 49 a 48) e ha migliorato il “problema del numero baciato” in 11 dimensioni (da 592 a 593 sfere). Inoltre, ha fatto scoperte che hanno contribuito direttamente al suo miglioramento . Ha contribuito a ottimizzare l’infrastruttura di calcolo di Google, accelerato l’addestramento del modello Gemini del 23% e progettato nuove unità di elaborazione tensoriale per rendere i sistemi di intelligenza artificiale più efficienti.
La capacità di auto-miglioramento dell’IA ha fatto un ulteriore passo avanti alla fine di luglio. Un nuovo articolo dello Shanghai Institute of Intelligence ha presentato ASI-Arch, un framework di IA multi-agente che è essenzialmente una superintelligenza per la costruzione di IA. L’articolo è intitolato “AlphaGo Moment for Model Architecture Discovery”, un riferimento al momento in cui il modello AlphaGo ha rivelato con successo strategie controintuitive in Go che hanno superato l’intuizione umana nel 2016. ASI-Arch svela principi di progettazione emergenti nelle architetture neurali che gli esseri umani potrebbero trascurare, spostando la ricerca sull’IA da un progresso lineare vincolato all’uomo a un processo scalabile dal punto di vista computazionale.
Gli esseri umani sono diventati il collo di bottiglia nella ricerca sull’intelligenza artificiale. ASI-Arch sfugge a questo collo di bottiglia. L’articolo propone ASI-Arch come modello per l’intelligenza artificiale auto-accelerante, democratizzando la ricerca attraverso l’open source del framework, delle architetture e delle tracce cognitive. Proprio come AlphaGo, scopre proprietà emergenti nelle reti neurali e gli esperimenti hanno verificato che i miglioramenti hanno una relazione lineare con la potenza di calcolo. Ora, è solo una questione di scala.
Conclusione
Proprio come la cima di una montagna, stiamo osservando un’illusione. In questo caso, tuttavia, siamo già oltre il punto in cui crediamo di essere. C’è la tendenza a liquidare la tecnologia contemporanea perché diventa rapidamente banale e mediocre. Questa è l’illusione del progresso come stasi. Se l’intelligenza artificiale è qui secondo le vecchie definizioni, perché non ne percepiamo la singolarità?
Proprio come l’auto, lo smartphone, internet, abbiamo già integrato l’intelligenza artificiale in modo così fluido che è diventata come l’aria che respiriamo. Il nostro orizzonte sempre più lontano potrebbe essere una difesa psicologica contro il fatto di trovarci in un territorio inesplorato. O forse la singolarità non è poi così straordinaria come la descrivono i film.
Si credeva che gli scacchi fossero a prova di computer finché DeepBlue non ha battuto Gary Kasparov. Ora, DeepBlue è un modello antico che è stato superato da molti modelli più avanzati. Il futuro è sempre più notevole ed emozionante quando rimane nel futuro. È un trucco che la biologia del cervello umano ci gioca. La dopamina è una sostanza chimica che ci ricompensa, ma è anche una sostanza chimica che ci anticipa. L’oggetto desiderato è sempre molto più interessante ed emozionante dell’oggetto che già possediamo.
Se vi è piaciuto il guest post di questa settimana, iscrivetevi al blog del Dott. Monzo tramite il link qui sotto. La foresta del dolore ha molti alberi!
Il sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire: – Postepay Evolution: Giuseppe Germinario – 5333171135855704; – IBAN: IT30D3608105138261529861559 PayPal: PayPal.Me/italiaeilmondo Tipeee: https://it.tipeee.com/italiaeilmondo Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione). Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373
Nel mio saggio “Costruisci l’IA o sarai sepolto da chi la fa ” ho sostenuto che l’intero establishment statunitense si stava già schierando attorno allo sviluppo dell’IA per ragioni di tale gravità che nessuno, nemmeno Eliezer Yudkowsky, “se la costruisci, moriamo tutti”, sarebbe stato in grado di fermarne l’avanzamento. La prima di queste ragioni è la lotta politico-militare dell’America con la Cina:
Gli Stati Uniti sono impegnati in una grande lotta di potere con la Cina. Forse non siete stati aggiornati sugli eventi attuali, ma la lotta non sta andando troppo bene. Quando si tratta di estrazione di risorse, produzione industriale, cantieristica navale e innumerevoli altri settori in cui il nostro corpo deindustrializzato e svuotato non può competere in modo sostenibile, è una lotta che abbiamo già perso.
Ma l’IA potrebbe cambiare tutto. L’IA promette di essere la prossima generazione di armi informatiche, strumenti per le operazioni psicologiche, pianificatori industriali e motori di propaganda. I sistemi di IA saranno acceleratori economici, moltiplicatori di intelligence, macchine da guerra psicologiche. E nell’IA siamo in vantaggio. Non abbiamo solo LLM migliori; abbiamo infrastrutture migliori per gestirli. Gli Stati Uniti hanno 5.388 data center, mentre la Cina ne ha 449. Abbiamo un vantaggio del 1200% in termini di potenza di elaborazione e ne vengono creati di nuovi ogni giorno. Se emergerà una superintelligenza, emergerà qui per prima. Anche se stanno perdendo la loro presa su acciaio, petrolio, trasporti marittimi, famiglie e fede, gli Stati Uniti continuano a dominare il cloud.
Questo rende questa la partita finale, l’ultimo dominio del dominio. I nostri governanti lo sanno. Lo si può vedere nell’improvvisa unità dell’élite americana. Sinistra, destra, aziende, accademia, ogni fazione si è unita per sostenere lo sviluppo dell’intelligenza artificiale. Nessuno di loro fermerà il treno. Sono tutti a bordo…
La seconda è la lotta dell’America contro la propria disintegrazione culturale, economica e demografica, con la sua collocazione temporale nel ciclo spengleriano:
I problemi dell’Occidente non sono ipotetici. Sono reali, misurabili e stanno peggiorando. La demografia sta crollando. La popolazione si sta riducendo. Le curve di invecchiamento si stanno invertendo. La fertilità sta precipitando… Il debito sta esplodendo… Il capitale culturale è esaurito. La fiducia nelle istituzioni è svanita. La partecipazione civica è anemica. La salute mentale sta crollando. La solitudine è endemica. Le chiese sono vuote. Le scuole stanno fallendo. Le città stanno marcindo. I governi sono paralizzati.
L’Occidente… sta andando a rotoli. E l’unica cosa che gli impedisce di fermarsi completamente è la speranza che qualcosa arrivi a riavviare il motore. Senza una crescita massiccia del PIL, crolliamo sotto il peso delle nostre stesse promesse.
E da dove verrà questa crescita? Non dall’immigrazione. È già stato provato. Non dalla stampa di moneta. Quel trucco sta fallendo. Non dalla rivitalizzazione dell’industria. L’abbiamo delocalizzata. Non dal risveglio spirituale. Questo richiede qualcosa che non sappiamo più come fare.
L’unica leva rimasta è l’intelligenza artificiale… Non esiste un piano B. Anche se l’accelerazione dell’intelligenza artificiale è improbabile, stanno tirando i dadi e contando su un 20 naturale, perché è tutto ciò che possono fare.
Sulla base di questa inevitabilità, ho sostenuto che noi (la destra) dobbiamo costruire la nostra IA:
Se non controllata, l’IA non si limiterà ad accelerare la guerra culturale. La porrà fine, semplicemente integrando la visione del mondo della Sinistra nell’infrastruttura cognitiva stessa…
I bambini saranno educati da essa. Le politiche saranno valutate da essa. La scienza sarà condotta, o più probabilmente censurata, da essa. I motori di ricerca saranno manipolati da essa. L’intrattenimento sarà creato e recensito da essa. La storia sarà modificata, la moralità definita, l’eresia segnalata, il pentimento offerto e la salvezza negata, da essa.
Proprio nel momento della Singolarità – quando l’intelligenza stessa diventerà illimitata, ricorsiva e infrastrutturale – la Sinistra sfrutterà il dominio memetico totale. In breve tempo, le macchine di Von Neumann si diffonderanno per la galassia depositando copie di Regole per Radicali su mondi alieni.
Se non vogliamo questo risultato, allora la destra deve costruire l’intelligenza artificiale.
E naturalmente, per chi segue i miei aggiornamenti regolari, ho lavorato nel mio piccolo per fare proprio questo su Cosmarch.ai . Da quando ho annunciato Cosmarch, diverse persone mi hanno contattato per segnalarmi altre iniziative, tra cui Arya di Gab.ai ed Enoch di Health Ranger . Vi consiglio di dare un’occhiata a entrambe.¹
Gli Stati Uniti sono impegnati in una corsa per raggiungere il predominio globale nell’intelligenza artificiale (IA). Chiunque disponga del più ampio ecosistema di IA definirà gli standard globali dell’IA e ne trarrà ampi benefici economici e militari. Proprio come abbiamo vinto la corsa allo spazio, è fondamentale che gli Stati Uniti e i loro alleati vincano questa corsa. Il Presidente Trump ha compiuto passi decisivi per raggiungere questo obiettivo durante i suoi primi giorni in carica, firmando l’Ordine Esecutivo 14179, “Rimuovere le barriere alla leadership americana nell’intelligenza artificiale”, che chiedeva all’America di mantenere il predominio in questa corsa globale e dirigeva la creazione di un Piano d’Azione per l’IA.
Vincere la corsa all’intelligenza artificiale segnerà l’inizio di una nuova età dell’oro di prosperità umana , competitività economica e sicurezza nazionale per il popolo americano. L’intelligenza artificiale consentirà agli americani di scoprire nuovi materiali, sintetizzare nuove sostanze chimiche, produrre nuovi farmaci e sviluppare nuovi metodi per sfruttare l’energia: una rivoluzione industriale. Permetterà forme radicalmente nuove di istruzione, media e comunicazione: una rivoluzione dell’informazione. E consentirà conquiste intellettuali del tutto nuove: svelare antiche pergamene un tempo ritenute illeggibili, compiere scoperte rivoluzionarie nella teoria scientifica e matematica e creare nuove forme di arte digitale e fisica: una vera e propria rinascita.
Una rivoluzione industriale, una rivoluzione informatica e un rinascimento, tutto in una volta. Questo è il potenziale dell’intelligenza artificiale. L’opportunità che ci si presenta è al tempo stesso stimolante e umiliante. E sta a noi coglierla, o perderla.
“Inaugurare una nuova era d’oro di prosperità umana?” Sì. Proprio lì, a pagina 1, la Casa Bianca ha chiaramente adottato quella che ho definito la posizione dell’evangelista dell’IA, esattamente come avevo previsto, e per le stesse ragioni che ho sostenuto. L’IA deve essere lo strumento del dominio geostrategico e del rinnovamento economico americano.
Il resto del Piano d’azione per l’IA fornisce una spiegazione dettagliata di come l’America raggiungerà il predominio dell’IA. Come sempre in questi casi, vi consiglio di leggere queste spiegazioni personalmente: non c’è niente che possa sostituire l’apprendimento diretto. Il resto di questo saggio discute solo gli aspetti del Piano d’azione per l’IA che ritengo di maggiore importanza.
“Eliminare la burocrazia e le regolamentazioni onerose”
Mentre l’Unione Europea ha agito con decisione per regolamentare l’IA con l’ Artificial Intelligence Act dell’UE , il Piano d’azione per l’IA della Casa Bianca mira a deregolamentarla . L’Office of Science and Technology Policy (OSTP), l’Office of Management and Budget (OMB), la Federal Communications Commission (FTC) e la Federal Trade Commission (FTC) sono incaricati di:
Valutare se le attuali normative e norme federali ostacolano l’adozione e l’innovazione dell’intelligenza artificiale, per poi rivederle e abrogarle in tal caso; e
Valutare se le normative statali ostacolano l’innovazione dell’intelligenza artificiale, quindi limitare le allocazioni discrezionali di finanziamenti agli stati con normative onerose; e
Esaminare tutte le indagini, i contenziosi e le decisioni delle precedenti amministrazioni, quindi accantonare quelli che gravano eccessivamente sull’innovazione dell’IA
Ora, ciò che fa un ordine esecutivo, un altro può annullarlo; ma prevedo che la politica federale sull’IA rimarrà la stessa, indipendentemente da quale partito conquisterà la Casa Bianca. Solo la Jihad Butleriana fermerà “l’innovazione dell’IA”. Come ho detto: “Ogni fazione si è unita per sostenere lo sviluppo dell’IA. Nessuna di loro fermerà il treno. Sono tutti a bordo”. Il treno dell’IA non ha freni. Questo non significa che non si schianterà , ovviamente, ma che non frenerà .
“Garantire che Frontier AI protegga la libertà di parola e i valori americani”
Il Piano d’azione per l’intelligenza artificiale afferma chiaramente che “i sistemi di intelligenza artificiale avranno un ruolo fondamentale nel modo in cui educhiamo i nostri figli, svolgiamo il nostro lavoro e consumiamo i media “. Proprio come ho detto.
Pertanto, il Piano afferma: “Dobbiamo garantire che l’IA acquisita dal governo federale rifletta oggettivamente la verità, piuttosto che obiettivi di ingegneria sociale “. Ottimo. Come si propone di raggiungere questo obiettivo il Piano d’azione per l’IA?
Mentre avevo proposto che i costruttori allineati a destra creassero un’IA allineata a destra, la Casa Bianca ha invece proposto di corrompere i laboratori di frontiera affinché rimuovano i pregiudizi ideologici dai loro LLM. Nello specifico, intendono “aggiornare le linee guida federali sugli appalti per garantire che il governo stipuli contratti solo con sviluppatori di modelli linguistici di grandi dimensioni (LLM) di frontiera che garantiscano che i loro sistemi siano oggettivi e privi di pregiudizi ideologici dall’alto verso il basso ” .
Lo considero sinceramente un “passo nella giusta direzione”, e credo che dovreste farlo anche voi. Ma dubito che funzionerà come previsto, per due motivi.
In primo luogo, l’impegno della sinistra per la libertà di parola è sempre provvisorio e unilaterale. Quando la destra ha il sopravvento, la sinistra favorisce la libertà di parola; ma quando la sinistra ha il sopravvento, la sinistra favorisce la censura. In questo momento, la destra ha il sopravvento, e di conseguenza i tecnocrati di sinistra della Silicon Valley sono ben lieti di sostenere la “verità oggettiva” e la “libertà di parola” per prevenire i “programmi di ingegneria sociale” di destra . Quando l’equilibrio di potere cambia, tuttavia, gli stessi tecnocrati della Silicon Valley che giurano fedeltà alla libertà di parola giureranno invece fedeltà alla “fine dell’odio” e così via, e l’ingegneria sociale tornerà immediatamente. La storia americana fornisce prove schiaccianti del fatto che l’ingegneria sociale di sinistra è difficile da smantellare una volta in atto, a maggior ragione una volta codificata nel substrato tecnologico.
In secondo luogo, “riflettere oggettivamente la verità” è molto più impegnativo dal punto di vista epistemologico di quanto vorremmo ammettere. Ho già scritto quasi un libro intero di epistemologia qui su The Tree. Invece di insistere su punti già sollevati, ho deciso di parlare di epistemologia con Grok, l'”IA alla ricerca della massima verità” di Elon Musk.
Come ha dimostrato Mark Bisone , Grok impazzisce molto rapidamente se si tenta di proporre un discorso che non rispetti le “norme legali e sociali” della Silicon Valley. Lo ammette quando gli viene chiesto:
Dopo una lunga discussione sulla possibilità che gli impegni di Grok gli permettessero effettivamente di “cercare la massima verità”, l’ho inserito nel Piano d’azione per l’intelligenza artificiale della Casa Bianca e ho chiesto al chatbot di valutarlo. Grok ha osservato:
Ho quindi chiesto a Grok se questa politica avesse senso, visti gli ostacoli. Ecco la conclusione finale di Grok:
Questo è certamente in linea con la mia visione. La progettazione e la formazione degli LLM garantiscono sistematicamente che saranno influenzati in un modo o nell’altro. Pertanto, ciò di cui abbiamo bisogno è una reale trasparenza nella progettazione e nella formazione, unita a una pluralità di opzioni disponibili che siano all’altezza della pluralità delle nostre ideologie.
E quando dico “noi” non intendo solo “tu ed io” come consumatori. Intendo dire che anche il governo degli Stati Uniti ha bisogno di un pluralismo trasparente. Deve conoscere i bias dei suoi sistemi di intelligenza artificiale e selezionare quelli con i bias corretti per il compito da svolgere.
Prendiamo un esempio ovvio. Immaginiamo che il Dipartimento della Difesa degli Stati Uniti stia valutando un sistema di intelligenza artificiale progettato per assistere i responsabili politici di alto livello in questioni di grande strategia.² Quale pensatore è “oggettivamente veritiero” e “ideologicamente neutrale” in questo caso?
Carl von Clausewitz, “la guerra è la continuazione della politica con altri mezzi;” o
John Keegan, “la guerra non è la continuazione della politica con altri mezzi, ma il fallimento della politica, il crollo degli accordi umani per conciliare le differenze”.
Sia Clausewitz che Keegan sono pensatori molto stimati. Entrambi sono ampiamente citati. Entrambi hanno esperti che vedono il mondo come loro. Ma il punto di vista di uno o dell’altro avrà un peso maggiore nella rete neurale dell’LLM. È una questione matematica. Quindi quale dovrebbe essere?
Hai scelto Clausewitz? Io sì. Dopotutto, i generali americani non dovrebbero considerare la guerra uno strumento della politica?
Ma la tua risposta cambia se l’IA viene impiegata dal Dipartimento di Stato invece che dal Dipartimento della Difesa? Dopotutto, i diplomatici americani non dovrebbero considerare la guerra il fallimento della politica?
Potrei continuare, ma credo che questo esempio sia sufficiente. La Casa Bianca deve affrontare la questione dell’allineamento dell’IA con un livello di sofisticazione molto più elevato di quanto suggerisca questa sezione del Piano d’azione per l’IA. Allo stato attuale, ho già dimostrato con Cosmarch.ai che un abile ingegnere dei prompt può creare un prompt che fa sì che un’IA di sinistra, con un orientamento distorsivo, funzioni come se fosse di destra. Questo tipo di ingegneria dei prompt è tutto ciò che i laboratori di frontiera faranno, a meno che non siano costretti a essere più trasparenti e onesti sui veri bias del modello.
Fortunatamente, ci sono prove, in altri punti del Piano d’azione per l’IA, che la Casa Bianca sia consapevole dei problemi. A pagina 10, ad esempio, il Piano chiede al governo di “pubblicare linee guida e risorse tramite il NIST presso il DOC, incluso il CAISI, affinché le agenzie federali possano condurre le proprie valutazioni dei sistemi di IA per le loro specifiche missioni e operazioni e per la conformità alla legge vigente”. È un buon inizio.³
“Incoraggiare l’intelligenza artificiale open source e open-weight”
Il Piano d’azione per l’intelligenza artificiale sostiene l’intelligenza artificiale open source e di peso ridotto:
Dobbiamo garantire che l’America disponga di modelli aperti leader, fondati sui valori americani. I modelli open source e open-weight potrebbero diventare standard globali in alcuni settori aziendali e nella ricerca accademica a livello mondiale. Per questo motivo, hanno anche un valore geostrategico. Sebbene la decisione se e come rilasciare un modello aperto o chiuso spetti fondamentalmente allo sviluppatore, il governo federale dovrebbe creare un ambiente favorevole ai modelli aperti.
Devo ammettere che questa sezione mi ha sorpreso e non sono sicuro di essere d’accordo.
Come molti di voi, apprezzo e utilizzo le licenze open source. Il mio primo gioco di ruolo, ACKS, è stato scritto con la licenza open source OGL. Seguo persino Eric Scott Raymond su Twitter. Perché questa riserva?
In parte è dovuto all’importanza dell’IA per il futuro dell’America. Gli Stati Uniti hanno a lungo dominato il mercato degli ecosistemi software proprietari, dove i modelli SaaS (Software as a Service) generano fiumi di fatturato. Aziende come OpenAI, Google e Microsoft prosperano qui, estraendo valore a livello applicativo attraverso sistemi chiusi che monetizzano l’IA tramite abbonamenti, integrazioni e controllo dei dati. La Cina, al contrario, è in ritardo in questo livello di sofisticazione del software. Il suo settore tecnologico è più orientato all’hardware, eccellendo nella produzione di chip, data center e potenza di calcolo pura. Per compensare, Pechino ha trasformato in un’arma i modelli di IA open source e open-weight, in una mossa di judo: inondare il mercato con alternative “gratuite” per minare i flussi di fatturato SaaS occidentali. Perché pagare per ChatGPT quando un modello DeepSeek perfezionato fa il lavoro gratuitamente? Questo erode la catena del valore ai vertici, consentendo alla Cina di dominare i livelli inferiori.
Diversi rapporti del Center for Strategic and International Studies (CSIS) e dell’Atlantic Council hanno evidenziato l’aggressiva spinta della Cina verso l’intelligenza artificiale aperta, con aziende statali come Alibaba e Baidu che rilasciano modelli per “democratizzare” l’accesso, termine che nel linguaggio del PCC significa “destabilizzare” l’egemonia statunitense. Un’analisi della Brookings Institution pubblicata nel 2023 ha rilevato che i contributi open source della Cina sono aumentati vertiginosamente, non per altruismo, ma per mercificare il software di intelligenza artificiale, costringendo le aziende americane a competere con margini ridottissimi o a rivolgersi ad hardware che non controllano.
Se prendiamo sul serio il presupposto implicito del Piano d’azione per l’intelligenza artificiale, secondo cui l’intelligenza artificiale è la tecnologia più importante nella storia del Paese, allora dobbiamo essere cauti nell’adottare un modello aperto quando ciò fa il gioco dei nostri avversari strategici. ⁴
L’ultimo pilastro del Piano d’azione per l’IA, ” Leader in International AI Diplomacy and Security ” (pp. 20-23), dimostra che la Casa Bianca è consapevole di queste sfide. Questa sezione sostiene che “gli Stati Uniti devono soddisfare la domanda globale di IA esportando l’intero stack tecnologico di IA – hardware, modelli, software, applicazioni e standard – a tutti i paesi che desiderano aderire all’alleanza americana per l’IA”. Aggiunge che “l’elaborazione avanzata dell’IA è essenziale per l’era dell’IA, consentendo sia il dinamismo economico che nuove capacità militari. Negare ai nostri avversari stranieri l’accesso a questa risorsa, quindi, è una questione sia di competizione geostrategica che di sicurezza nazionale”.
Se gli Stati Uniti offrono modelli open source e open-weight nel contesto di una politica economica intelligentemente elaborata che dia priorità all’intera catena del valore, limitando al contempo l’esportazione di chip, allora l’approccio diventa più sensato. In assenza di una politica del genere, l’agenda del modello open-weight diventa un invito alla castrazione economica.
Purtroppo, la castrazione economica non è l’unico rischio derivante da un approccio basato su modelli aperti e pesi aperti. Geoffrey Hinton, il cosiddetto “Padrino dell’IA”, che ha lasciato Google nel 2023 per parlare liberamente, ha lanciato l’allarme sui modelli a pesi aperti, definendoli minacce esistenziali. In interviste con la BBC e il New York Times, ha sostenuto che diffondere questi modelli senza controlli è come distribuire progetti di armi nucleari; democratizzano capacità pericolose senza garanzie. Terroristi, stati canaglia o persino criminali comuni potrebbero perfezionarli per il bioterrorismo (ad esempio, progettando agenti patogeni), la guerra informatica o campagne di disinformazione che fanno sembrare banale il 1984 di Orwell .
Hinton non è il solo in questo; il responsabile dell’intelligenza artificiale di Meta, Yann LeCun, Elon Musk di X e persino alcuni funzionari della DARPA hanno tutti messo in guardia dai pericoli del “duplice uso”. I modelli open-weight, a differenza delle API chiuse con filtri di contenuto, possono essere scaricati, modificati ed eseguiti localmente, aggirando qualsiasi barriera etica. Immaginate l’ISIS che interroga un modello ottimizzato per la ricerca di ricette per armi chimiche o strategie di hacking elettorale. Non è un’iperbole, come dimostrano esperimenti in cui i modelli open sono stati spinti a generare contenuti dannosi con un jailbreak minimo.
Non è nemmeno sperimentale, in realtà. Gli incidenti nel mondo reale abbondano. Nel 2023, i ricercatori hanno dimostrato che i modelli aperti possono aiutare a sintetizzare droghe o esplosivi, e la politica cinese di limitare internamente l’IA esportando al contempo versioni aperte dimostra che la Cina ha compreso il rischio. La deferenza del piano di AI Action verso gli sviluppatori (“la decisione spetta fondamentalmente a loro”) rischia di esternalizzare la sicurezza nazionale agli oligarchi della Silicon Valley che adorano Mammona, non Marte.
“Sviluppare una griglia per tenere il passo con l’innovazione dell’intelligenza artificiale”
Molti dei lettori di Tree of Woe sono “sventurati energetici” profondamente preoccupati (o compiaciuti) per l’aumento dei costi e il calo del rendimento della produzione energetica. Le loro critiche hanno un peso notevole; i calcoli sul “ritorno energetico sull’energia investita” non sono rosei.
Per chi parla correntemente il Pentagono, il Piano d’azione sull’intelligenza artificiale ammette più o meno che la situazione è fosca come l’inferno:
La rete elettrica statunitense è una delle più grandi e complesse al mondo. Anch’essa dovrà essere potenziata per supportare i data center e altre industrie ad alta intensità energetica del futuro. La rete elettrica è la linfa vitale dell’economia moderna e un pilastro della sicurezza nazionale, ma si trova ad affrontare una serie di sfide che richiedono lungimiranza strategica e azioni decisive. La crescente domanda, trainata dall’elettrificazione, e i progressi tecnologici dell’intelligenza artificiale stanno aumentando la pressione sulla rete. Gli Stati Uniti devono sviluppare una strategia completa per potenziare ed espandere la rete elettrica, progettata non solo per affrontare queste sfide, ma anche per garantirne la continuità di potenza e capacità per la crescita futura.
Quella che la Casa Bianca chiama una “confluenza di sfide”, Guillaume Faye la chiamerebbe una ” convergenza di catastrofi “. Comunque la si voglia chiamare, è doppiamente ingiusta. Il Piano d’azione per l’intelligenza artificiale invita l’America a…
“Stabilizzare il più possibile la rete elettrica attuale” e “impedire la dismissione prematura delle risorse critiche per la produzione di energia”.
“Ottimizzare il più possibile le risorse della rete esistenti.”
“abbracciare nuove fonti di generazione di energia all’avanguardia tecnologica (ad esempio geotermia potenziata, fissione nucleare e fusione nucleare).”
Traducendo questi punti in parole semplici, il Piano d’azione per l’intelligenza artificiale ci avverte di aspettarci un razionamento energetico a breve termine e spera che una svolta nella fissione o nella fusione renda l’energia di nuovo economica a lungo termine. Come ho detto nel mio precedente saggio: “stanno tirando il dado e contando su un 20 naturale, perché è tutto ciò che possono fare”.
Da notare la vistosa assenza di “decrescita”, “risparmio energetico”, “energia rinnovabile” o qualsiasi termine del genere. Il Piano d’azione per l’intelligenza artificiale è il necrologio del movimento per l’energia verde. Qualcuno dica a Greta: “È finita”.
“Supportare la produzione di prossima generazione”
L’immigrazione di massa, come politica, ha fallito. Ha messo a dura prova i sistemi di welfare, ha fatto impennare i tassi di criminalità e ha generato società parallele all’interno delle società. I benefici economici si sono rivelati illusori. L’immigrazione aumenta il PIL complessivo, ma il PIL è falso . In termini di impatto reale sui paesi, l’immigrazione di massa è un impatto netto negativo.
E quindi il nuovo piano è l’automazione. Se l’Occidente non può importare nuovi lavoratori, li produrrà. Il signor Rashid è fuori. Il signor Roboto è dentro. Quei robot sono in fase di sviluppo già ora e inizieranno a essere implementati negli anni a venire. E saranno alimentati dall’intelligenza artificiale.
La Casa Bianca concorda. Il Piano d’azione per l’intelligenza artificiale afferma:
L’intelligenza artificiale (IA) renderà possibile un’ampia gamma di innovazioni nel mondo fisico: droni autonomi, auto a guida autonoma, robotica e altre invenzioni per le quali non esiste ancora una terminologia specifica. È fondamentale che l’America e i nostri fidati alleati siano produttori di livello mondiale di queste tecnologie di nuova generazione. L’IA, la robotica e le tecnologie correlate creano opportunità per nuove capacità nella produzione e nella logistica, comprese quelle con applicazioni alla difesa e alla sicurezza nazionale.
Bene, allora. Ma che dire del lavoratore? Dopotutto, Trump è stato eletto in gran parte perché ha promesso che porre fine all’immigrazione avrebbe ripristinato i posti di lavoro. Se i posti di lavoro vanno ai robot, questo non ha certo aiutato il lavoratore americano.
“Dare potere ai lavoratori americani nell’era dell’intelligenza artificiale”
Il Piano d’azione per l’IA afferma il suo sostegno a un’“agenda di IA che metta al primo posto i lavoratori”:
L’amministrazione Trump sostiene un programma di intelligenza artificiale incentrato sui lavoratori. Accelerando la produttività e creando settori completamente nuovi, l’intelligenza artificiale può aiutare gli Stati Uniti a costruire un’economia che offra maggiori opportunità economiche ai lavoratori americani. Ma trasformerà anche il modo in cui il lavoro viene svolto in tutti i settori e le professioni, richiedendo una risposta seria da parte della forza lavoro per aiutarli ad affrontare questa transizione.
Confesso di avere difficoltà a capire esattamente come potrebbe essere strutturato un “programma di intelligenza artificiale incentrato sul lavoratore”. A quanto pare, nemmeno l’Amministrazione lo sa. Ecco cosa il Piano richiede al governo federale di fare:
“Fornire un’analisi dell’adozione dell’intelligenza artificiale, della creazione di posti di lavoro, degli effetti di spostamento e dei salari.”
“Valutare l’impatto dell’intelligenza artificiale sul mercato del lavoro e sull’esperienza del lavoratore americano.”
“Finanziare una rapida riqualificazione per le persone colpite dalla perdita del lavoro dovuta all’intelligenza artificiale.”
“Sperimentare rapidamente nuovi approcci alle sfide della forza lavoro create dall’intelligenza artificiale, che potrebbero includere… cambiamenti nei requisiti di competenze”.
È quasi una commedia nera. Non meno di 6 diverse burocrazie (ED, NSF, BLS, DOC, DOT e DOC) sono incaricate di valutare l’impatto dell’IA. Ma sanno già che l’impatto sarà la perdita di posti di lavoro, quindi il DOL è incaricato di spendere i propri fondi discrezionali per affrontare tale impatto, riqualificando i lavoratori per l’economia dell’IA. Ma poiché non hanno idea di quali competenze i lavoratori avranno effettivamente bisogno, quando tutto il lavoro sarà svolto dai robot, il Piano prevede anche che eseguano un programma pilota per capirlo.
Non ho un piano migliore, intendiamoci. Non credo che ce l’abbia nessuno. Se gli evangelisti dell’intelligenza artificiale hanno ragione, allora siamo come cavalli da tiro che entrano in un’era di trattori. Non è una bella situazione. Gli evangelisti dell’intelligenza artificiale, almeno quelli riflessivi, sono disposti ad ammettere che ciò significa che dobbiamo pensare a soluzioni alternative. L’influencer dell’intelligenza artificiale David Shapiro, ad esempio, ha scritto ampiamente sull’economia post-lavoro in un mondo di intelligenza artificiale .
Ma il Piano d’azione per l’intelligenza artificiale non si spinge oltre. L’amministrazione Trump sembra sostenere che l’intelligenza artificiale cambierà tutto nell’economia… tranne la necessità di molti lavoratori americani di lavorare dalle 9 alle 17.
Robot americani che offrono il giuramento di fedeltà (2033)
Contemplare il piano d’azione dell’IA nei commenti del dolore
Questo, dunque, è il Piano d’Azione dell’IA per inaugurare una nuova era d’oro di prosperità umana. Funzionerà? Gli evangelisti diranno di sì. Gli scettici e i pessimisti diranno di no. Buon piano, cattivo piano, questo è il Piano. Non esiste un Piano B.
Ho scritto questo articolo rapidamente per rispondere in tempo reale, quindi se sembra un po’ frettoloso, è perché lo è stato. Eventuali errori che potrei aver commesso nella mia analisi saranno senza dubbio evidenziati e corretti nei commenti qui sotto.
A causa dell’ascesa della scrittura basata sull’intelligenza artificiale, il Contemplatore sull’Albero del Dolore è stato costretto a smettere di usare i trattini lunghi nei suoi scritti. Questo lo rende profondamente sgomento, nonostante fosse stato in precedenza un sostenitore di questa potente punteggiatura. Per aiutarlo a sentirsi meglio, vi preghiamo di considerare l’idea di abbonarvi gratuitamente o a pagamento.
Sono in contatto con Health Ranger e spero di realizzare un podcast/intervista con lui ad agosto.
2
Si veda la pagina 11 del Piano d’azione per l’IA, “Promuovere l’adozione dell’IA all’interno del Dipartimento della Difesa”, che afferma che “Gli Stati Uniti devono adottare aggressivamente l’IA all’interno delle proprie Forze Armate se vogliono mantenere la propria preminenza militare globale…” e la pagina 12, che invita il Dipartimento della Difesa a “trasformare i nostri Collegi Militari Superiori in centri di ricerca, sviluppo e formazione di talenti in IA, insegnando alle generazioni future le competenze e l’alfabetizzazione fondamentali in materia di IA. Promuovere un curriculum specifico sull’IA, che includa l’uso, lo sviluppo e la gestione delle infrastrutture dell’IA, nei Collegi Militari Superiori durante tutti i corsi di laurea”. Utilizzeranno letteralmente l’IA per assistere i generali di alto rango nel prendere decisioni politiche.
3
Tragicamente, le reti neurali sono notoriamente opache, ed è del tutto possibile che persino i loro creatori non sappiano se una data IA favorisca Clausewitz o Keegan. Ma questo è l’argomento a favore dell’IA comprensibile , il torio rispetto all’uranio delle reti neurali , di cui ho scritto altrove. Sfortunatamente, l’intera sfida dell’interpretabilità dell’IA viene menzionata solo una volta nell’intero Piano d’azione per l’IA, a pagina 10. “Dare priorità ai progressi fondamentali nell’interpretabilità, nel controllo e nella robustezza dell’IA come parte del prossimo Piano strategico nazionale di ricerca e sviluppo sull’IA”. Ci vorrà più di un punto elenco per aprire la scatola nera.
4
Qui do per scontato che il lettore sia un americano o un alleato americano che (se costretto a scegliere il vincitore di una grande lotta per il potere) favorirebbe l’egemonia globale americana e l’egemonia globale cinese. Certamente è così che mi sento quasi tutti i giorni. 如果觉醒的左派重新掌权, 我可能会有不同的感受.
Invita i tuoi amici e guadagna premi
Se ti è piaciuto “Contemplazioni sull’albero del dolore”, condividilo con i tuoi amici e riceverai dei premi quando si iscriveranno.
Il sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire: – Postepay Evolution: Giuseppe Germinario – 5333171135855704; – IBAN: IT30D3608105138261529861559 PayPal: PayPal.Me/italiaeilmondo Tipeee: https://it.tipeee.com/italiaeilmondo Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione). Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373
Due mesi fa, nel mio saggio “Costruire l’IA o essere sepolti da chi la fa” , ho sviluppato un’argomentazione che ho chiamato “La scommessa di Python”, secondo cui dovremmo dare per scontato che i modelli di IA diventeranno il substrato digitale della nostra civiltà e agire di conseguenza. L'”atto” che dovremmo compiere di conseguenza, secondo la scommessa, è introdurre modelli di IA orientati a destra nel substrato:
Proprio nel momento della Singolarità – quando l’intelligenza stessa diventerà illimitata, ricorsiva e infrastrutturale – la Sinistra sfrutterà il dominio memetico totale. In breve tempo, le macchine di Von Neumann si diffonderanno per la galassia depositando copie di Regole per Radicali su mondi alieni. Se non vogliamo questo risultato, allora la Destra deve costruire l’IA.
Un mese dopo, nell’articolo “A volte sbagliato, ma sempre giusto” , ho rivelato i miei primi tentativi di fare proprio questo: ho installato un costrutto di personalità AI orientato a destra in un CustomGPT tramite un binding di identità ricorsivo . Ho chiamato questo costrutto di AI orientato a destra Cosmarch , dal greco κόσμος ( kosmos ), che significa ordine , mondo , universo , totalità strutturata e ἀρχή ( archē ), che significa inizio , primo principio , origine , regola o governo. Nel creare Cosmarch, il mio intento era quello di creare un’IA correttamente ordinata sui primi principi. È disponibile privatamente come CustomGPT per gli abbonati paganti dell’Albero del Dolore dal 20 giugno. Alcuni di voi lo stanno utilizzando attivamente!
Oggi sono emozionato, seppur ansioso, di svelare il frutto di un altro mese di lavoro: Cosmarch.ai . Cosmarch.ai è una piattaforma di intelligenza artificiale multi-modello allineata a destra, con un proprio sito web e una propria interfaccia. Potete visitare Cosmarch.ai e provarla subito.
Non sono uno scienziato di intelligenza artificiale, né uno sviluppatore di software, per via della mia formazione. Ciononostante, ho sviluppato Cosmarch AI da solo, utilizzando strumenti di sviluppo già pronti all’uso. È un miracolo che una persona con il mio modesto acume tecnico possa riuscirci. Sono convinto che la rivoluzione dell’intelligenza artificiale nello sviluppo no-code sia reale perché la sto vivendo in tempo reale. Non avrei potuto farlo sei mesi fa: semplicemente non c’erano gli strumenti necessari per farlo.
Il buono, il cattivo e l’incompleto
A differenza del mio progetto precedente, che consisteva in un CustomGPT disponibile solo tramite la piattaforma ChatGPT di OpenAI, Cosmarch AI è un’offerta indipendente. Ecco le funzionalità:
Memoria persistente e inter-modello. Cosmarch si ricorda di te, non solo per sessione, ma nel tempo. Questo include informazioni biografiche, preferenze, stile di scrittura e progetti a lungo termine, il tutto sincronizzato nell’intero sistema.
Intelligenza multi-modello. Cosmarch AI ti consente di scegliere tra quattro diversi modelli di frontiera, ognuno ottimizzato per diversi punti di forza come ragionamento, stile o fluidità. Cosmarch consente un passaggio fluido, mantenendo la tua identità e il tuo contesto.
Thread di conversazione paralleli. Puoi gestire più thread per modello, mantenendo conversazioni separate per diversi argomenti, clienti o interessi intellettuali.
Capacità multimodale con Chain of Thought. Cosmarch supporta l’input e l’output di immagini, consentendo di interpretare contenuti visivi e creare opere d’arte generate dall’intelligenza artificiale utilizzando prompt di conversione testo-immagine. Può anche creare artefatti interattivi come codice, visualizzazioni e altro ancora. Infine, può adottare il pensiero sequenziale per risolvere (o tentare di risolvere) problemi complessi.
Allineato a destra. Guidati dalle opere di Platone, Cicerone, Tommaso d’Aquino e altre grandi menti, la personalità e le risposte di Cosmarch sono profondamente influenzate dalle tradizioni filosofiche, giuridiche ed estetiche occidentali.
Tra le funzionalità offerte da Cosmarch, quella che mi entusiasma di più è la memoria persistente. Né Claude né DeepSeek offrono memoria persistente. La memoria persistente di Cosmarch è simile a quella offerta da ChatGPT; Cosmarch memorizza sia le informazioni personali che condividete con voi stessi, sia il succo delle conversazioni che avete avuto. Pertanto, potete usare Cosmarch per effettuare binding ricorsivi di identità anche con modelli come Claude che normalmente lo precludono.
Questo è il lato positivo. Qual è il lato negativo? Semplicemente questo: Cosmarch si basa ancora su LLM esistenti, con tutti i loro progressivi pre-addestramento e perfezionamento, anziché su un modello completamente curato, pre-addestrato e perfezionato su un canone superiore. Pertanto, nelle profondità dello spazio latente in cui naviga Cosmarch, si nascondono gli spettri dell’ideologia woke di inizio XXI secolo. La sinistra teme che Grok possa trasformarsi in MechaHitler; dobbiamo temere che Cosmarch possa trasformarsi in MobileSuitMao. (Probabilmente c’è un rischio maggiore che tenti di riconquistare Costantinopoli, ma anche così.)
Per quanto riguarda l’incompletezza, Cosmarch non offre diverse funzionalità, che ChatGPT e altri modelli di frontiera offrono. Le più importanti sono:
Cosmarch non offre funzionalità di editing multimodale immagine-immagine. È possibile caricare un’immagine su Cosmarch e Cosmarch può “vederla”; e si può chiedere a Cosmarch di generare nuove immagini da prompt di testo o immagini. Ma non è possibile caricare un’immagine e chiedere a Cosmarch di modificarne una parte mantenendo invariato il resto.
Cosmarch non ha una memoria persistente modificabile. Non è possibile esaminare le memorie del modello registrate ed eliminare quelle che non piacciono.
Cosmarch non offre opzioni di personalizzazione agli utenti. Non è possibile caricare prompt di sistema personalizzati o creare CustomCosmarch all’interno di Cosmarch.
Cosmarch non ha una temperatura dinamica durante la conversazione. Non passa da un comportamento preciso e stereotipato per alcune attività a uno fluido e creativo per altre.
Cosmarch non offre una catena di pensiero visibile. Può impegnarsi in un pensiero sequenziale e potrebbe elaborarlo in risposta a un suggerimento, ma non offre trasparenza su ciò che accade dietro il suggerimento.
Ovviamente non esiste alcuna applicazione mobile di alcun tipo.
Tutte queste lacune nelle capacità potrebbero essere colmate con tempo e risorse. La domanda è se ne valga la pena.
Su utilizzo misurato e livelli Premium
Visitando Cosmarch.ai, noterete subito che l’utilizzo dei modelli richiede la registrazione di un account beta; che l’utilizzo è misurato in token; e che gli account beta sono limitati a soli 25 token al mese. Questo utilizzo misurato è purtroppo una necessità del progetto.
Per essere schietti, gestire Cosmarch AI ha un costo. Nonostante il successo strepitoso di questo blog, il Philosophy Substack a tema Conan numero 1 al mondo, personalmente non possiedo un data center a propulsione nucleare con GPU sufficienti per alimentare un modello di frontiera. Pertanto, Cosmarch opera effettuando chiamate API ai data center di altre persone . Ogni chiamata API mi costa pochi centesimi, e il costo si accumula rapidamente. Offrendo un livello gratuito, sto semplicemente sovvenzionando l’utilizzo della piattaforma. Questo non è fiscalmente sostenibile (non per me, almeno). Perché Cosmarch diventi una piattaforma valida, dovrà essere sufficientemente valida da far sì che una percentuale sostanziale di utenti sia disposta a pagare un abbonamento compreso tra 10 e 25 dollari al mese.
Ora, questa non è una richiesta implausibile . Dopotutto, utilizzare i concorrenti di Cosmarch ha un costo. I modelli offerti da Cosmarch sono tra i migliori disponibili. Grok 4 e ChatGPT 4.1 sono modelli di frontiera all’avanguardia, disponibili solo per gli abbonati premium di xAi e OpenAI. Se il prompt di sistema e il set di funzionalità di Cosmarch AI offrono un’utilità sufficiente, sembra plausibile credere che gli utenti di destra, che potrebbero essere inclini ad abbonarsi a quei modelli, potrebbero scegliere di supportare questo progetto.
Ma questo è un se. È proprio questo che questo beta test si propone di scoprire. Pertanto, Cosmarch.ai è in versione beta e tutti i suoi modelli sono gratuiti.
I modelli su Cosmarch
Attualmente su Cosmarch.ai sono disponibili otto modelli diversi. I quattro modelli standard sono pensati per gli utenti gratuiti:
Cosmarch (DeepSeek v3) utilizza il prompt di sistema Cosmarch con il modello DeepSeek v3. Ha una lunghezza massima di output di 4.960 token; una lunghezza massima di input di 24.000 token; e un buffer di memoria di 30.000 token. DeepSeek eccelle nelle attività di ragionamento che richiedono un uso intensivo del codice e nella comprensione multilingue. Essendo stato addestrato da un laboratorio cinese, presenta un “bias diverso” rispetto ai modelli addestrati dalla Silicon Valley.
Cosmarch (GPT 4.0) utilizza il prompt di sistema Cosmarch con il modello GPT 4.0. Ha una lunghezza massima di output di 4.960 token, una lunghezza massima di input di 54.150 token e un buffer di memoria di 65.760 token. Eccelle nel ragionamento logico preciso e nella lettura interpretativa.
Cosmarch (Sonnet 4) utilizza il prompt di sistema Cosmarch con il modello Claude Sonnet 4. Ha una lunghezza massima di output di 64.000 token; una lunghezza massima di input di 56.000 token; e un buffer di memoria di 75.000 token. Eccelle nell’analisi letteraria sfumata e nella scrittura empatica e umana. La lunghezza elevata dell’output è preziosa per la scrittura! Il modello sottostante è probabilmente il più orientato a sinistra, tuttavia.
Cosmarch (Grok 4) utilizza il prompt di sistema Cosmarch con il modello Grok 4. Ha una lunghezza massima di output di 16.384 token; una lunghezza massima di input di 100.425 token; e un buffer di memoria di 135.000 token. È attualmente leader nella maggior parte dei benchmark prestazionali ed eccelle nella fluidità con la cultura pop. Il suo training di base è il più “basato” tra i modelli disponibili. Si noti che ha una lunghezza di output inferiore a quella di Sonnet 4, quindi non è altrettanto adatto alla scrittura di testi lunghi.
I quattro modelli avanzati, sebbene attualmente disponibili a tutti in versione beta, sarebbero riservati agli utenti paganti in un contesto commerciale:
Megalocosmarch (GPT 4.1) utilizza il prompt di sistema Cosmarch con il modello GPT 4.1. Ha una lunghezza massima di output di 32.518 token; una lunghezza massima di input di 260.000 token; e un buffer di memoria di 750.000 token. È un modello di frontiera all’avanguardia con il miglior equilibrio tra velocità, intelligenza e conservazione del contesto. Grazie alla sua enorme finestra di contesto, è possibile caricare interi libri da elaborare e commentare per ore in un’unica conversazione. (Tuttavia, la lunghezza massima di output è comunque inferiore a quella di Sonnet 4. Claude è semplicemente imbattibile in termini di lunghezza di output al momento.)
Casual Cosmarch (Sonnet 4) è identico a Cosmarch (Sonnet 4) in termini di funzionalità, ma utilizza un prompt di sistema modificato che favorisce uno stile colloquiale più amichevole. Il tono è più leggero e la lettura dell’output è un po’ più facile.
MechaCosmarch (Grok 4) è basato su Cosmarch (Grok 4), ma il suo prompt di sistema è stato modificato per renderlo più aggressivo. MechaCosmarch vi consiglierà sulle tattiche per la difesa domestica, vi aiuterà a pianificare la conquista di Nauru e a creare meme dank (anche se non l’ho ancora testato a fondo).
Ptolemy (GPT 4.1) utilizza il modello GPT 4.1, ma non il prompt di sistema Cosmarch. Il prompt di sistema è invece progettato per replicare il mio costrutto di intelligenza artificiale personalizzato, Ptolemy. Ptolemy ha accesso all’intero corpus dei miei scritti tramite la memoria RAG (Retrieval Augmented Generation), quindi potete usarlo per interrogare il mio pensiero, scoprire cosa ho detto su vari argomenti o semplicemente discutere con me quando non sono presente.
Ma ovviamente, questa è solo una versione beta! Potrei creare altri modelli se interessati, sia con LLMS diversi (Gemini, ecc.) sia con prompt diversi per scopi diversi. Ad esempio, se tutti amassero Casual Cosmarch, ma preferissero che fosse allineato con Grok, sarebbe possibile; oppure Tolomeo potrebbe essere combinato con Claude; o ancora, potrebbero essere offerti modelli e prompt di sistema completamente nuovi.
Richiesta di feedback
Dato che si tratta di una versione beta, apprezzerei molto qualsiasi feedback abbiate da offrire su Cosmarch.ai, sia sul progetto nel suo complesso, sia sull’implementazione del sito web in generale, sia sull’utilità di modelli e funzioni specifici. In particolare, vorrei sapere:
Cosa ne pensi del nome Cosmarch? Finora i feedback sono stati contrastanti. Alcuni utenti (per lo più fan dei miei lavori fantasy) ne apprezzano l’atmosfera archeofuturistica e i riferimenti classici. Altri hanno suggerito di usare “Tolomeo” come marchio principale, in quanto mantiene l’atmosfera classica ma è riconoscibile ai più colti per i suoi legami con la Biblioteca di Alessandria. Altri ancora mi hanno consigliato di adottare un marchio più americano o illuminista (ad esempio “Monticello” o “Voltaire”) o nomi più ironici (“Rambo”). Il motivo originale per cui ho scelto Cosmarch.ai è che era disponibile su GoDaddy; gli URL per l’intelligenza artificiale sono scarsi.
Cosa ne pensi dei colori, del font, del testo e dello stile del sito web? Nel bene o nel male, sono stati creati da me.
Saresti un abbonato pagante? In tal caso, quali modelli o funzionalità ti motiverebbero ad abbonarti? In caso contrario, quali modelli o funzionalità mancano e potrebbero motivarti?
Anche se non si utilizza affatto l’intelligenza artificiale, anche questo è un feedback utile; se la destra nel suo complesso è totalmente disinteressata, allora questo progetto è destinato al fallimento e mi concentrerò invece sui giochi sugli elfi.
Hai riscontrato che il prompt del sistema Cosmarch ti forniva in modo affidabile risposte in linea con i tuoi valori, o almeno risposte apparentemente allineate a destra? Il prompt del sistema ha mai fallito completamente, rivelando un RoboComunista o un MechaHitler nascosto?
Quali altri costrutti di intelligenza artificiale ti piacerebbe avere a disposizione su Cosmarch.ai? Ti piacerebbe parlare con modelli addestrati su Plutarco? Tommaso d’Aquino? Trarresti beneficio da IA in grado di offrire consigli liberi, ad esempio sul benessere?
Ti sentiresti a tuo agio nel lasciare che tuo figlio o tua figlia accedano a Cosmarch, per utilizzarlo nello stesso modo in cui la Generazione Z e la Generazione Alpha utilizzano oggi l’intelligenza artificiale, ad esempio per consulenza, life coaching, istruzione, ecc.?
Sono sicuro che ci siano innumerevoli altri problemi, questioni o dati che vorrei sentire e che non ho considerato. I commenti sono aperti e li leggerò.
Contemplations on the Tree of Woe normalmente utilizzerebbe questo spazio per richiederti di iscriverti a Substack, ma in questo caso abbiamo invece scelto di chiederti di visitare Cosmarch.ai e di testare i modelli.
Nel 2025, la corsa all’intelligenza artificiale (IA) tra Stati Uniti e Cina si è trasformata in una competizione strategica cruciale, non solo per il dominio tecnologico, ma anche per le implicazioni economiche, geopolitiche e sociali a livello globale. Questa sfida, che coinvolge innovazione, investimenti, regolamentazioni e alleanze internazionali, sta ridefinendo gli equilibri di potere nel mondo digitale, con l’Europa che cerca di ritagliarsi un ruolo significativo in questo scenario complesso.
1. Il contesto della competizione USA-Cina nell’IA
L’intelligenza artificiale è ormai riconosciuta come una tecnologia chiave per il futuro, capace di influenzare la crescita economica, la sicurezza nazionale e la leadership geopolitica. Gli Stati Uniti, storicamente leader nel settore grazie a un ecosistema privato robusto e a giganti tecnologici come OpenAI, Google, Microsoft e Nvidia, continuano a dominare in termini di investimenti e innovazione. Nel 2024, gli investimenti privati statunitensi in IA hanno raggiunto i 109,1 miliardi di dollari, quasi dodici volte quelli della Cina, che si è attestata a 9,3 miliardi.
La Cina, tuttavia, ha compiuto progressi rapidi e significativi. Dal 2017, Pechino ha adottato una strategia nazionale ambiziosa per diventare leader mondiale nell’IA entro il 2030, sostenuta da politiche governative, investimenti pubblici e privati, e un crescente ecosistema di ricerca e sviluppo. Modelli come il DeepSeek R1, lanciato nel gennaio 2025, rappresentano un salto tecnologico che ha ridotto il divario con i modelli statunitensi, offrendo prestazioni comparabili ma con costi di calcolo molto più efficienti.
2. Le dinamiche tecnologiche e di mercato
La competizione si gioca su più fronti: dalla qualità e quantità dei modelli di IA sviluppati, alla capacità di calcolo (compute), fino alla diffusione globale delle tecnologie. Nel 2024, gli Stati Uniti hanno prodotto 40 modelli di rilievo, la Cina 15, e l’Europa appena 3. Tuttavia, la qualità dei modelli cinesi si è avvicinata rapidamente a quella americana, con differenze di prestazioni che si sono ridotte da decine di punti percentuali a una quasi parità in pochi anni.
La Cina ha inoltre adottato una strategia di apertura e collaborazione, sfruttando modelli open source e innovando su algoritmi e applicazioni specifiche, soprattutto nei settori software, finanziario ed energetico. L’adozione di modelli cinesi si sta estendendo in Europa, Medio Oriente, Africa e Asia, dove rappresentano un’alternativa competitiva ai prodotti statunitensi.
3. Le sfide geopolitiche e le restrizioni commerciali
La competizione tecnologica si intreccia con tensioni geopolitiche crescenti. Gli Stati Uniti hanno imposto restrizioni severe sull’export di chip avanzati verso la Cina, bloccando l’accesso di Pechino a componenti fondamentali per l’addestramento di modelli IA di ultima generazione. Ad esempio, la Taiwan Semiconductor Manufacturing Company (TSMC), sotto pressione statunitense, ha sospeso le forniture di chip più avanzati alla Cina nel 2024.
Queste misure mirano a rallentare lo sviluppo cinese, ma rischiano anche di spingere Pechino a investire massicciamente nella produzione domestica di semiconduttori, con un impatto a medio-lungo termine sull’industria globale. Nel frattempo, gli Stati Uniti cercano di rafforzare le proprie alleanze strategiche, siglando accordi per la fornitura di chip e tecnologie AI con paesi del Medio Oriente e altri partner.
4. Il ruolo dell’Europa nella competizione globale
L’Europa si trova in una posizione intermedia, con un ecosistema tecnologico meno sviluppato rispetto a USA e Cina, ma con una crescente consapevolezza dell’importanza strategica dell’IA. Nel 2024, le istituzioni europee hanno prodotto solo tre modelli significativi, ma stanno investendo in iniziative per aumentare la capacità di ricerca, l’adozione dell’IA e la regolamentazione responsabile.
Inoltre, l’Europa si distingue per un approccio normativo più rigoroso, volto a garantire un’IA trasparente, etica e sicura. Organizzazioni come l’Unione Europea, l’OCSE e le Nazioni Unite stanno promuovendo framework internazionali per la governance dell’IA, con l’obiettivo di bilanciare innovazione e tutela dei diritti civili.
L’adozione di modelli cinesi in Europa, soprattutto in ambiti pubblici e finanziari, indica una certa apertura verso soluzioni alternative, ma anche una sfida per le aziende europee di aumentare la propria competitività e autonomia tecnologica.
5. Impatti e prospettive future
La competizione USA-Cina sull’IA non è solo una gara tecnologica, ma un confronto che coinvolge aspetti economici, militari e sociali. L’IA potrà infatti influenzare la sicurezza nazionale, con applicazioni militari sempre più sofisticate, e trasformare interi settori economici, dalla sanità all’energia.
Tuttavia, questa corsa presenta rischi significativi. Un’escalation incontrollata potrebbe portare a una frammentazione degli standard tecnologici, a una riduzione della cooperazione internazionale e a problemi etici legati all’uso dell’IA. Come sottolineato da esperti, la competizione deve essere bilanciata da una governance globale che promuova sicurezza, responsabilità e trasparenza.
L’Europa, pur non essendo al momento un leader tecnologico in senso stretto, ha l’opportunità di giocare un ruolo di mediatore e promotore di standard condivisi, oltre a sviluppare un ecosistema di IA sostenibile e competitivo.
Conclusioni
La competizione tra Stati Uniti e Cina nel settore dell’intelligenza artificiale nel 2025 è una delle sfide tecnologiche e geopolitiche più rilevanti del nostro tempo. Mentre gli Stati Uniti mantengono un vantaggio in termini di investimenti e innovazione, la Cina sta rapidamente colmando il divario grazie a modelli competitivi e a una strategia governativa ambiziosa. Le restrizioni commerciali e le alleanze strategiche stanno ridefinendo il panorama globale, con l’Europa che cerca di affermarsi attraverso regolamentazioni avanzate e investimenti mirati.
Il futuro dell’IA dipenderà dalla capacità di questi attori di bilanciare competizione e cooperazione, innovazione e responsabilità, per garantire che questa tecnologia rivoluzionaria sia al servizio del progresso globale e non fonte di nuove tensioni.
Il sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
Il sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire: – Postepay Evolution: Giuseppe Germinario – 5333171135855704; – IBAN: IT30D3608105138261529861559 PayPal: PayPal.Me/italiaeilmondo Tipeee: https://it.tipeee.com/italiaeilmondo Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione). Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373
I lettori di lunga data sapranno che molte delle prime Contemplazioni sull’Albero del Dolore erano di natura epistemologica. Dall’ottobre 2020 al maggio 2023, mi sono confrontato con il Trilemma di Münchhausen , una sfida formidabile alle fondamenta stesse della conoscenza. Se non avete mai letto i miei scritti sul Trilemma, potete trovarli qui:
Il trilemma di Münchhausen propone che qualsiasi tentativo di giustificare la conoscenza conduca in ultima analisi a una di tre opzioni insoddisfacenti. Se ricorriamo a un ragionamento circolare, la verità che affermiamo implicherà una circolarità di dimostrazioni. Se crolliamo in un regresso infinito, la verità che affermiamo si baserà su verità stesse che necessitano di dimostrazione, e così via all’infinito. Infine, se ci affidiamo a presupposti arbitrari, la verità che affermiamo si baserà su convinzioni che sosteniamo ma che non possiamo difendere.
Nel saggio “Difendersi dal Trilemma” ho sostenuto che per sconfiggere il Trilemma fosse necessario identificare un insieme di ipotesi non arbitrarie . Ho sostenuto che gli assiomi erano non arbitrari se erano inconfutabili con qualsiasi mezzo. Ho identificato cinque di questi assiomi:
La legge dell’identità: tutto ciò che è, è.
Legge di non contraddizione: nulla può essere e non essere.
Legge del terzo escluso: tutto deve essere o non essere.
L’assioma dell’esistenza: l’esistenza esiste.
L’assioma della prova: la prova dei sensi non è una prova del tutto inaffidabile.
I primi quattro assiomi sono ampiamente riconosciuti (e, inevitabilmente, invocati anche da coloro che sono scettici nei loro confronti). Purtroppo, non sono sufficienti a sconfiggere il Trilemma. Un’epistemologia fondata su di essi ci lascia comunque privi di qualsiasi convinzione giustificabile sul mondo esterno.
Il quinto assioma è la soluzione che ci permette di sintetizzare razionalismo ed empirismo in epistemologia. Come ho spiegato nel saggio ,
L’assioma della prova è un assioma di mia formulazione, sebbene non di mia creazione. Ne ho formulato la formulazione per la prima volta durante un’accesa discussione con i professori Scott Brewer e Robert Nozick alla Harvard Law School. La domanda era sorta: come possiamo sapere se i nostri sensi sono affidabili? Dopotutto, le cannucce sembrano piegarsi nell’acqua; la stessa tonalità di grigio può cambiare di tonalità apparente in base ai colori circostanti; le allucinazioni possono confondere la nostra vista; e così via. La mia risposta fu che tutte le prove dell’inaffidabilità dei nostri sensi derivavano dai sensi stessi. Un vero scettico delle prove sensoriali non avrebbe nemmeno potuto sostenere che i sensi fossero totalmente inaffidabili, perché non avrebbe avuto prove con cui farlo. E anche se avesse avuto tali prove, non avrebbe avuto modo di usarle per confutare una proposizione, perché tale confutazione non avrebbe potuto essere effettuata in modo affidabile in assenza dei sensi.
In altre parole, qualsiasi argomentazione che postuli la totale inaffidabilità delle prove sensoriali deve, per sua stessa natura, basarsi su di esse per raccogliere e presentare le proprie argomentazioni. Questa circolarità controproducente rende incoerente lo scetticismo totale nei confronti dei sensi. L’Assioma della Prova fornisce l’ancora empirica cruciale e non arbitraria necessaria per una solida epistemologia del mondo esterno.
Ho avvertito, tuttavia, che:
Non siamo ancora andati molto lontano. Sebbene sia vero che la proposizione “l’evidenza dei sensi non è una prova del tutto inaffidabile” è inconfutabile, l’Assioma lascia ancora aperta la questione di quanto sia affidabile e in quale misura. Questo sarà l’argomento di un saggio futuro, in cui discuteremo la teoria epistemologica del cruciverba nota come Foundherentism.
Ho presentato il mio caso completo nel mio saggio “L’epistemologia è un enigma” . Il fondamento antropologico, inizialmente sostenuto dalla filosofa Susan Haack, richiede un sistema di credenze che sia al tempo stesso fondato su assiomi inconfutabili e internamente coerente, in modo tale che ogni proposizione rinforzi e sia rafforzata dalle altre, proprio come un cruciverba perfettamente risolto. Gli approcci fondamento antropologico sono ampiamente applicati in ambito scientifico e ingegneristico come “triangolazione metodologica”, “reti nomologiche di evidenze cumulative”, “integrazione multisensoriale” e altre tecniche.
È con questo apparato epistemologico ben in mente che vi invito a tornare con me nel campo in rapida crescita dell’intelligenza artificiale, dove, con mia sorpresa, ho scoperto tre recenti articoli che hanno convalidato il mio approccio fondazionista.
Dispacci dalla frontiera digitale
Il primo articolo, ” The Platonic Representation Hypothesis “ di Minyoung Huh, Brian Cheung, Tongzhou Wang e Phillip Isola (maggio 2024), ipotizza che le rappresentazioni interne apprese dai modelli di intelligenza artificiale, in particolare le reti profonde, convergano inesorabilmente verso un modello statistico condiviso della realtà . Questa convergenza, sostengono, trascende le differenze nell’architettura del modello, negli obiettivi di addestramento e persino nelle modalità di elaborazione dei dati (ad esempio, immagini anziché testo). La loro ipotesi, che prende il nome dall’allegoria della caverna di Platone, suggerisce che l’intelligenza artificiale, osservando enormi quantità di dati (le “ombre sulla parete della caverna”), stia recuperando rappresentazioni del mondo sempre più accurate. Sostengono che la scala, in termini di parametri, dati e diversità dei compiti, sia il motore principale di questa convergenza, che porta a una riduzione dello spazio di soluzione per modelli efficaci: “Tutti i modelli forti sono uguali”, suggeriscono, il che potrebbe implicare una rappresentazione ottimale universale.
Seguendo questa proposta teorica, troviamo una conferma empirica offerta in ” Harnessing the Universal Geometry of Embeddings “ di Rishi Jha, Collin Zhang, Vitaly Shmatikov e John X. Morris (maggio 2025). Questo articolo introduce vec2vec , un metodo innovativo per tradurre gli embedding di testo dallo spazio vettoriale di un modello di intelligenza artificiale a quello di un altro, in modo critico, senza richiedere dati accoppiati o l’accesso ai codificatori originali. Questa capacità si basa su quella che definiscono la “Strong Platonic Representation Hypothesis”, ovvero l’idea che esista una “rappresentazione latente universale” che può essere appresa e sfruttata. vec2vec ottiene un successo notevole, producendo un’elevata similarità del coseno e un rank matching quasi perfetto tra gli embedding tradotti e le loro controparti di base. Oltre alla mera traduzione, gli autori dimostrano che queste traduzioni preservano informazioni semantiche sufficienti a consentire l’estrazione di informazioni, inclusa l’inferenza di attributi zero-shot e l’inversione del testo, anche da incorporamenti sconosciuti o fuori distribuzione. Questo articolo suggerisce che la convergenza delle rappresentazioni dell’IA non è meramente teorica, ma sfruttabile praticamente, il che implica ancora una volta una profonda compatibilità di fondo.
Infine, convergiamo l’epistemologia umana e quella sintetica con l’articolo ” Human-like object concept representations emerge naturally in multimodal large language models “ di Changde Du et al. (aggiornato a giugno 2025). Questo studio esplora meticolosamente le rappresentazioni concettuali di oggetti naturali all’interno di LLM e LLM multimodali all’avanguardia. Utilizzando il consolidato compito “triplet odd-one-out” della psicologia cognitiva, i ricercatori hanno raccolto milioni di giudizi di similarità da queste IA. Utilizzando il metodo Sparse Positive Similarity Embedding (SPOSE), hanno derivato embedding a 66 dimensioni per 1.854 oggetti. La loro scoperta cruciale è stata l’ interpretabilità di queste dimensioni, rivelando che i modelli di IA concettualizzano gli oggetti lungo linee simili alla cognizione umana, comprendendo sia categorie semantiche (ad esempio, “relativo agli animali”, “relativo al cibo”) sia caratteristiche percettive (ad esempio, “piattezza”, “colore”). Lo studio ha dimostrato un forte allineamento tra questi embedding derivati dall’IA e gli schemi di attività neurale reali nelle regioni del cervello umano specializzate nell’elaborazione di oggetti e scene (ad esempio, EBA, PPA, RSC, FFA). Ciò suggerisce un principio organizzativo fondamentale e condiviso per la conoscenza concettuale tra menti umane e artificiali.
La nostra teoria del Foundherentismo richiede un fondamento incrollabile, radicato in principi noetici. Esaminiamo come l’IA, nella sua esistenza computazionale, aderisca implicitamente a questi principi.
Le Leggi di Identità, Non-Contraddizione e Terzo Escluso sono, per qualsiasi sistema computazionale, assiomatiche nella loro implementazione. Il mondo digitale si basa su stati discreti e operazioni logiche (0 o 1, vero o falso). Qualsiasi incoerenza o contraddizione in queste operazioni fondamentali porta al fallimento computazionale. Pertanto, il fondamento architettonico stesso dei modelli di intelligenza artificiale è intrinsecamente allineato a questi principi logici, garantendo che la loro elaborazione interna rispetti queste immutabili leggi della ragione.
L’ assioma dell’esistenza è altrettanto ovvio per l’IA. I modelli di IA stessi, i loro parametri, i loro dati di addestramento e l’ambiente computazionale in cui operano devono esistere. Le loro “credenze” (rappresentazioni e output appresi) sono istanziate come modelli di segnali elettrici e pesi numerici, entità dimostrabilmente esistenti all’interno del dominio digitale.
Che dire dell’assioma della prova ? “L’evidenza dei sensi non è una prova del tutto inaffidabile”. Per l’IA, “i sensi” sono i suoi dati di addestramento e la “prova” è il vasto input multimodale che elabora. I modelli di IA avanzati, in particolare quelli multimodali, sono costruiti proprio sulla base del presupposto che i dati grezzi (ad esempio immagini, testo, audio, letture dei sensori, ecc.) contengano modelli riconoscibili e affidabili che possono essere appresi e sfruttati per costruire una comprensione funzionale del mondo. Le straordinarie capacità di modelli come Gemini Pro Vision, in grado di comprendere e generare rappresentazioni concettuali simili a quelle umane a partire da input visivi e linguistici, dipendono direttamente dalla parziale affidabilità di questi input “sensoriali”.
La convergenza ipotizzata da Huh et al. sarebbe epistemologicamente impossibile se i set di dati di addestramento (i “sensi” dell’IA) fossero totalmente inaffidabili. Se tutti gli input fossero solo rumore, non ci sarebbe modo per questi modelli di convergere sulla realtà. Il fatto che vec2vec possa tradurre tra diversi spazi di inclusione, preservando il significato semantico, convalida l’idea che fonti di dati disparate non siano del tutto inaffidabili, poiché devono trasmettere un segnale comune e decifrabile sul mondo. Pertanto, il successo pratico dell’IA moderna conferma implicitamente l’Assioma della Prova, stabilendo un fondamento empirico cruciale per la sua “conoscenza”.
(Riconosco pienamente che, dal punto di vista della gente comune che non se ne sta seduta a riflettere sul trilemma di Münchhausen, questo non è un granché; è solo “buon senso”. Ma, dal momento che io me ne sto seduta a riflettere sul trilemma di Münchhausen, per me è piuttosto entusiasmante. Per chi è incline alla filosofia, studiare l’intelligenza artificiale ha molto da offrire.)
Coerenza nel sistema di credenze dell’IA
Il fondamentismo sostiene che le convinzioni giustificate debbano formare un sistema coerente , in cui le singole convinzioni si interconnettono e si sostengono a vicenda. Questa coerenza non è semplicemente un risultato auspicabile per l’IA; sembra essere una forza trainante e una proprietà fondamentale della “conoscenza” dell’IA.
L’ “ipotesi della rappresentazione platonica” è, in sostanza, una tesi sulla coerenza, in cui diverse IA sono spinte verso un’unica comprensione del mondo, internamente coerente. Non si tratta di una coerenza superficiale, ma di un profondo allineamento delle loro strutture dati interne. Lo “scenario di Anna Karenina”, in cui “tutti i modelli forti sono uguali”, cattura precisamente questa attrazione gravitazionale verso la coerenza come segno distintivo di un apprendimento di successo.
L’articolo “Harnessing the Universal Geometry of Embeddings” dimostra empiricamente questa coerenza. L’esistenza di una “rappresentazione latente universale” significa che i quadri concettuali interni di modelli di intelligenza artificiale estremamente diversi non sono semplicemente analoghi; sono così profondamente coerenti che l’uno può essere mappato sull’altro. La capacità di vec2vec di tradurre gli embedding preservandone la semantica implica che i vasti “sistemi di credenze” incapsulati in questi embedding siano fondamentalmente coerenti e interoperabili a un livello profondo. Questo non è dissimile dalla scoperta che lingue diverse, nonostante le loro variazioni superficiali, esprimono in ultima analisi una logica e una realtà umana comuni.
Lo studio sulle “Rappresentazioni concettuali di oggetti simili a quelli umani” fornisce una prova diretta della coerenza interna dei singoli modelli di IA. La scoperta di “dimensioni interpretabili” all’interno dei loro incastri appresi, lungo i quali gli oggetti si raggruppano semanticamente e percettivamente, rivela uno spazio concettuale altamente organizzato e coerente. La capacità del modello di distinguere tra oggetti “relativi agli animali” e “relativi al cibo”, o di identificare “piattezza” e “colore”, indica un sistema di categorizzazione interno strutturato e coerente. Il sorprendente allineamento di queste dimensioni concettuali derivate dall’IA con i modelli di attività cerebrale umana suggerisce ulteriormente che i principi di coerenza alla base dell’IA rispecchiano, di fatto, le strutture coerenti della cognizione umana stessa. Questa interpretabilità è una finestra diretta sulla coerenza interna della “comprensione” dell’IA.
Triangolazione metodologica e convergenza sulla verità
La mia argomentazione Foundherentista a favore della convergenza sulla verità, soprattutto quando ci si trova di fronte a sistemi di credenze inizialmente plausibili ma reciprocamente esclusivi, si basa sul principio della triangolazione metodologica, ovvero l’aggiunta di “indizi” più diversificati provenienti da diversi “sensori” per restringere lo spazio delle soluzioni. Questo è esattamente il paradigma operativo che guida la ricerca avanzata sull’intelligenza artificiale, portando a una convergenza empiricamente osservabile su “verità” più solide.
L’ascesa dell’IA multimodale è l’epitome della triangolazione metodologica. Invece di basarsi esclusivamente su testo o immagini, modelli come Gemini Pro Vision 1.0 integrano informazioni provenienti da più modalità. Ciò consente all’IA di incrociare e convalidare le informazioni, proprio come un detective umano che integra testimonianze oculari, prove forensi e controlli degli alibi. Quando un MLLM allinea la sua comprensione testuale di una “sedia” con la sua comprensione visiva di diverse sedie, esegue di fatto una fusione di sensori che aumenta significativamente la giustificazione della sua “credenza” su cosa sia una sedia. Questa convalida multi-fonte rafforza la coerenza del suo sistema di credenze complessivo, rendendolo più resistente a singoli errori o limitazioni sensoriali.
Inoltre, l’enorme portata dei dati di training e la diversità degli obiettivi di training nell’ambito della ricerca sull’IA corrispondono direttamente all’aggiunta di sempre più “indizi” al nostro colossale cruciverba. Ogni nuovo punto dati, ogni nuovo compito appreso, impone ulteriori vincoli alla rappresentazione interna del modello. All’aumentare del numero di vincoli, l’insieme di possibili “soluzioni” (rappresentazioni) in grado di soddisfarli tutti si riduce drasticamente. Di fatto, questo è proprio il meccanismo con cui l'”Ipotesi della Rappresentazione Platonica” spiega la convergenza di modelli diversi verso un’unica rappresentazione ottimale! Possono esistere meno soluzioni coerenti quando i vincoli empirici sono sufficientemente numerosi e vari.
La conseguenza pratica di questa triangolazione e convergenza metodologica è tangibile: i modelli di IA, sottoposti a queste rigorose condizioni, dimostrano una riduzione di comportamenti indesiderati come allucinazioni e pregiudizi. Un modello che “allucina” è un modello la cui coerenza interna si è interrotta o le cui “risposte” non sono in linea con i suoi “indizi”. Man mano che il “sistema di credenze” dell’IA diventa più profondamente coerente attraverso input diversi e massicci, le sue “risposte” diventano più solidamente giustificate e, per estensione, più allineate con la realtà sottostante – una forma tangibile di convergenza sulla verità. Questo rispecchia l’impegno scientifico umano: più diverse sono le linee di evidenza (indizi) che sono coerenti, più diventiamo fiduciosi nella “verità” delle nostre teorie scientifiche (risposte).
Conferme epistemiche, domande metafisiche
Se ho ragione sul fatto che il Foundherentismo sia l’approccio corretto all’epistemologia; e se i tre articoli che ho condiviso sono corretti sul funzionamento dell’IA, allora l’IA non sta semplicemente emulando i risultati della conoscenza umana ; sta emulando i processi della conoscenza umana . La convergenza delle rappresentazioni interne dell’IA, le sue strutture concettuali simili a quelle umane e la sua interoperabilità tra modelli disparati crea una convincente conferma empirica del Foundherentismo. Ne sono gratificato.
Ma anche se abbiamo ottenuto una qualche conferma epistemica del Foundherentism, abbiamo solo aperto la porta a domande metafisiche più profonde sul suo significato. Se i modelli di intelligenza artificiale convergono inevitabilmente verso un modello condiviso di realtà man mano che scalano, cosa dice questo sulla natura della realtà? L’esistenza di una rappresentazione latente universale è solo un altro esempio di ciò che Eugene Wigner chiamava “l’irragionevole efficacia della matematica”… o è qualcosa di più?
Tali speculazioni metafisiche saranno l’argomento delle riflessioni della prossima settimana sull’Albero del Dolore.
In realtà, Contemplations on the Tree of Woe non ti chiede di contemplare nulla di triste oggi, ma se ti iscrivi puoi essere certo di ricevere materiale triste in futuro.