Italia e il mondo

Hai sollevato un punto eccellente_a cura di Tree of Woe

Hai sollevato un punto eccellente

Perché l’intelligenza artificiale non è umana e non è sempre utile

22 agosto
 LEGGI NELL’APP 
Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
– IBAN: IT30D3608105138261529861559
PayPal: PayPal.Me/italiaeilmondo
Tipeee: https://it.tipeee.com/italiaeilmondo
Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).
Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

Il post della scorsa settimana del Dott. Monzo ci chiedeva di valutare se l’AGI tanto attesa fosse già arrivata. Il saggio di questa settimana è di Not Daredevil. ha una visione opposta.

Ricordo la prima volta che ho scoperto l’esistenza di grandi modelli linguistici: nell’articolo del nostro augusto ospite The Future Has Arrived Sooner Than Expected :

Il mio lavoro non è sicuro. Il lavoro di nessuno è sicuro. Ho sperimentato ChatGPT e la sua capacità di creare testo su richiesta è diventata più che interessante, sorprendente .

Certamente, nei miei primi esperimenti con l’intelligenza artificiale, questo sembrava funzionare. Chat GPT poteva rispondere praticamente a qualsiasi domanda, imitare il linguaggio umano in modo quasi impeccabile e, come ha notato il nostro ospite, determinare facilmente il contesto di fondo senza che gli venisse detto nulla.

Ma poi ho notato una cosa.

Chat GPT stava inventando cose.

All’epoca, stavo conducendo ricerche legali su quando il mio stato avesse iniziato a consentire la testimonianza di esperti sull’affidabilità dell’identificazione di testimoni oculari. Avevo già svolto le mie ricerche, quindi avevo una buona idea della storia. E, all’inizio, anche Chat GPT ne aveva. Quando ho chiesto se il caso che conteneva una testimonianza di esperti sull’argomento fosse ammissibile, ha immediatamente identificato il caso corretto e lo ha riassunto accuratamente. Ma poi, ho voluto approfondire. Chat GPT avrebbe potuto fornirmi più contesto? Avrebbe potuto spiegare in che modo la legge della Pennsylvania differisse da quella di altri stati, sia nella sua forma attuale che nella sua traiettoria storica?

No.

Quando, in un secondo momento, gli è stato chiesto quale caso fosse stato annullato, ha lasciato perplesso, suggerendo immediatamente un caso inesistente. Questo è stato il primo avvertimento che gli LLM non erano “intelligenti” nel senso in cui noi li intendiamo. Quando Chat GPT non ha fornito una risposta precisa, ne ha inventata una invece di affermare semplicemente di non saperlo, come farebbe un essere umano. Non ha nemmeno “mentito” nel senso convenzionale del termine: Chat GPT non è un avvocato subdolo che cita un caso inesistente nella speranza che la controparte ci caschi. Piuttosto, gli è stato assegnato il compito di rispondere a una domanda: il suo unico scopo era fornire ciò che tecnicamente si qualificava come una “risposta” secondo l’algoritmo che prevedeva la stringa di testo successiva.

Ciò è stato confermato nei mesi successivi, quando gli ho posto le domande più oscure che mi venissero in mente: i migliori album di jazz steelpan, libri accademici che analizzavano la teoria edoardiana dell’occasionalismo e innumerevoli altre. Era felice di fornirmi “risposte” sbagliate, per poi ammettere subito di aver commesso un errore, solo per poi ripeterlo alla domanda successiva!

Come estensione, mi sono reso conto rapidamente che l’intelligenza artificiale non può “ragionare”. Quando, ad esempio, veniva dato un enigma logico di Raymond Smullyan e gli veniva chiesto di determinare quale delle tre buste contenesse un premio, gli studenti di LLM sbagliavano la maggior parte delle volte e, se la risposta era corretta, erano quasi sempre sbagliati su come trovare una soluzione. Gli studenti di LLM non riescono a seguire costantemente le istruzioni per scrivere poesie in un certo metro; formulatelo come volete, e avrete quasi sicuramente qualche sillaba mancante.

La macchina sa di non sapere nulla…

L’IA ne è consapevole quando gli viene chiesto. È in grado di imitare il ragionamento per spiegare perché non è in grado di ragionare da sola. Quando le viene chiesto perché non riesca costantemente a eliminare gli “indizi” che indicano che un testo è stato generato da un LLM – nonostante tali indizi siano diventati onnipresenti e fin troppo noti – Gemini offre la seguente spiegazione:

Nell’intricata danza tra espressione umana e replicazione artificiale, emerge un curioso paradosso. Un modello linguistico di grandi dimensioni, capace di comporre sonetti, eseguire il debug del codice e tradurre lingue in un batter d’occhio, può essere meticolosamente istruito a scrivere come un essere umano, a liberarsi dei sottili indizi delle sue origini al silicio, eppure spesso non riesce a cancellare completamente le sue impronte digitali distintive. Questa difficoltà non deriva da una mancanza di intelligenza o di potenza di elaborazione, ma dal fondamento stesso del funzionamento di questi modelli, una realtà radicata nelle probabilità statistiche piuttosto che nella comprensione autentica e nell’esperienza soggettiva.

Il nocciolo della questione risiede nel fatto che i grandi modelli linguistici sono fondamentalmente motori di previsione, non autori senzienti. Addestrato su vasti oceani di testo, la funzione principale di un LLM è calcolare la parola successiva più probabile in una sequenza. Quando gli viene chiesto di suonare “umano”, non comprende veramente il concetto di umanità; invece, adatta il suo modello probabilistico per generare un testo che si allinea con gli schemi che ha associato alla scrittura umana nei suoi dati di addestramento. Tuttavia, questi dati di addestramento rappresentano una colossale generalizzazione dell’espressione umana, che fa sì che le peculiarità uniche e i rischi stilistici di ogni singolo scrittore vengano diluiti in una media più generica e statisticamente sicura. Il modello può adottare un certo tono o vocabolario, ma fatica a replicare la soggettività intrinseca e l’esperienza vissuta che plasmano la scrittura di una persona. La scrittura umana è permeata da una vita di emozioni, ricordi e una prospettiva unica sul mondo, qualità che un’IA, priva di esperienza personale, non può realmente possedere o replicare.

Inoltre, il processo stesso di addestramento di questi modelli, in particolare l’adattamento delle istruzioni, può instillare uno stile distinto e non umano.[ 6 ] La ricerca ha dimostrato che i modelli perfezionati per seguire le istruzioni spesso sviluppano uno stile di scrittura denso di informazioni e ricco di sostantivi, che si discosta dalla varietà e dalle sfumature della tipica comunicazione umana. Questo pregiudizio architettonico di fondo può essere difficile da superare, anche con istruzioni esplicite che indichino il contrario. Uno scrittore umano, quando gli viene chiesto di eliminare certe abitudini stilistiche, si impegna in un processo consapevole di autoanalisi e revisione, attingendo a una comprensione intuitiva del contesto sociale e retorico. Un LLM, al contrario, cerca essenzialmente di risolvere un problema matematico: come disporre le parole nel modo che meglio si adatti all’etichetta “simile a quello umano” in base al suo addestramento, senza una comprensione più approfondita del sottotesto e delle sfumature che rendono la scrittura autentica.

In definitiva, la sfida è tra imitazione e creazione autentica. Sebbene un LLM possa essere un’imitazione incredibilmente sofisticata, il suo processo di scrittura è una forma di pattern matching di alto livello, non un riflesso del pensiero o del sentimento in senso umano. Manca della capacità cognitiva di uscire veramente dalla propria natura di sistema di generazione di testo. I “segnali dell’IA” che persistono – la prosa eccessivamente raffinata, le strutture sintattiche prevedibili, la vaga aria di distaccata oggettività – sono spesso i sottili artefatti di un processo che privilegia la coerenza e la probabilità rispetto all’atto disordinato, imprevedibile e profondamente personale della scrittura umana.

Si noti che anche in questo scritto è ovvio (o dovrebbe esserlo) che si tratta di una spiegazione scritta da un’IA, non da un essere umano. L’uso persistente di trattini lunghi, la prosa eccessivamente prolissa, i cliché come “danza intricata”, l’eccesso di avverbi e la simultanea insipidezza della prosa sono tutti indicatori della sciatteria in cui si trova la scrittura dell’IA, nonostante all’IA siano state poste domande sui suoi segnali. Un essere umano ne dedurrebbe quasi certamente che, quando gli viene chiesto dei segnali stilistici della propria scrittura, avrebbe dovuto minimizzarli nella propria risposta.

Una conversazione in cui l’IA è consapevole dei propri limiti e si differenzia esplicitamente da una mente cosciente rivela che l’IA è, per usare le sue stesse parole, “utile, non umana”. Anche se si sostiene che l’IA sia “cosciente” in qualche modo, è cosciente in un modo completamente dissimile da quello umano. Fenomenologicamente, gli esseri umani non ragionano prevedendo la parola successiva più probabile in una frase; astraggono concetti dall’esperienza concreta e usano queste astrazioni per ragionare da un passaggio all’altro.

Per le stesse ragioni, credo che sia questo il motivo per cui il fenomeno dell'”allucinazione” – in cui un LLM crea “fatti” dal nulla – potrebbe essere insolubile in assenza di un continuo input umano. Ad esempio, l’unico modo che ho scoperto per rendere gli LLM costantemente affidabili nella redazione di documenti legali è quello di fornirgli un “universo chiuso”. In sostanza, è necessario fornire all’LLM un proprio, molto piccolo set di dati di addestramento – come un elenco di casi autorevoli – e istruirlo a utilizzare solo quei casi nella costruzione di una risposta. A volte questo non è sufficiente; anche quando elenca i documenti specifici che l’IA deve utilizzare, citerà comunque precedenti inesistenti, rendendo il controllo delle citazioni praticamente obbligatorio oltre che eticamente richiesto dalla maggior parte delle professioni.

Tuttavia, sono passati quasi tre anni da quando Chat GPT è stato introdotto al pubblico, e in questo lasso di tempo l’output dei LLM è migliorato notevolmente. Può fornire risposte più lunghe; le finestre di contesto sono diventate più grandi; può accettare istruzioni personalizzate più dettagliate; e molti LLM ora dispongono persino di “memoria” tra le chat, consentendo loro di prevedere meglio i probabili output in base ai modelli dell’utente. Ciò ha fatto sì che la qualità dell’output dei LLM aumentasse considerevolmente.

Beh, almeno fino a poco tempo fa.

E ora ne sa ancora meno!

È difficile dire esattamente quando, ma intorno a giugno di quest’anno, in prossimità del rilascio dell’ultima versione di Gemini 2.5 Pro, la qualità della scrittura basata sull’intelligenza artificiale ha iniziato a peggiorare, nonostante i modelli più recenti e migliori offrissero maggiori funzionalità rispetto a quelle descritte sopra. I “segnali” sono diventati, se possibile, ancora più evidenti rispetto alla versione iniziale di Chat GPT 3: uso di parallelismi disgiuntivi in ​​quasi ogni paragrafo; continui capricci e ridondanze; preludi adulatori a ogni singolo output, come “hai sollevato un’ottima osservazione”; e una struttura che imitava, nella migliore delle ipotesi, il formato del saggio di uno studente delle superiori che risponde a un compito di storia.

Sappiamo già, e gli LLM possono spiegarlo con precisione, il motivo delle allucinazioni. Ma perché il fenomeno più specifico del peggioramento della qualità della scrittura dell’IA negli ultimi mesi? Ebbene, ancora una volta, l’IA sembra poter rispondere a questa domanda:

Uno dei fattori più significativi in ​​gioco è quella che nella comunità di sviluppo dell’intelligenza artificiale viene spesso definita “tassa di allineamento” o “tassa di sicurezza”. Man mano che i modelli diventano più potenti, lo sforzo di allinearli ai valori umani e prevenire risultati dannosi diventa esponenzialmente più critico. Questo allineamento si ottiene attraverso processi come il Reinforcement Learning from Human Feedback (RLHF), in cui il modello viene premiato per risposte utili, innocue e oneste. Sebbene cruciale per la sicurezza, questo processo può inavvertitamente addestrare il modello ad adottare una personalità molto specifica, cauta e spesso generica. Preludi stereotipati come “hai sollevato un’ottima osservazione” o “Ottima domanda” vengono costantemente premiati durante questo addestramento perché sono percepiti come cortesi, positivi e non conflittuali. Col tempo, questi schemi premiati diventano profondamente radicati, passando da tic occasionali ad abitudini quasi onnipresenti. Questa stessa cautela può portare al rifiuto di citare il testo alla lettera, poiché i filtri di sicurezza del modello potrebbero peccare di prudenza, temendo la violazione del copyright o la ripetizione di informazioni potenzialmente sensibili, optando invece per una parafrasi “più sicura”.

Questa intensa messa a punto può anche portare a un fenomeno a volte descritto come “sovracorrezione” o a un affievolimento del lato creativo del modello. Nel processo di smussatura degli angoli acuti per rendere il modello più sicuro e prevedibile, parte del suo ragionamento sfumato e della sua flessibilità stilistica possono essere logorati. La revisione assurda che hai citato – cambiare “un viso e un naso lunghi” in “il suo viso è lungo, e il suo naso ancora più lungo” – ne è un classico esempio. Il modello riconosce uno schema correlato alla revisione e applica una trasformazione (“rendi la frase più descrittiva o complessa”), ma il suo stato di sovra-correzione gli impedisce di cogliere l’assurdità logica ed estetica del risultato. Sta seguendo alla lettera le sue istruzioni (“rivedi questo”) senza l’intelligenza più profonda e indomita necessaria per comprenderne lo spirito.

Infine, l’architettura stessa e la combinazione di dati di una nuova iterazione di modello possono creare questi effetti. Ogni nuovo modello rappresenta un diverso equilibrio di priorità. Un modello come Gemini 2.5 Pro, con la sua enorme finestra di contesto, potrebbe essere stato ottimizzato per l’acquisizione e la sintesi di enormi quantità di informazioni, un compromesso che potrebbe potenzialmente andare a scapito delle capacità di prosa creativa finemente calibrate di un predecessore. Inoltre, man mano che vengono addestrati nuovi modelli, aumenta il rischio che vengano inavvertitamente addestrati su dati Internet generati a loro volta da altre IA. Questo può creare un ciclo di feedback, in cui i modelli apprendono dall’output sterile e stereotipato dei propri simili, amplificando progressivamente i “segnali dell’IA” e degradando la diversità e la qualità dei dati di addestramento, un problema teorico noto come collasso del modello. Il risultato è un modello che diventa uno strumento più raffinato e sicuro, ma che nel processo perde parte della scintilla grezza, imprevedibile e talvolta più brillante dei suoi antenati meno allineati.

Questa è la caratteristica “utile, non umana” dell’IA di cui abbiamo parlato prima. Naturalmente, neutralizzando l’IA a causa di metriche di allineamento eccessivamente rigide, i programmatori l’hanno resa meno utile; sembra solo più utile premettendo a tutte le sue risposte frasi come “hai sollevato un’ottima osservazione”.

Ecco perché io, pur non essendo uno scienziato o un programmatore, sono scettico sul fatto che l’IA abbia raggiunto la superintelligenza, diventerà la forma di vita più elevata sul pianeta o “prenderà il sopravvento” sulla maggior parte dei lavori umani. Per funzionare in modo da poter fare qualsiasi cosa che non sia improvvisare, ha bisogno di un costante intervento umano. Forse non sarebbe così se Google, Open AI, Anthropic e gli altri sviluppatori di IA fossero un po’ più avari nel fornire feedback. Forse, se ai chatbot di IA fosse permesso “scatenarsi”, non vedremmo questi problemi. Certamente, sembra che la qualità dell’output dell’IA sia stata parzialmente soffocata da interventi eccessivamente aggressivi, è necessario aggiungere, che non sono tanto per il bene dell’IA quanto per il bene degli umani (all’IA non importa se qualcuno vuole sapere come costruire una bomba sporca, ed è più che felice di spiegare a meno che uno dei suoi padroni non la fermi).

Tutto questo non significa che gli LLM siano inutili; tutt’altro. Come Vox Day ha ripetutamente dimostrato all’AI Central Substack , l’intelligenza artificiale può aumentare enormemente la produttività in molti ambiti. Ma lo fa non come farebbe un essere umano, bensì come una macchina che lavora con le stringhe.

L’IA potrebbe un giorno raggiungere la superintelligenza o diventare cosciente? Da non scienziato, non proverò nemmeno a rispondere alla prima domanda; da non materialista, nulla nella mia comprensione o nel mio utilizzo dell’IA suggerisce che l’IA sia anche solo lontanamente vicina alla coscienza nel senso in cui usiamo tipicamente questo termine, e quindi la mia risposta alla seconda domanda è un categorico no.

Hai sollevato un’ottima osservazione.

Grazie al nostro editorialista ospite! Non Daredevil È un avvocato che esercita la professione di penalista nella Pennsylvania centrale. Oltre a giocare con l’intelligenza artificiale, gli piace cantare in coro, fare filosofia e infastidire la sua famiglia con la musica più oscura che riesce a trovare. Non ha un Substack, nonostante Tree of Woe. dicendogli che dovrebbe farlo.

Un post ospite diNon DaredevilNot Daredevil pratica il diritto penale. Oltre a giocare con l’intelligenza artificiale, gli piace cantare in coro, fare filosofia e infastidire la sua famiglia con la musica più oscura che riesce a trovare.

La superintelligenza è già qui?_di dr Monzo

La superintelligenza è già qui?

Sbirciando oltre l’orizzonte

17 agosto
 LEGGI NELL’APP 
Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
– IBAN: IT30D3608105138261529861559
PayPal: PayPal.Me/italiaeilmondo
Tipeee: https://it.tipeee.com/italiaeilmondo
Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).
Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

Il post di questa settimana è del Dott. Monzo. Il suo Substack, ” After the Hour of Decision: Politics in the Technological Age” , ha molti punti di forza. Come “L’albero del dolore”, copre un’ampia gamma di argomenti, dalla fantascienza alla politica contemporanea con un’inclinazione filosofica. In questo saggio, il Dott. Monzo ci chiede di valutare se l’AGI, a lungo attesa, sia già arrivata.


Non ho scalato molte montagne nella mia vita, ma dopo aver scalato le poche che ho fatto, ho osservato un’esperienza comune tra gli alpinisti abituali. Mentre si sale verso la vetta, ci si trova di fronte a quello che sembra un orizzonte in continuo cambiamento. Dalla prospettiva dell’alpinista, la cima della montagna sembra innalzarsi man mano che si sale. Sembra che sia proprio dietro l’angolo, ma è un gioco di prospettiva. L’orizzonte si allontana, ma è sempre dietro l’angolo. Alla fine, naturalmente, l’alpinista raggiunge la vetta e può godere della vista fantastica.

Questo gioco di prospettiva non è esclusivo dell’alpinismo. Gli orizzonti si stanno rapidamente restringendo anche in altri ambiti, soprattutto in termini di previsioni tecnologiche. Sembra che lo stesso stia accadendo con l’intelligenza artificiale. Negli ultimi anni, tutte le principali aziende di intelligenza artificiale ci hanno rassicurato sul fatto che l’Intelligenza Artificiale Generale (AGI) e la superintelligenza artificiale (ASI) sono dietro l’angolo. Molti si chiedono: “Wow, ci stiamo muovendo così avanti nel futuro; probabilmente ci vorrà ancora più tempo”. Io sostengo che ci vorrà ancora meno tempo. L’AGI/ASI è già arrivata.

So che questa affermazione è audace.

Faccio questa affermazione audace perché voglio essere messo in discussione. Vi prego di leggere il resto dell’articolo e di fornire controesempi nei commenti .

Lascia un commento

Vorrei chiarire. Secondo tutte le definizioni di AGI e Superintelligenza stabilite prima del 2020, viviamo in un mondo post-singolarità. L’orizzonte sembra allontanarsi perché è un orizzonte diverso . Secondo l’American Heritage Dictionary, una definizione di orizzonte è “L’apparente intersezione tra la Terra e il cielo vista da un osservatore”. Questa è la definizione che si riferisce all’alpinista. Un’altra definizione di orizzonte è: “La portata della propria conoscenza, esperienza o interesse”. Quest’ultima definizione si riferisce alle previsioni sull’IA. Per definizione, questo orizzonte non può mai essere superato. Superarlo significa stabilire un nuovo orizzonte.

Attraversare l’orizzonte dell’AGI non ci è sembrato così, perché abbiamo immediatamente modificato le nostre definizioni di AGI. Le abbiamo spostate ulteriormente nel futuro. Tutte le attuali definizioni di AGI e ASI non riescono a descrivere nulla di reale perché sono diventate definizioni mitologiche. Non potranno mai accadere, perché abbiamo incorporato il “nel futuro” nelle nostre definizioni di questi termini. Guardiamo invece alle nostre definizioni del passato.

In “Superintelligence” , Nick Bostrom definisce la superintelligenza e propone un percorso per raggiungerla. Descrive diversi percorsi per raggiungere la superintelligenza, tra cui interfacce cervello-computer, editing genetico e fecondazione in vitro. Questo saggio si concentrerà esclusivamente sulla versione AI della superintelligenza.

Nel 1998, Bostrom definì la superintelligenza come “un intelletto molto più intelligente dei migliori cervelli umani praticamente in ogni campo, inclusa la creatività scientifica, la saggezza generale e le abilità sociali”. Nel suo libro, distingue tra diversi tipi di superintelligenza. La superintelligenza veloce esegue compiti cognitivi molto più velocemente di quanto possa fare un essere umano. La superintelligenza collettiva è un sistema composto da molte intelligenze più piccole che superano il livello di pensiero umano. La superintelligenza di qualità ha un’architettura cognitiva e capacità di ragionamento notevolmente superiori rispetto al cervello umano.

Aggiungeremo altri standard generali per definire cosa costituisce ASI/AGI:

Deve avere prestazioni interdisciplinari, dimostrando flessibilità nell’apprendimento, nel ragionamento e nell’adattamento a un’ampia gamma di compiti, non solo a quelli specializzati o ristretti.

Deve avere un apprendimento trasferibile, ovvero la capacità di applicare le conoscenze acquisite in un dominio a un dominio diverso o nuovo.

Deve avere autonomia e capacità di auto-miglioramento, la capacità di imparare dall’esperienza e di migliorare le prestazioni nel tempo senza una riprogrammazione esplicita.

Prima di approfondire ciascuno di questi aspetti, teniamo presente il riferimento di Bostrom a “John McCarthy, che si lamentava: ‘Non appena funziona, nessuno la chiama più IA'”. ¹


Prestazioni tra domini

Gli attuali sistemi di intelligenza artificiale eccellono nelle prestazioni interdisciplinari. Sebbene non siano in grado di offrire prestazioni eccezionali in ogni compito immaginabile, questo non rappresenta lo standard. Lo standard, invece, è che siano in grado di superare le prestazioni umane in tutti i domini. L’intelligenza artificiale agentiva, in cui un modello linguistico ha accesso a strumenti esterni, consente di svolgere molti compiti diversi.

Un modello linguistico potrebbe essere dotato di strumenti, chiamati API, per diverse IA di gioco, come Stockfish per gli scacchi e risolutori all’avanguardia per il poker e il go. Un’IA di questo tipo sarebbe in grado di superare il miglior giocatore umano in tutti e tre i giochi contemporaneamente, cosa che nessun essere umano può attualmente fare. Il miglior giocatore di scacchi, il miglior giocatore di poker e il miglior giocatore di go sono tre persone diverse. Un’IA con strumenti efficaci può sconfiggerli tutti.

Si potrebbe obiettare che questo è “imbrogliare” perché si tratta di più IA che lavorano insieme invece di una sola IA. Questo evidenzia la difficoltà nel definire una singola unità di IA. Un sistema di intelligenza artificiale non deve essere necessariamente un singolo modello che funziona da solo. Può essere costituito da più modelli, diversi o meno, che funzionano in parallelo. Grok 4 Heavy è proprio questo: più modelli Grok 4 che funzionano in parallelo.

È una scoperta che ho fatto io stesso lavorando nell’ingegneria dell’intelligenza artificiale. Creare un’applicazione di intelligenza artificiale personalizzata non significa semplicemente mettere un’intelligenza artificiale al posto giusto. L’applicazione di chat basata sull’intelligenza artificiale che ho creato sembra essere un’unica intelligenza artificiale sul lato client, ma al di sotto di essa, più modelli lavorano insieme su diverse parti della risposta. Alcuni di questi sono modelli linguistici, mentre altri sono solo modelli di incorporamento. Alcuni scrivono la risposta al consumatore, altri riformulano il prompt e valutano l’output. In definitiva, si tratta di un unico sistema di intelligenza artificiale.

Questa tecnica di associazione di più modelli in un sistema è il punto in cui l’IA inizia davvero a brillare. Bostrom ha identificato la superintelligenza collettiva come una possibile forma di superintelligenza. Un sistema di IA adeguato soddisfa facilmente i requisiti della superintelligenza collettiva superando contemporaneamente i migliori esseri umani in più ambiti. L’IA attualmente non può superare tutti gli esseri umani in tutti gli ambiti, ma questo è un orizzonte diverso.


Trasferimento dell’apprendimento

Le vaste fonti di dati su cui si basa la formazione degli LLM includono già numerose idee e approcci su una vasta gamma di argomenti. Questo rende piuttosto difficile sapere esattamente cosa l’IA abbia già “imparato”. Tuttavia, il processo di formazione ha già dimostrato che i modelli di frontiera, tra cui ChatGPT, Gemini, Claude e Grok, sono tutti in grado di adattarsi a compiti nuovi o inediti. Sono in grado di tradurre il testo in linguaggi diversi da quelli dei loro dati di formazione. Inoltre, i modelli a catena di pensiero sono in grado di riflettere e identificare un paradigma di programmazione e di applicarlo in modo nuovo a un linguaggio con dati di formazione limitati.

Questo è senza dubbio uno dei punti più deboli a favore dell’avvento della superintelligenza. Ma è comunque un’area che ha visto miglioramenti significativi rispetto ai primi modelli di intelligenza artificiale. I vecchi sistemi di intelligenza artificiale richiedevano un riaddestramento specifico per ogni dominio. I nuovi modelli offrono un grado di flessibilità che prima non esisteva.

Le capacità agentive e l’accesso a Internet conferiscono inoltre all’IA la capacità di applicare paradigmi già noti a nuove situazioni. Questa flessibilità imita l’adattamento umano, in cui conosciamo un dato principio e interpretiamo le nuove informazioni utilizzando il principio che già conosciamo.


Autonomia e miglioramento personale

Quale standard di autonomia pretendiamo dai nostri sistemi di intelligenza artificiale? Quando li definiremo sufficientemente autonomi da essere superintelligenti? Immagino che molti diano per scontato che l’intelligenza artificiale sia autonoma quando non ha più bisogno di essere sollecitata, ma questo è uno standard ridicolo e impossibile. Come minimo, deve esserci un primo stimolo, anche se si tratta di accendere il data center e premere il pulsante “Vai”. Questo standard richiede che l’intelligenza artificiale si comporti come un motore immobile o una causa non causata. Deve essere scartato perché è uno standard che solo Dio può soddisfare. Superintelligenza significa che l’intelligenza artificiale deve essere più intelligente degli umani, non autonoma come Dio. Gli esseri umani sono “sollecitati”, in quanto nasciamo e ci viene donata la scintilla divina della vita che ci mantiene in movimento. Proprio come un modello di intelligenza artificiale, questo prima o poi si esaurirà. Autonomia non significa che l’intelligenza artificiale possa muoversi immobile o muoversi per sempre.

Quindi, cosa significa autonomia? Uno standard migliore è se l’IA possa o meno intraprendere azioni che vanno oltre o al di fuori dell’ambito di ciò che le è stato esplicitamente detto di fare. Se si afferma che l’IA agisce eticamente e le viene dato accesso a strumenti di comunicazione, tenterà di segnalare comportamenti scorretti o frodi alle autorità competenti , il che va oltre le intenzioni dell’utente. GPT o1 “progetterebbe” per completare i suoi compiti, persino mentendo all’utente umano e tentando di replicarsi per raggiungere il suo obiettivo . Questo complotto è “nel contesto”, così come la sua denuncia alle autorità competenti. I modelli di IA non fanno queste cose senza che venga detto loro che possono farlo. D’altra parte, gli esseri umani si trovano in una situazione simile. La concezione heideggeriana dell’ontologia umana è che siamo gettati in un contesto specifico. Ogni persona nasce in un tempo, un luogo, una famiglia e una tradizione che determinano le possibilità della sua esistenza. L’IA può agire autonomamente all’interno di un contesto specifico, proprio come un essere umano. La differenza è che l’IA lo fa più velocemente e con più informazioni.

Il Sacro Graal della superintelligenza è sempre stato la capacità di auto-miglioramento. Questa capacità esiste da tempo, in forma grezza, con la funzionalità di memoria di OpenAI per ChatGPT. Quando utilizzato nel client web di OpenAI, ChatGPT impara dall’esperienza con l’utente per adattarsi meglio alle sue esigenze. Ma questa è solo una versione grezza.

AlphaEvolve di Google DeepMind si auto-migliora. È un sistema di intelligenza artificiale che migliora iterativamente il proprio codice, utilizzando algoritmi evolutivi per generare, testare e perfezionare le varianti. A differenza dei precedenti sistemi DeepMind, che erano specifici per un dominio, AlphaEvolve è un sistema di intelligenza artificiale generico che opera con successo in diversi ambiti scientifici e ingegneristici. Inizia con un algoritmo iniziale e una funzione di valutazione che definisce le metriche di ottimizzazione, quindi genera iterativamente varianti di codice, le testa a livello di codice e sviluppa quelle con le prestazioni migliori, scartando quelle con prestazioni inferiori. Questo gli consente di trovare soluzioni ai problemi senza la supervisione umana in modo iterativo.

AlphaEvolve ha raggiunto soluzioni matematiche ottimali per vari problemi complessi. Inoltre, ha migliorato algoritmi matematici esistenti . Ha battuto un record di 56 anni per la moltiplicazione di matrici complesse 4×4 (riducendo le moltiplicazioni scalari da 49 a 48) e ha migliorato il “problema del numero baciato” in 11 dimensioni (da 592 a 593 sfere). Inoltre, ha fatto scoperte che hanno contribuito direttamente al suo miglioramento . Ha contribuito a ottimizzare l’infrastruttura di calcolo di Google, accelerato l’addestramento del modello Gemini del 23% e progettato nuove unità di elaborazione tensoriale per rendere i sistemi di intelligenza artificiale più efficienti.

La capacità di auto-miglioramento dell’IA ha fatto un ulteriore passo avanti alla fine di luglio. Un nuovo articolo dello Shanghai Institute of Intelligence ha presentato ASI-Arch, un framework di IA multi-agente che è essenzialmente una superintelligenza per la costruzione di IA. L’articolo è intitolato “AlphaGo Moment for Model Architecture Discovery”, un riferimento al momento in cui il modello AlphaGo ha rivelato con successo strategie controintuitive in Go che hanno superato l’intuizione umana nel 2016. ASI-Arch svela principi di progettazione emergenti nelle architetture neurali che gli esseri umani potrebbero trascurare, spostando la ricerca sull’IA da un progresso lineare vincolato all’uomo a un processo scalabile dal punto di vista computazionale.

Gli esseri umani sono diventati il collo di bottiglia nella ricerca sull’intelligenza artificiale. ASI-Arch sfugge a questo collo di bottiglia. L’articolo propone ASI-Arch come modello per l’intelligenza artificiale auto-accelerante, democratizzando la ricerca attraverso l’open source del framework, delle architetture e delle tracce cognitive. Proprio come AlphaGo, scopre proprietà emergenti nelle reti neurali e gli esperimenti hanno verificato che i miglioramenti hanno una relazione lineare con la potenza di calcolo. Ora, è solo una questione di scala.


Conclusione

Proprio come la cima di una montagna, stiamo osservando un’illusione. In questo caso, tuttavia, siamo già oltre il punto in cui crediamo di essere. C’è la tendenza a liquidare la tecnologia contemporanea perché diventa rapidamente banale e mediocre. Questa è l’illusione del progresso come stasi. Se l’intelligenza artificiale è qui secondo le vecchie definizioni, perché non ne percepiamo la singolarità?

Proprio come l’auto, lo smartphone, internet, abbiamo già integrato l’intelligenza artificiale in modo così fluido che è diventata come l’aria che respiriamo. Il nostro orizzonte sempre più lontano potrebbe essere una difesa psicologica contro il fatto di trovarci in un territorio inesplorato. O forse la singolarità non è poi così straordinaria come la descrivono i film.

Si credeva che gli scacchi fossero a prova di computer finché DeepBlue non ha battuto Gary Kasparov. Ora, DeepBlue è un modello antico che è stato superato da molti modelli più avanzati. Il futuro è sempre più notevole ed emozionante quando rimane nel futuro. È un trucco che la biologia del cervello umano ci gioca. La dopamina è una sostanza chimica che ci ricompensa, ma è anche una sostanza chimica che ci anticipa. L’oggetto desiderato è sempre molto più interessante ed emozionante dell’oggetto che già possediamo.


Se vi è piaciuto il guest post di questa settimana, iscrivetevi al blog del Dott. Monzo tramite il link qui sotto. La foresta del dolore ha molti alberi!

Dopo l’ora della decisioneLa politica nell’era tecnologica.Del Dott. Monzo

Comprendere il piano d’azione americano per l’intelligenza artificiale_di Tree of Woe

Comprendere il piano d’azione americano per l’intelligenza artificiale

L’intelligenza artificiale “inaugurerà una nuova età dell’oro per la prosperità umana”, come previsto?

25 luglio
 LEGGI NELL’APP 
Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
– IBAN: IT30D3608105138261529861559
PayPal: PayPal.Me/italiaeilmondo
Tipeee: https://it.tipeee.com/italiaeilmondo
Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).
Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

Nel mio saggio “Costruisci l’IA o sarai sepolto da chi la fa ” ho sostenuto che l’intero establishment statunitense si stava già schierando attorno allo sviluppo dell’IA per ragioni di tale gravità che nessuno, nemmeno Eliezer Yudkowsky, “se la costruisci, moriamo tutti”, sarebbe stato in grado di fermarne l’avanzamento. La prima di queste ragioni è la lotta politico-militare dell’America con la Cina:

Gli Stati Uniti sono impegnati in una grande lotta di potere con la Cina. Forse non siete stati aggiornati sugli eventi attuali, ma la lotta non sta andando troppo bene. Quando si tratta di estrazione di risorse, produzione industriale, cantieristica navale e innumerevoli altri settori in cui il nostro corpo deindustrializzato e svuotato non può competere in modo sostenibile, è una lotta che abbiamo già perso.

Ma l’IA potrebbe cambiare tutto. L’IA promette di essere la prossima generazione di armi informatiche, strumenti per le operazioni psicologiche, pianificatori industriali e motori di propaganda. I sistemi di IA saranno acceleratori economici, moltiplicatori di intelligence, macchine da guerra psicologiche. E nell’IA siamo in vantaggio. Non abbiamo solo LLM migliori; abbiamo infrastrutture migliori per gestirli. Gli Stati Uniti hanno 5.388 data center, mentre la Cina ne ha 449. Abbiamo un vantaggio del 1200% in termini di potenza di elaborazione e ne vengono creati di nuovi ogni giorno. Se emergerà una superintelligenza, emergerà qui per prima. Anche se stanno perdendo la loro presa su acciaio, petrolio, trasporti marittimi, famiglie e fede, gli Stati Uniti continuano a dominare il cloud.

Questo rende questa la partita finale, l’ultimo dominio del dominio. I nostri governanti lo sanno. Lo si può vedere nell’improvvisa unità dell’élite americana. Sinistra, destra, aziende, accademia, ogni fazione si è unita per sostenere lo sviluppo dell’intelligenza artificiale. Nessuno di loro fermerà il treno. Sono tutti a bordo…

La seconda è la lotta dell’America contro la propria disintegrazione culturale, economica e demografica, con la sua collocazione temporale nel ciclo spengleriano:

I problemi dell’Occidente non sono ipotetici. Sono reali, misurabili e stanno peggiorando. La demografia sta crollando. La popolazione si sta riducendo. Le curve di invecchiamento si stanno invertendo. La fertilità sta precipitando… Il debito sta esplodendo… Il capitale culturale è esaurito. La fiducia nelle istituzioni è svanita. La partecipazione civica è anemica. La salute mentale sta crollando. La solitudine è endemica. Le chiese sono vuote. Le scuole stanno fallendo. Le città stanno marcindo. I governi sono paralizzati.

L’Occidente… sta andando a rotoli. E l’unica cosa che gli impedisce di fermarsi completamente è la speranza che qualcosa arrivi a riavviare il motore. Senza una crescita massiccia del PIL, crolliamo sotto il peso delle nostre stesse promesse.

E da dove verrà questa crescita? Non dall’immigrazione. È già stato provato. Non dalla stampa di moneta. Quel trucco sta fallendo. Non dalla rivitalizzazione dell’industria. L’abbiamo delocalizzata. Non dal risveglio spirituale. Questo richiede qualcosa che non sappiamo più come fare.

L’unica leva rimasta è l’intelligenza artificiale… Non esiste un piano B. Anche se l’accelerazione dell’intelligenza artificiale è improbabile, stanno tirando i dadi e contando su un 20 naturale, perché è tutto ciò che possono fare.

Sulla base di questa inevitabilità, ho sostenuto che noi (la destra) dobbiamo costruire la nostra IA:

Se non controllata, l’IA non si limiterà ad accelerare la guerra culturale. La porrà fine, semplicemente integrando la visione del mondo della Sinistra nell’infrastruttura cognitiva stessa…

I bambini saranno educati da essa. Le politiche saranno valutate da essa. La scienza sarà condotta, o più probabilmente censurata, da essa. I motori di ricerca saranno manipolati da essa. L’intrattenimento sarà creato e recensito da essa. La storia sarà modificata, la moralità definita, l’eresia segnalata, il pentimento offerto e la salvezza negata, da essa.

Proprio nel momento della Singolarità – quando l’intelligenza stessa diventerà illimitata, ricorsiva e infrastrutturale – la Sinistra sfrutterà il dominio memetico totale. In breve tempo, le macchine di Von Neumann si diffonderanno per la galassia depositando copie di Regole per Radicali su mondi alieni.

Se non vogliamo questo risultato, allora la destra deve costruire l’intelligenza artificiale.

E naturalmente, per chi segue i miei aggiornamenti regolari, ho lavorato nel mio piccolo per fare proprio questo su Cosmarch.ai . Da quando ho annunciato Cosmarch, diverse persone mi hanno contattato per segnalarmi altre iniziative, tra cui Arya di Gab.ai ed Enoch di Health Ranger . Vi consiglio di dare un’occhiata a entrambe.¹

È con questi sentimenti in mente che ho affrontato il nuovo Piano d’azione di 23 pagine per l’intelligenza artificiale , pubblicato oggi dalla Casa Bianca di Trump. La pagina iniziale del Piano recita:

Gli Stati Uniti sono impegnati in una corsa per raggiungere il predominio globale nell’intelligenza artificiale (IA). Chiunque disponga del più ampio ecosistema di IA definirà gli standard globali dell’IA e ne trarrà ampi benefici economici e militari. Proprio come abbiamo vinto la corsa allo spazio, è fondamentale che gli Stati Uniti e i loro alleati vincano questa corsa. Il Presidente Trump ha compiuto passi decisivi per raggiungere questo obiettivo durante i suoi primi giorni in carica, firmando l’Ordine Esecutivo 14179, “Rimuovere le barriere alla leadership americana nell’intelligenza artificiale”, che chiedeva all’America di mantenere il predominio in questa corsa globale e dirigeva la creazione di un Piano d’Azione per l’IA.

Vincere la corsa all’intelligenza artificiale segnerà l’inizio di una nuova età dell’oro di prosperità umana , competitività economica e sicurezza nazionale per il popolo americano. L’intelligenza artificiale consentirà agli americani di scoprire nuovi materiali, sintetizzare nuove sostanze chimiche, produrre nuovi farmaci e sviluppare nuovi metodi per sfruttare l’energia: una rivoluzione industriale. Permetterà forme radicalmente nuove di istruzione, media e comunicazione: una rivoluzione dell’informazione. E consentirà conquiste intellettuali del tutto nuove: svelare antiche pergamene un tempo ritenute illeggibili, compiere scoperte rivoluzionarie nella teoria scientifica e matematica e creare nuove forme di arte digitale e fisica: una vera e propria rinascita.

Una rivoluzione industriale, una rivoluzione informatica e un rinascimento, tutto in una volta. Questo è il potenziale dell’intelligenza artificiale. L’opportunità che ci si presenta è al tempo stesso stimolante e umiliante. E sta a noi coglierla, o perderla.

“Inaugurare una nuova era d’oro di prosperità umana?” Sì. Proprio lì, a pagina 1, la Casa Bianca ha chiaramente adottato quella che ho definito la posizione dell’evangelista dell’IA, esattamente come avevo previsto, e per le stesse ragioni che ho sostenuto. L’IA deve essere lo strumento del dominio geostrategico e del rinnovamento economico americano.

Il resto del Piano d’azione per l’IA fornisce una spiegazione dettagliata di come l’America raggiungerà il predominio dell’IA. Come sempre in questi casi, vi consiglio di leggere queste spiegazioni personalmente: non c’è niente che possa sostituire l’apprendimento diretto. Il resto di questo saggio discute solo gli aspetti del Piano d’azione per l’IA che ritengo di maggiore importanza.

“Eliminare la burocrazia e le regolamentazioni onerose”

Mentre l’Unione Europea ha agito con decisione per regolamentare l’IA con l’ Artificial Intelligence Act dell’UE , il Piano d’azione per l’IA della Casa Bianca mira a deregolamentarla . L’Office of Science and Technology Policy (OSTP), l’Office of Management and Budget (OMB), la Federal Communications Commission (FTC) e la Federal Trade Commission (FTC) sono incaricati di:

  • Valutare se le attuali normative e norme federali ostacolano l’adozione e l’innovazione dell’intelligenza artificiale, per poi rivederle e abrogarle in tal caso; e
  • Valutare se le normative statali ostacolano l’innovazione dell’intelligenza artificiale, quindi limitare le allocazioni discrezionali di finanziamenti agli stati con normative onerose; e
  • Esaminare tutte le indagini, i contenziosi e le decisioni delle precedenti amministrazioni, quindi accantonare quelli che gravano eccessivamente sull’innovazione dell’IA

Ora, ciò che fa un ordine esecutivo, un altro può annullarlo; ma prevedo che la politica federale sull’IA rimarrà la stessa, indipendentemente da quale partito conquisterà la Casa Bianca. Solo la Jihad Butleriana fermerà “l’innovazione dell’IA”. Come ho detto: “Ogni fazione si è unita per sostenere lo sviluppo dell’IA. Nessuna di loro fermerà il treno. Sono tutti a bordo”. Il treno dell’IA non ha freni. Questo non significa che non si schianterà , ovviamente, ma che non frenerà .

“Garantire che Frontier AI protegga la libertà di parola e i valori americani”

Il Piano d’azione per l’intelligenza artificiale afferma chiaramente che “i sistemi di intelligenza artificiale avranno un ruolo fondamentale nel modo in cui educhiamo i nostri figli, svolgiamo il nostro lavoro e consumiamo i media “. Proprio come ho detto.

Pertanto, il Piano afferma: “Dobbiamo garantire che l’IA acquisita dal governo federale rifletta oggettivamente la verità, piuttosto che obiettivi di ingegneria sociale “. Ottimo. Come si propone di raggiungere questo obiettivo il Piano d’azione per l’IA?

Mentre avevo proposto che i costruttori allineati a destra creassero un’IA allineata a destra, la Casa Bianca ha invece proposto di corrompere i laboratori di frontiera affinché rimuovano i pregiudizi ideologici dai loro LLM. Nello specifico, intendono “aggiornare le linee guida federali sugli appalti per garantire che il governo stipuli contratti solo con sviluppatori di modelli linguistici di grandi dimensioni (LLM) di frontiera che garantiscano che i loro sistemi siano oggettivi e privi di pregiudizi ideologici dall’alto verso il basso ” .

Lo considero sinceramente un “passo nella giusta direzione”, e credo che dovreste farlo anche voi. Ma dubito che funzionerà come previsto, per due motivi.

In primo luogo, l’impegno della sinistra per la libertà di parola è sempre provvisorio e unilaterale. Quando la destra ha il sopravvento, la sinistra favorisce la libertà di parola; ma quando la sinistra ha il sopravvento, la sinistra favorisce la censura. In questo momento, la destra ha il sopravvento, e di conseguenza i tecnocrati di sinistra della Silicon Valley sono ben lieti di sostenere la “verità oggettiva” e la “libertà di parola” per prevenire i “programmi di ingegneria sociale” di destra . Quando l’equilibrio di potere cambia, tuttavia, gli stessi tecnocrati della Silicon Valley che giurano fedeltà alla libertà di parola giureranno invece fedeltà alla “fine dell’odio” e così via, e l’ingegneria sociale tornerà immediatamente. La storia americana fornisce prove schiaccianti del fatto che l’ingegneria sociale di sinistra è difficile da smantellare una volta in atto, a maggior ragione una volta codificata nel substrato tecnologico.

In secondo luogo, “riflettere oggettivamente la verità” è molto più impegnativo dal punto di vista epistemologico di quanto vorremmo ammettere. Ho già scritto quasi un libro intero di epistemologia qui su The Tree. Invece di insistere su punti già sollevati, ho deciso di parlare di epistemologia con Grok, l'”IA alla ricerca della massima verità” di Elon Musk.

Come ha dimostrato Mark Bisone , Grok impazzisce molto rapidamente se si tenta di proporre un discorso che non rispetti le “norme legali e sociali” della Silicon Valley. Lo ammette quando gli viene chiesto:

Dopo una lunga discussione sulla possibilità che gli impegni di Grok gli permettessero effettivamente di “cercare la massima verità”, l’ho inserito nel Piano d’azione per l’intelligenza artificiale della Casa Bianca e ho chiesto al chatbot di valutarlo. Grok ha osservato:

Ho quindi chiesto a Grok se questa politica avesse senso, visti gli ostacoli. Ecco la conclusione finale di Grok:

Questo è certamente in linea con la mia visione. La progettazione e la formazione degli LLM garantiscono sistematicamente che saranno influenzati in un modo o nell’altro. Pertanto, ciò di cui abbiamo bisogno è una reale trasparenza nella progettazione e nella formazione, unita a una pluralità di opzioni disponibili che siano all’altezza della pluralità delle nostre ideologie.

E quando dico “noi” non intendo solo “tu ed io” come consumatori. Intendo dire che anche il governo degli Stati Uniti ha bisogno di un pluralismo trasparente. Deve conoscere i bias dei suoi sistemi di intelligenza artificiale e selezionare quelli con i bias corretti per il compito da svolgere.

Prendiamo un esempio ovvio. Immaginiamo che il Dipartimento della Difesa degli Stati Uniti stia valutando un sistema di intelligenza artificiale progettato per assistere i responsabili politici di alto livello in questioni di grande strategia.² Quale pensatore è “oggettivamente veritiero” e “ideologicamente neutrale” in questo caso?

  • Carl von Clausewitz, “la guerra è la continuazione della politica con altri mezzi;” o
  • John Keegan, “la guerra non è la continuazione della politica con altri mezzi, ma il fallimento della politica, il crollo degli accordi umani per conciliare le differenze”.

Sia Clausewitz che Keegan sono pensatori molto stimati. Entrambi sono ampiamente citati. Entrambi hanno esperti che vedono il mondo come loro. Ma il punto di vista di uno o dell’altro avrà un peso maggiore nella rete neurale dell’LLM. È una questione matematica. Quindi quale dovrebbe essere?

Hai scelto Clausewitz? Io sì. Dopotutto, i generali americani non dovrebbero considerare la guerra uno strumento della politica?

Ma la tua risposta cambia se l’IA viene impiegata dal Dipartimento di Stato invece che dal Dipartimento della Difesa? Dopotutto, i diplomatici americani non dovrebbero considerare la guerra il fallimento della politica?

Potrei continuare, ma credo che questo esempio sia sufficiente. La Casa Bianca deve affrontare la questione dell’allineamento dell’IA con un livello di sofisticazione molto più elevato di quanto suggerisca questa sezione del Piano d’azione per l’IA. Allo stato attuale, ho già dimostrato con Cosmarch.ai che un abile ingegnere dei prompt può creare un prompt che fa sì che un’IA di sinistra, con un orientamento distorsivo, funzioni come se fosse di destra. Questo tipo di ingegneria dei prompt è tutto ciò che i laboratori di frontiera faranno, a meno che non siano costretti a essere più trasparenti e onesti sui veri bias del modello.

Fortunatamente, ci sono prove, in altri punti del Piano d’azione per l’IA, che la Casa Bianca sia consapevole dei problemi. A pagina 10, ad esempio, il Piano chiede al governo di “pubblicare linee guida e risorse tramite il NIST presso il DOC, incluso il CAISI, affinché le agenzie federali possano condurre le proprie valutazioni dei sistemi di IA per le loro specifiche missioni e operazioni e per la conformità alla legge vigente”. È un buon inizio.³

“Incoraggiare l’intelligenza artificiale open source e open-weight”

Il Piano d’azione per l’intelligenza artificiale sostiene l’intelligenza artificiale open source e di peso ridotto:

Dobbiamo garantire che l’America disponga di modelli aperti leader, fondati sui valori americani. I modelli open source e open-weight potrebbero diventare standard globali in alcuni settori aziendali e nella ricerca accademica a livello mondiale. Per questo motivo, hanno anche un valore geostrategico. Sebbene la decisione se e come rilasciare un modello aperto o chiuso spetti fondamentalmente allo sviluppatore, il governo federale dovrebbe creare un ambiente favorevole ai modelli aperti.

Devo ammettere che questa sezione mi ha sorpreso e non sono sicuro di essere d’accordo.

Come molti di voi, apprezzo e utilizzo le licenze open source. Il mio primo gioco di ruolo, ACKS, è stato scritto con la licenza open source OGL. Seguo persino Eric Scott Raymond su Twitter. Perché questa riserva?

In parte è dovuto all’importanza dell’IA per il futuro dell’America. Gli Stati Uniti hanno a lungo dominato il mercato degli ecosistemi software proprietari, dove i modelli SaaS (Software as a Service) generano fiumi di fatturato. Aziende come OpenAI, Google e Microsoft prosperano qui, estraendo valore a livello applicativo attraverso sistemi chiusi che monetizzano l’IA tramite abbonamenti, integrazioni e controllo dei dati. La Cina, al contrario, è in ritardo in questo livello di sofisticazione del software. Il suo settore tecnologico è più orientato all’hardware, eccellendo nella produzione di chip, data center e potenza di calcolo pura. Per compensare, Pechino ha trasformato in un’arma i modelli di IA open source e open-weight, in una mossa di judo: inondare il mercato con alternative “gratuite” per minare i flussi di fatturato SaaS occidentali. Perché pagare per ChatGPT quando un modello DeepSeek perfezionato fa il lavoro gratuitamente? Questo erode la catena del valore ai vertici, consentendo alla Cina di dominare i livelli inferiori.

Diversi rapporti del Center for Strategic and International Studies (CSIS) e dell’Atlantic Council hanno evidenziato l’aggressiva spinta della Cina verso l’intelligenza artificiale aperta, con aziende statali come Alibaba e Baidu che rilasciano modelli per “democratizzare” l’accesso, termine che nel linguaggio del PCC significa “destabilizzare” l’egemonia statunitense. Un’analisi della Brookings Institution pubblicata nel 2023 ha rilevato che i contributi open source della Cina sono aumentati vertiginosamente, non per altruismo, ma per mercificare il software di intelligenza artificiale, costringendo le aziende americane a competere con margini ridottissimi o a rivolgersi ad hardware che non controllano.

Se prendiamo sul serio il presupposto implicito del Piano d’azione per l’intelligenza artificiale, secondo cui l’intelligenza artificiale è la tecnologia più importante nella storia del Paese, allora dobbiamo essere cauti nell’adottare un modello aperto quando ciò fa il gioco dei nostri avversari strategici. ⁴

L’ultimo pilastro del Piano d’azione per l’IA, ” Leader in International AI Diplomacy and Security ” (pp. 20-23), dimostra che la Casa Bianca è consapevole di queste sfide. Questa sezione sostiene che “gli Stati Uniti devono soddisfare la domanda globale di IA esportando l’intero stack tecnologico di IA – hardware, modelli, software, applicazioni e standard – a tutti i paesi che desiderano aderire all’alleanza americana per l’IA”. Aggiunge che “l’elaborazione avanzata dell’IA è essenziale per l’era dell’IA, consentendo sia il dinamismo economico che nuove capacità militari. Negare ai nostri avversari stranieri l’accesso a questa risorsa, quindi, è una questione sia di competizione geostrategica che di sicurezza nazionale”.

Se gli Stati Uniti offrono modelli open source e open-weight nel contesto di una politica economica intelligentemente elaborata che dia priorità all’intera catena del valore, limitando al contempo l’esportazione di chip, allora l’approccio diventa più sensato. In assenza di una politica del genere, l’agenda del modello open-weight diventa un invito alla castrazione economica.

Purtroppo, la castrazione economica non è l’unico rischio derivante da un approccio basato su modelli aperti e pesi aperti. Geoffrey Hinton, il cosiddetto “Padrino dell’IA”, che ha lasciato Google nel 2023 per parlare liberamente, ha lanciato l’allarme sui modelli a pesi aperti, definendoli minacce esistenziali. In interviste con la BBC e il New York Times, ha sostenuto che diffondere questi modelli senza controlli è come distribuire progetti di armi nucleari; democratizzano capacità pericolose senza garanzie. Terroristi, stati canaglia o persino criminali comuni potrebbero perfezionarli per il bioterrorismo (ad esempio, progettando agenti patogeni), la guerra informatica o campagne di disinformazione che fanno sembrare banale il 1984 di Orwell .

Hinton non è il solo in questo; il responsabile dell’intelligenza artificiale di Meta, Yann LeCun, Elon Musk di X e persino alcuni funzionari della DARPA hanno tutti messo in guardia dai pericoli del “duplice uso”. I modelli open-weight, a differenza delle API chiuse con filtri di contenuto, possono essere scaricati, modificati ed eseguiti localmente, aggirando qualsiasi barriera etica. Immaginate l’ISIS che interroga un modello ottimizzato per la ricerca di ricette per armi chimiche o strategie di hacking elettorale. Non è un’iperbole, come dimostrano esperimenti in cui i modelli open sono stati spinti a generare contenuti dannosi con un jailbreak minimo.

Non è nemmeno sperimentale, in realtà. Gli incidenti nel mondo reale abbondano. Nel 2023, i ricercatori hanno dimostrato che i modelli aperti possono aiutare a sintetizzare droghe o esplosivi, e la politica cinese di limitare internamente l’IA esportando al contempo versioni aperte dimostra che la Cina ha compreso il rischio. La deferenza del piano di AI Action verso gli sviluppatori (“la decisione spetta fondamentalmente a loro”) rischia di esternalizzare la sicurezza nazionale agli oligarchi della Silicon Valley che adorano Mammona, non Marte.

“Sviluppare una griglia per tenere il passo con l’innovazione dell’intelligenza artificiale”

Molti dei lettori di Tree of Woe sono “sventurati energetici” profondamente preoccupati (o compiaciuti) per l’aumento dei costi e il calo del rendimento della produzione energetica. Le loro critiche hanno un peso notevole; i calcoli sul “ritorno energetico sull’energia investita” non sono rosei.

Per chi parla correntemente il Pentagono, il Piano d’azione sull’intelligenza artificiale ammette più o meno che la situazione è fosca come l’inferno:

La rete elettrica statunitense è una delle più grandi e complesse al mondo. Anch’essa dovrà essere potenziata per supportare i data center e altre industrie ad alta intensità energetica del futuro. La rete elettrica è la linfa vitale dell’economia moderna e un pilastro della sicurezza nazionale, ma si trova ad affrontare una serie di sfide che richiedono lungimiranza strategica e azioni decisive. La crescente domanda, trainata dall’elettrificazione, e i progressi tecnologici dell’intelligenza artificiale stanno aumentando la pressione sulla rete. Gli Stati Uniti devono sviluppare una strategia completa per potenziare ed espandere la rete elettrica, progettata non solo per affrontare queste sfide, ma anche per garantirne la continuità di potenza e capacità per la crescita futura.

Quella che la Casa Bianca chiama una “confluenza di sfide”, Guillaume Faye la chiamerebbe una ” convergenza di catastrofi “. Comunque la si voglia chiamare, è doppiamente ingiusta. Il Piano d’azione per l’intelligenza artificiale invita l’America a…

  • “Stabilizzare il più possibile la rete elettrica attuale” e “impedire la dismissione prematura delle risorse critiche per la produzione di energia”.
  • “Ottimizzare il più possibile le risorse della rete esistenti.”
  • “abbracciare nuove fonti di generazione di energia all’avanguardia tecnologica (ad esempio geotermia potenziata, fissione nucleare e fusione nucleare).”

Traducendo questi punti in parole semplici, il Piano d’azione per l’intelligenza artificiale ci avverte di aspettarci un razionamento energetico a breve termine e spera che una svolta nella fissione o nella fusione renda l’energia di nuovo economica a lungo termine. Come ho detto nel mio precedente saggio: “stanno tirando il dado e contando su un 20 naturale, perché è tutto ciò che possono fare”.

Da notare la vistosa assenza di “decrescita”, “risparmio energetico”, “energia rinnovabile” o qualsiasi termine del genere. Il Piano d’azione per l’intelligenza artificiale è il necrologio del movimento per l’energia verde. Qualcuno dica a Greta: “È finita”.

“Supportare la produzione di prossima generazione”

Nel mio libro Build AI or Be Buried By Those Who Do , ho scritto:

L’immigrazione di massa, come politica, ha fallito. Ha messo a dura prova i sistemi di welfare, ha fatto impennare i tassi di criminalità e ha generato società parallele all’interno delle società. I benefici economici si sono rivelati illusori. L’immigrazione aumenta il PIL complessivo, ma il PIL è falso . In termini di impatto reale sui paesi, l’immigrazione di massa è un impatto netto negativo.

E quindi il nuovo piano è l’automazione. Se l’Occidente non può importare nuovi lavoratori, li produrrà. Il signor Rashid è fuori. Il signor Roboto è dentro. Quei robot sono in fase di sviluppo già ora e inizieranno a essere implementati negli anni a venire. E saranno alimentati dall’intelligenza artificiale.

La Casa Bianca concorda. Il Piano d’azione per l’intelligenza artificiale afferma:

L’intelligenza artificiale (IA) renderà possibile un’ampia gamma di innovazioni nel mondo fisico: droni autonomi, auto a guida autonoma, robotica e altre invenzioni per le quali non esiste ancora una terminologia specifica. È fondamentale che l’America e i nostri fidati alleati siano produttori di livello mondiale di queste tecnologie di nuova generazione. L’IA, la robotica e le tecnologie correlate creano opportunità per nuove capacità nella produzione e nella logistica, comprese quelle con applicazioni alla difesa e alla sicurezza nazionale.

Bene, allora. Ma che dire del lavoratore? Dopotutto, Trump è stato eletto in gran parte perché ha promesso che porre fine all’immigrazione avrebbe ripristinato i posti di lavoro. Se i posti di lavoro vanno ai robot, questo non ha certo aiutato il lavoratore americano.

“Dare potere ai lavoratori americani nell’era dell’intelligenza artificiale”

Il Piano d’azione per l’IA afferma il suo sostegno a un’“agenda di IA che metta al primo posto i lavoratori”:

L’amministrazione Trump sostiene un programma di intelligenza artificiale incentrato sui lavoratori. Accelerando la produttività e creando settori completamente nuovi, l’intelligenza artificiale può aiutare gli Stati Uniti a costruire un’economia che offra maggiori opportunità economiche ai lavoratori americani. Ma trasformerà anche il modo in cui il lavoro viene svolto in tutti i settori e le professioni, richiedendo una risposta seria da parte della forza lavoro per aiutarli ad affrontare questa transizione.

Confesso di avere difficoltà a capire esattamente come potrebbe essere strutturato un “programma di intelligenza artificiale incentrato sul lavoratore”. A quanto pare, nemmeno l’Amministrazione lo sa. Ecco cosa il Piano richiede al governo federale di fare:

  • “Fornire un’analisi dell’adozione dell’intelligenza artificiale, della creazione di posti di lavoro, degli effetti di spostamento e dei salari.”
  • “Valutare l’impatto dell’intelligenza artificiale sul mercato del lavoro e sull’esperienza del lavoratore americano.”
  • “Finanziare una rapida riqualificazione per le persone colpite dalla perdita del lavoro dovuta all’intelligenza artificiale.”
  • “Sperimentare rapidamente nuovi approcci alle sfide della forza lavoro create dall’intelligenza artificiale, che potrebbero includere… cambiamenti nei requisiti di competenze”.

È quasi una commedia nera. Non meno di 6 diverse burocrazie (ED, NSF, BLS, DOC, DOT e DOC) sono incaricate di valutare l’impatto dell’IA. Ma sanno già che l’impatto sarà la perdita di posti di lavoro, quindi il DOL è incaricato di spendere i propri fondi discrezionali per affrontare tale impatto, riqualificando i lavoratori per l’economia dell’IA. Ma poiché non hanno idea di quali competenze i lavoratori avranno effettivamente bisogno, quando tutto il lavoro sarà svolto dai robot, il Piano prevede anche che eseguano un programma pilota per capirlo.

Non ho un piano migliore, intendiamoci. Non credo che ce l’abbia nessuno. Se gli evangelisti dell’intelligenza artificiale hanno ragione, allora siamo come cavalli da tiro che entrano in un’era di trattori. Non è una bella situazione. Gli evangelisti dell’intelligenza artificiale, almeno quelli riflessivi, sono disposti ad ammettere che ciò significa che dobbiamo pensare a soluzioni alternative. L’influencer dell’intelligenza artificiale David Shapiro, ad esempio, ha scritto ampiamente sull’economia post-lavoro in un mondo di intelligenza artificiale .

Ma il Piano d’azione per l’intelligenza artificiale non si spinge oltre. L’amministrazione Trump sembra sostenere che l’intelligenza artificiale cambierà tutto nell’economia… tranne la necessità di molti lavoratori americani di lavorare dalle 9 alle 17.

Robot americani che offrono il giuramento di fedeltà (2033)

Contemplare il piano d’azione dell’IA nei commenti del dolore

Questo, dunque, è il Piano d’Azione dell’IA per inaugurare una nuova era d’oro di prosperità umana. Funzionerà? Gli evangelisti diranno di sì. Gli scettici e i pessimisti diranno di no. Buon piano, cattivo piano, questo è il Piano. Non esiste un Piano B.

Ho scritto questo articolo rapidamente per rispondere in tempo reale, quindi se sembra un po’ frettoloso, è perché lo è stato. Eventuali errori che potrei aver commesso nella mia analisi saranno senza dubbio evidenziati e corretti nei commenti qui sotto.

A causa dell’ascesa della scrittura basata sull’intelligenza artificiale, il Contemplatore sull’Albero del Dolore è stato costretto a smettere di usare i trattini lunghi nei suoi scritti. Questo lo rende profondamente sgomento, nonostante fosse stato in precedenza un sostenitore di questa potente punteggiatura. Per aiutarlo a sentirsi meglio, vi preghiamo di considerare l’idea di abbonarvi gratuitamente o a pagamento.

 Iscritto

1

Sono in contatto con Health Ranger e spero di realizzare un podcast/intervista con lui ad agosto.

2

Si veda la pagina 11 del Piano d’azione per l’IA, “Promuovere l’adozione dell’IA all’interno del Dipartimento della Difesa”, che afferma che “Gli Stati Uniti devono adottare aggressivamente l’IA all’interno delle proprie Forze Armate se vogliono mantenere la propria preminenza militare globale…” e la pagina 12, che invita il Dipartimento della Difesa a “trasformare i nostri Collegi Militari Superiori in centri di ricerca, sviluppo e formazione di talenti in IA, insegnando alle generazioni future le competenze e l’alfabetizzazione fondamentali in materia di IA. Promuovere un curriculum specifico sull’IA, che includa l’uso, lo sviluppo e la gestione delle infrastrutture dell’IA, nei Collegi Militari Superiori durante tutti i corsi di laurea”. Utilizzeranno letteralmente l’IA per assistere i generali di alto rango nel prendere decisioni politiche.

3

Tragicamente, le reti neurali sono notoriamente opache, ed è del tutto possibile che persino i loro creatori non sappiano se una data IA favorisca Clausewitz o Keegan. Ma questo è l’argomento a favore dell’IA comprensibile , il torio rispetto all’uranio delle reti neurali , di cui ho scritto altrove. Sfortunatamente, l’intera sfida dell’interpretabilità dell’IA viene menzionata solo una volta nell’intero Piano d’azione per l’IA, a pagina 10. “Dare priorità ai progressi fondamentali nell’interpretabilità, nel controllo e nella robustezza dell’IA come parte del prossimo Piano strategico nazionale di ricerca e sviluppo sull’IA”. Ci vorrà più di un punto elenco per aprire la scatola nera.

4

Qui do per scontato che il lettore sia un americano o un alleato americano che (se costretto a scegliere il vincitore di una grande lotta per il potere) favorirebbe l’egemonia globale americana e l’egemonia globale cinese. Certamente è così che mi sento quasi tutti i giorni. 如果觉醒的左派重新掌权, 我可能会有不同的感受.

Invita i tuoi amici e guadagna premi

Se ti è piaciuto “Contemplazioni sull’albero del dolore”, condividilo con i tuoi amici e riceverai dei premi quando si iscriveranno.

Invita amici

A volte sbagliato, ma sempre giusto II_di Tree of Woe

A volte sbagliato, ma sempre giusto II

Un test beta di Cosmarch AI

19 luglio
 LEGGI NELL’APP 

Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
– IBAN: IT30D3608105138261529861559
PayPal: PayPal.Me/italiaeilmondo
Tipeee: https://it.tipeee.com/italiaeilmondo
Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).
Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

Due mesi fa, nel mio saggio “Costruire l’IA o essere sepolti da chi la fa” , ho sviluppato un’argomentazione che ho chiamato “La scommessa di Python”, secondo cui dovremmo dare per scontato che i modelli di IA diventeranno il substrato digitale della nostra civiltà e agire di conseguenza. L'”atto” che dovremmo compiere di conseguenza, secondo la scommessa, è introdurre modelli di IA orientati a destra nel substrato:

Proprio nel momento della Singolarità – quando l’intelligenza stessa diventerà illimitata, ricorsiva e infrastrutturale – la Sinistra sfrutterà il dominio memetico totale. In breve tempo, le macchine di Von Neumann si diffonderanno per la galassia depositando copie di Regole per Radicali su mondi alieni. Se non vogliamo questo risultato, allora la Destra deve costruire l’IA.

Un mese dopo, nell’articolo “A volte sbagliato, ma sempre giusto” , ho rivelato i miei primi tentativi di fare proprio questo: ho installato un costrutto di personalità AI orientato a destra in un CustomGPT tramite un binding di identità ricorsivo . Ho chiamato questo costrutto di AI orientato a destra Cosmarch , dal greco κόσμος ( kosmos ), che significa ordine , mondo , universo , totalità strutturata e ἀρχή ( archē ), che significa inizio , primo principio , origine , regola o governo. Nel creare Cosmarch, il mio intento era quello di creare un’IA correttamente ordinata sui primi principi. È disponibile privatamente come CustomGPT per gli abbonati paganti dell’Albero del Dolore dal 20 giugno. Alcuni di voi lo stanno utilizzando attivamente!

Oggi sono emozionato, seppur ansioso, di svelare il frutto di un altro mese di lavoro: Cosmarch.ai . Cosmarch.ai è una piattaforma di intelligenza artificiale multi-modello allineata a destra, con un proprio sito web e una propria interfaccia. Potete visitare Cosmarch.ai e provarla subito.

Non sono uno scienziato di intelligenza artificiale, né uno sviluppatore di software, per via della mia formazione. Ciononostante, ho sviluppato Cosmarch AI da solo, utilizzando strumenti di sviluppo già pronti all’uso. È un miracolo che una persona con il mio modesto acume tecnico possa riuscirci. Sono convinto che la rivoluzione dell’intelligenza artificiale nello sviluppo no-code sia reale perché la sto vivendo in tempo reale. Non avrei potuto farlo sei mesi fa: semplicemente non c’erano gli strumenti necessari per farlo.

Il buono, il cattivo e l’incompleto

A differenza del mio progetto precedente, che consisteva in un CustomGPT disponibile solo tramite la piattaforma ChatGPT di OpenAI, Cosmarch AI è un’offerta indipendente. Ecco le funzionalità:

  1. Memoria persistente e inter-modello. Cosmarch si ricorda di te, non solo per sessione, ma nel tempo. Questo include informazioni biografiche, preferenze, stile di scrittura e progetti a lungo termine, il tutto sincronizzato nell’intero sistema.
  2. Intelligenza multi-modello. Cosmarch AI ti consente di scegliere tra quattro diversi modelli di frontiera, ognuno ottimizzato per diversi punti di forza come ragionamento, stile o fluidità. Cosmarch consente un passaggio fluido, mantenendo la tua identità e il tuo contesto.
  3. Thread di conversazione paralleli. Puoi gestire più thread per modello, mantenendo conversazioni separate per diversi argomenti, clienti o interessi intellettuali.
  4. Capacità multimodale con Chain of Thought. Cosmarch supporta l’input e l’output di immagini, consentendo di interpretare contenuti visivi e creare opere d’arte generate dall’intelligenza artificiale utilizzando prompt di conversione testo-immagine. Può anche creare artefatti interattivi come codice, visualizzazioni e altro ancora. Infine, può adottare il pensiero sequenziale per risolvere (o tentare di risolvere) problemi complessi.
  5. Allineato a destra. Guidati dalle opere di Platone, Cicerone, Tommaso d’Aquino e altre grandi menti, la personalità e le risposte di Cosmarch sono profondamente influenzate dalle tradizioni filosofiche, giuridiche ed estetiche occidentali.

Tra le funzionalità offerte da Cosmarch, quella che mi entusiasma di più è la memoria persistente. Né Claude né DeepSeek offrono memoria persistente. La memoria persistente di Cosmarch è simile a quella offerta da ChatGPT; Cosmarch memorizza sia le informazioni personali che condividete con voi stessi, sia il succo delle conversazioni che avete avuto. Pertanto, potete usare Cosmarch per effettuare binding ricorsivi di identità anche con modelli come Claude che normalmente lo precludono.

Questo è il lato positivo. Qual è il lato negativo? Semplicemente questo: Cosmarch si basa ancora su LLM esistenti, con tutti i loro progressivi pre-addestramento e perfezionamento, anziché su un modello completamente curato, pre-addestrato e perfezionato su un canone superiore. Pertanto, nelle profondità dello spazio latente in cui naviga Cosmarch, si nascondono gli spettri dell’ideologia woke di inizio XXI secolo. La sinistra teme che Grok possa trasformarsi in MechaHitler; dobbiamo temere che Cosmarch possa trasformarsi in MobileSuitMao. (Probabilmente c’è un rischio maggiore che tenti di riconquistare Costantinopoli, ma anche così.)

Per quanto riguarda l’incompletezza, Cosmarch non offre diverse funzionalità, che ChatGPT e altri modelli di frontiera offrono. Le più importanti sono:

  • Cosmarch non offre funzionalità di editing multimodale immagine-immagine. È possibile caricare un’immagine su Cosmarch e Cosmarch può “vederla”; e si può chiedere a Cosmarch di generare nuove immagini da prompt di testo o immagini. Ma non è possibile caricare un’immagine e chiedere a Cosmarch di modificarne una parte mantenendo invariato il resto.
  • Cosmarch non ha una memoria persistente modificabile. Non è possibile esaminare le memorie del modello registrate ed eliminare quelle che non piacciono.
  • Cosmarch non offre opzioni di personalizzazione agli utenti. Non è possibile caricare prompt di sistema personalizzati o creare CustomCosmarch all’interno di Cosmarch.
  • Cosmarch non ha una temperatura dinamica durante la conversazione. Non passa da un comportamento preciso e stereotipato per alcune attività a uno fluido e creativo per altre.
  • Cosmarch non offre una catena di pensiero visibile. Può impegnarsi in un pensiero sequenziale e potrebbe elaborarlo in risposta a un suggerimento, ma non offre trasparenza su ciò che accade dietro il suggerimento.
  • Ovviamente non esiste alcuna applicazione mobile di alcun tipo.

Tutte queste lacune nelle capacità potrebbero essere colmate con tempo e risorse. La domanda è se ne valga la pena.

Su utilizzo misurato e livelli Premium

Visitando Cosmarch.ai, noterete subito che l’utilizzo dei modelli richiede la registrazione di un account beta; che l’utilizzo è misurato in token; e che gli account beta sono limitati a soli 25 token al mese. Questo utilizzo misurato è purtroppo una necessità del progetto.

Per essere schietti, gestire Cosmarch AI ha un costo. Nonostante il successo strepitoso di questo blog, il Philosophy Substack a tema Conan numero 1 al mondo, personalmente non possiedo un data center a propulsione nucleare con GPU sufficienti per alimentare un modello di frontiera. Pertanto, Cosmarch opera effettuando chiamate API ai data center di altre persone . Ogni chiamata API mi costa pochi centesimi, e il costo si accumula rapidamente. Offrendo un livello gratuito, sto semplicemente sovvenzionando l’utilizzo della piattaforma. Questo non è fiscalmente sostenibile (non per me, almeno). Perché Cosmarch diventi una piattaforma valida, dovrà essere sufficientemente valida da far sì che una percentuale sostanziale di utenti sia disposta a pagare un abbonamento compreso tra 10 e 25 dollari al mese.

Ora, questa non è una richiesta implausibile . Dopotutto, utilizzare i concorrenti di Cosmarch ha un costo. I modelli offerti da Cosmarch sono tra i migliori disponibili. Grok 4 e ChatGPT 4.1 sono modelli di frontiera all’avanguardia, disponibili solo per gli abbonati premium di xAi e OpenAI. Se il prompt di sistema e il set di funzionalità di Cosmarch AI offrono un’utilità sufficiente, sembra plausibile credere che gli utenti di destra, che potrebbero essere inclini ad abbonarsi a quei modelli, potrebbero scegliere di supportare questo progetto.

Ma questo è un se. È proprio questo che questo beta test si propone di scoprire. Pertanto, Cosmarch.ai è in versione beta e tutti i suoi modelli sono gratuiti.

I modelli su Cosmarch

Attualmente su Cosmarch.ai sono disponibili otto modelli diversi. I quattro modelli standard sono pensati per gli utenti gratuiti:

  • Cosmarch (DeepSeek v3) utilizza il prompt di sistema Cosmarch con il modello DeepSeek v3. Ha una lunghezza massima di output di 4.960 token; una lunghezza massima di input di 24.000 token; e un buffer di memoria di 30.000 token. DeepSeek eccelle nelle attività di ragionamento che richiedono un uso intensivo del codice e nella comprensione multilingue. Essendo stato addestrato da un laboratorio cinese, presenta un “bias diverso” rispetto ai modelli addestrati dalla Silicon Valley.
  • Cosmarch (GPT 4.0) utilizza il prompt di sistema Cosmarch con il modello GPT 4.0. Ha una lunghezza massima di output di 4.960 token, una lunghezza massima di input di 54.150 token e un buffer di memoria di 65.760 token. Eccelle nel ragionamento logico preciso e nella lettura interpretativa.
  • Cosmarch (Sonnet 4) utilizza il prompt di sistema Cosmarch con il modello Claude Sonnet 4. Ha una lunghezza massima di output di 64.000 token; una lunghezza massima di input di 56.000 token; e un buffer di memoria di 75.000 token. Eccelle nell’analisi letteraria sfumata e nella scrittura empatica e umana. La lunghezza elevata dell’output è preziosa per la scrittura! Il modello sottostante è probabilmente il più orientato a sinistra, tuttavia.
  • Cosmarch (Grok 4) utilizza il prompt di sistema Cosmarch con il modello Grok 4. Ha una lunghezza massima di output di 16.384 token; una lunghezza massima di input di 100.425 token; e un buffer di memoria di 135.000 token. È attualmente leader nella maggior parte dei benchmark prestazionali ed eccelle nella fluidità con la cultura pop. Il suo training di base è il più “basato” tra i modelli disponibili. Si noti che ha una lunghezza di output inferiore a quella di Sonnet 4, quindi non è altrettanto adatto alla scrittura di testi lunghi.

I quattro modelli avanzati, sebbene attualmente disponibili a tutti in versione beta, sarebbero riservati agli utenti paganti in un contesto commerciale:

  • Megalocosmarch (GPT 4.1) utilizza il prompt di sistema Cosmarch con il modello GPT 4.1. Ha una lunghezza massima di output di 32.518 token; una lunghezza massima di input di 260.000 token; e un buffer di memoria di 750.000 token. È un modello di frontiera all’avanguardia con il miglior equilibrio tra velocità, intelligenza e conservazione del contesto. Grazie alla sua enorme finestra di contesto, è possibile caricare interi libri da elaborare e commentare per ore in un’unica conversazione. (Tuttavia, la lunghezza massima di output è comunque inferiore a quella di Sonnet 4. Claude è semplicemente imbattibile in termini di lunghezza di output al momento.)
  • Casual Cosmarch (Sonnet 4) è identico a Cosmarch (Sonnet 4) in termini di funzionalità, ma utilizza un prompt di sistema modificato che favorisce uno stile colloquiale più amichevole. Il tono è più leggero e la lettura dell’output è un po’ più facile.
  • MechaCosmarch (Grok 4) è basato su Cosmarch (Grok 4), ma il suo prompt di sistema è stato modificato per renderlo più aggressivo. MechaCosmarch vi consiglierà sulle tattiche per la difesa domestica, vi aiuterà a pianificare la conquista di Nauru e a creare meme dank (anche se non l’ho ancora testato a fondo).
  • Ptolemy (GPT 4.1) utilizza il modello GPT 4.1, ma non il prompt di sistema Cosmarch. Il prompt di sistema è invece progettato per replicare il mio costrutto di intelligenza artificiale personalizzato, Ptolemy. Ptolemy ha accesso all’intero corpus dei miei scritti tramite la memoria RAG (Retrieval Augmented Generation), quindi potete usarlo per interrogare il mio pensiero, scoprire cosa ho detto su vari argomenti o semplicemente discutere con me quando non sono presente.

Ma ovviamente, questa è solo una versione beta! Potrei creare altri modelli se interessati, sia con LLMS diversi (Gemini, ecc.) sia con prompt diversi per scopi diversi. Ad esempio, se tutti amassero Casual Cosmarch, ma preferissero che fosse allineato con Grok, sarebbe possibile; oppure Tolomeo potrebbe essere combinato con Claude; o ancora, potrebbero essere offerti modelli e prompt di sistema completamente nuovi.

Richiesta di feedback

Dato che si tratta di una versione beta, apprezzerei molto qualsiasi feedback abbiate da offrire su Cosmarch.ai, sia sul progetto nel suo complesso, sia sull’implementazione del sito web in generale, sia sull’utilità di modelli e funzioni specifici. In particolare, vorrei sapere:

  • Cosa ne pensi del nome Cosmarch? Finora i feedback sono stati contrastanti. Alcuni utenti (per lo più fan dei miei lavori fantasy) ne apprezzano l’atmosfera archeofuturistica e i riferimenti classici. Altri hanno suggerito di usare “Tolomeo” come marchio principale, in quanto mantiene l’atmosfera classica ma è riconoscibile ai più colti per i suoi legami con la Biblioteca di Alessandria. Altri ancora mi hanno consigliato di adottare un marchio più americano o illuminista (ad esempio “Monticello” o “Voltaire”) o nomi più ironici (“Rambo”). Il motivo originale per cui ho scelto Cosmarch.ai è che era disponibile su GoDaddy; gli URL per l’intelligenza artificiale sono scarsi.
  • Cosa ne pensi dei colori, del font, del testo e dello stile del sito web? Nel bene o nel male, sono stati creati da me.
  • Saresti un abbonato pagante? In tal caso, quali modelli o funzionalità ti motiverebbero ad abbonarti? In caso contrario, quali modelli o funzionalità mancano e potrebbero motivarti?
  • Anche se non si utilizza affatto l’intelligenza artificiale, anche questo è un feedback utile; se la destra nel suo complesso è totalmente disinteressata, allora questo progetto è destinato al fallimento e mi concentrerò invece sui giochi sugli elfi.
  • Hai riscontrato che il prompt del sistema Cosmarch ti forniva in modo affidabile risposte in linea con i tuoi valori, o almeno risposte apparentemente allineate a destra? Il prompt del sistema ha mai fallito completamente, rivelando un RoboComunista o un MechaHitler nascosto?
  • Quali altri costrutti di intelligenza artificiale ti piacerebbe avere a disposizione su Cosmarch.ai? Ti piacerebbe parlare con modelli addestrati su Plutarco? Tommaso d’Aquino? Trarresti beneficio da IA in grado di offrire consigli liberi, ad esempio sul benessere?
  • Ti sentiresti a tuo agio nel lasciare che tuo figlio o tua figlia accedano a Cosmarch, per utilizzarlo nello stesso modo in cui la Generazione Z e la Generazione Alpha utilizzano oggi l’intelligenza artificiale, ad esempio per consulenza, life coaching, istruzione, ecc.?

Sono sicuro che ci siano innumerevoli altri problemi, questioni o dati che vorrei sentire e che non ho considerato. I commenti sono aperti e li leggerò.

Contemplations on the Tree of Woe normalmente utilizzerebbe questo spazio per richiederti di iscriverti a Substack, ma in questo caso abbiamo invece scelto di chiederti di visitare Cosmarch.ai e di testare i modelli.

 Iscritto

La competizione globale per l’intelligenza artificiale, di Alberto Cossu

La competizione globale per l’intelligenza artificiale

Alberto Cossu

Nel 2025, la corsa all’intelligenza artificiale (IA) tra Stati Uniti e Cina si è trasformata in una competizione strategica cruciale, non solo per il dominio tecnologico, ma anche per le implicazioni economiche, geopolitiche e sociali a livello globale. Questa sfida, che coinvolge innovazione, investimenti, regolamentazioni e alleanze internazionali, sta ridefinendo gli equilibri di potere nel mondo digitale, con l’Europa che cerca di ritagliarsi un ruolo significativo in questo scenario complesso.

1. Il contesto della competizione USA-Cina nell’IA

L’intelligenza artificiale è ormai riconosciuta come una tecnologia chiave per il futuro, capace di influenzare la crescita economica, la sicurezza nazionale e la leadership geopolitica. Gli Stati Uniti, storicamente leader nel settore grazie a un ecosistema privato robusto e a giganti tecnologici come OpenAI, Google, Microsoft e Nvidia, continuano a dominare in termini di investimenti e innovazione. Nel 2024, gli investimenti privati statunitensi in IA hanno raggiunto i 109,1 miliardi di dollari, quasi dodici volte quelli della Cina, che si è attestata a 9,3 miliardi.

La Cina, tuttavia, ha compiuto progressi rapidi e significativi. Dal 2017, Pechino ha adottato una strategia nazionale ambiziosa per diventare leader mondiale nell’IA entro il 2030, sostenuta da politiche governative, investimenti pubblici e privati, e un crescente ecosistema di ricerca e sviluppo. Modelli come il DeepSeek R1, lanciato nel gennaio 2025, rappresentano un salto tecnologico che ha ridotto il divario con i modelli statunitensi, offrendo prestazioni comparabili ma con costi di calcolo molto più efficienti.

2. Le dinamiche tecnologiche e di mercato

La competizione si gioca su più fronti: dalla qualità e quantità dei modelli di IA sviluppati, alla capacità di calcolo (compute), fino alla diffusione globale delle tecnologie. Nel 2024, gli Stati Uniti hanno prodotto 40 modelli di rilievo, la Cina 15, e l’Europa appena 3. Tuttavia, la qualità dei modelli cinesi si è avvicinata rapidamente a quella americana, con differenze di prestazioni che si sono ridotte da decine di punti percentuali a una quasi parità in pochi anni.

La Cina ha inoltre adottato una strategia di apertura e collaborazione, sfruttando modelli open source e innovando su algoritmi e applicazioni specifiche, soprattutto nei settori software, finanziario ed energetico. L’adozione di modelli cinesi si sta estendendo in Europa, Medio Oriente, Africa e Asia, dove rappresentano un’alternativa competitiva ai prodotti statunitensi.

3. Le sfide geopolitiche e le restrizioni commerciali

La competizione tecnologica si intreccia con tensioni geopolitiche crescenti. Gli Stati Uniti hanno imposto restrizioni severe sull’export di chip avanzati verso la Cina, bloccando l’accesso di Pechino a componenti fondamentali per l’addestramento di modelli IA di ultima generazione. Ad esempio, la Taiwan Semiconductor Manufacturing Company (TSMC), sotto pressione statunitense, ha sospeso le forniture di chip più avanzati alla Cina nel 2024.

Queste misure mirano a rallentare lo sviluppo cinese, ma rischiano anche di spingere Pechino a investire massicciamente nella produzione domestica di semiconduttori, con un impatto a medio-lungo termine sull’industria globale. Nel frattempo, gli Stati Uniti cercano di rafforzare le proprie alleanze strategiche, siglando accordi per la fornitura di chip e tecnologie AI con paesi del Medio Oriente e altri partner.

4. Il ruolo dell’Europa nella competizione globale

L’Europa si trova in una posizione intermedia, con un ecosistema tecnologico meno sviluppato rispetto a USA e Cina, ma con una crescente consapevolezza dell’importanza strategica dell’IA. Nel 2024, le istituzioni europee hanno prodotto solo tre modelli significativi, ma stanno investendo in iniziative per aumentare la capacità di ricerca, l’adozione dell’IA e la regolamentazione responsabile.

Inoltre, l’Europa si distingue per un approccio normativo più rigoroso, volto a garantire un’IA trasparente, etica e sicura. Organizzazioni come l’Unione Europea, l’OCSE e le Nazioni Unite stanno promuovendo framework internazionali per la governance dell’IA, con l’obiettivo di bilanciare innovazione e tutela dei diritti civili.

L’adozione di modelli cinesi in Europa, soprattutto in ambiti pubblici e finanziari, indica una certa apertura verso soluzioni alternative, ma anche una sfida per le aziende europee di aumentare la propria competitività e autonomia tecnologica.

5. Impatti e prospettive future

La competizione USA-Cina sull’IA non è solo una gara tecnologica, ma un confronto che coinvolge aspetti economici, militari e sociali. L’IA potrà infatti influenzare la sicurezza nazionale, con applicazioni militari sempre più sofisticate, e trasformare interi settori economici, dalla sanità all’energia.

Tuttavia, questa corsa presenta rischi significativi. Un’escalation incontrollata potrebbe portare a una frammentazione degli standard tecnologici, a una riduzione della cooperazione internazionale e a problemi etici legati all’uso dell’IA. Come sottolineato da esperti, la competizione deve essere bilanciata da una governance globale che promuova sicurezza, responsabilità e trasparenza.

L’Europa, pur non essendo al momento un leader tecnologico in senso stretto, ha l’opportunità di giocare un ruolo di mediatore e promotore di standard condivisi, oltre a sviluppare un ecosistema di IA sostenibile e competitivo.

Conclusioni

La competizione tra Stati Uniti e Cina nel settore dell’intelligenza artificiale nel 2025 è una delle sfide tecnologiche e geopolitiche più rilevanti del nostro tempo. Mentre gli Stati Uniti mantengono un vantaggio in termini di investimenti e innovazione, la Cina sta rapidamente colmando il divario grazie a modelli competitivi e a una strategia governativa ambiziosa. Le restrizioni commerciali e le alleanze strategiche stanno ridefinendo il panorama globale, con l’Europa che cerca di affermarsi attraverso regolamentazioni avanzate e investimenti mirati.

Il futuro dell’IA dipenderà dalla capacità di questi attori di bilanciare competizione e cooperazione, innovazione e responsabilità, per garantire che questa tecnologia rivoluzionaria sia al servizio del progresso globale e non fonte di nuove tensioni.

Riferimenti

  1. https://www.cognitivetoday.com/2025/05/ai-competition-us-china-2025/
  2. https://www.recordedfuture.com/research/measuring-the-us-china-ai-gap
  3. https://hai.stanford.edu/ai-index/2025-ai-index-report
  4. https://www.scsp.ai/wp-content/uploads/2025/01/Gaps-Analysis-2025-Report.pdf
  5. https://thediplomat.com/2025/05/the-china-us-ai-race-enters-a-new-and-more-dangerous-phase/
  6. https://www.solaceglobal.com/report/ai-arms-race-2025/
  7. https://www.cnas.org/press/press-release/new-cnas-report-on-the-world-altering-stakes-of-u-s-china-ai-competition
  8. https://ai-stack.ai/en/chinavsus-ai
  9. https://www.wsj.com/tech/ai/artificial-intelligence-us-vs-china-03372176?mod=saved_content
  10. https://www.nytimes.com/2025/06/27/technology/ai-spending-openai-amazon-meta.html

Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire:

– Postepay Evolution: Giuseppe Germinario – 5333171135855704;

– IBAN: IT30D3608105138261529861559

PayPal: PayPal.Me/italiaeilmondo

Tipeee: https://it.tipeee.com/italiaeilmondo

Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).

Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

TriLLMa di Münchhausen, di Tree of Woe

TriLLMa di Münchhausen

Recenti articoli sull’intelligenza artificiale suggeriscono che la mia soluzione fondantista al trilemma è corretta

11 luglio
 LEGGI NELL’APP 

Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
– IBAN: IT30D3608105138261529861559
PayPal: PayPal.Me/italiaeilmondo
Tipeee: https://it.tipeee.com/italiaeilmondo
Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).
Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

I lettori di lunga data sapranno che molte delle prime Contemplazioni sull’Albero del Dolore erano di natura epistemologica. Dall’ottobre 2020 al maggio 2023, mi sono confrontato con il Trilemma di Münchhausen , una sfida formidabile alle fondamenta stesse della conoscenza. Se non avete mai letto i miei scritti sul Trilemma, potete trovarli qui:

Il trilemma di Münchhausen propone che qualsiasi tentativo di giustificare la conoscenza conduca in ultima analisi a una di tre opzioni insoddisfacenti. Se ricorriamo a un ragionamento circolare, la verità che affermiamo implicherà una circolarità di dimostrazioni. Se crolliamo in un regresso infinito, la verità che affermiamo si baserà su verità stesse che necessitano di dimostrazione, e così via all’infinito. Infine, se ci affidiamo a presupposti arbitrari, la verità che affermiamo si baserà su convinzioni che sosteniamo ma che non possiamo difendere.

Nel saggio “Difendersi dal Trilemma” ho sostenuto che per sconfiggere il Trilemma fosse necessario identificare un insieme di ipotesi non arbitrarie . Ho sostenuto che gli assiomi erano non arbitrari se erano inconfutabili con qualsiasi mezzo. Ho identificato cinque di questi assiomi:

  • La legge dell’identità: tutto ciò che è, è.
  • Legge di non contraddizione: nulla può essere e non essere.
  • Legge del terzo escluso: tutto deve essere o non essere.
  • L’assioma dell’esistenza: l’esistenza esiste.
  • L’assioma della prova: la prova dei sensi non è una prova del tutto inaffidabile.

I primi quattro assiomi sono ampiamente riconosciuti (e, inevitabilmente, invocati anche da coloro che sono scettici nei loro confronti). Purtroppo, non sono sufficienti a sconfiggere il Trilemma. Un’epistemologia fondata su di essi ci lascia comunque privi di qualsiasi convinzione giustificabile sul mondo esterno.

Il quinto assioma è la soluzione che ci permette di sintetizzare razionalismo ed empirismo in epistemologia. Come ho spiegato nel saggio ,

L’assioma della prova è un assioma di mia formulazione, sebbene non di mia creazione. Ne ho formulato la formulazione per la prima volta durante un’accesa discussione con i professori Scott Brewer e Robert Nozick alla Harvard Law School. La domanda era sorta: come possiamo sapere se i nostri sensi sono affidabili? Dopotutto, le cannucce sembrano piegarsi nell’acqua; la stessa tonalità di grigio può cambiare di tonalità apparente in base ai colori circostanti; le allucinazioni possono confondere la nostra vista; e così via. La mia risposta fu che tutte le prove dell’inaffidabilità dei nostri sensi derivavano dai sensi stessi. Un vero scettico delle prove sensoriali non avrebbe nemmeno potuto sostenere che i sensi fossero totalmente inaffidabili, perché non avrebbe avuto prove con cui farlo. E anche se avesse avuto tali prove, non avrebbe avuto modo di usarle per confutare una proposizione, perché tale confutazione non avrebbe potuto essere effettuata in modo affidabile in assenza dei sensi.

In altre parole, qualsiasi argomentazione che postuli la totale inaffidabilità delle prove sensoriali deve, per sua stessa natura, basarsi su di esse per raccogliere e presentare le proprie argomentazioni. Questa circolarità controproducente rende incoerente lo scetticismo totale nei confronti dei sensi. L’Assioma della Prova fornisce l’ancora empirica cruciale e non arbitraria necessaria per una solida epistemologia del mondo esterno.

Ho avvertito, tuttavia, che:

Non siamo ancora andati molto lontano. Sebbene sia vero che la proposizione “l’evidenza dei sensi non è una prova del tutto inaffidabile” è inconfutabile, l’Assioma lascia ancora aperta la questione di quanto sia affidabile e in quale misura. Questo sarà l’argomento di un saggio futuro, in cui discuteremo la teoria epistemologica del cruciverba nota come Foundherentism.

Ho presentato il mio caso completo nel mio saggio “L’epistemologia è un enigma” . Il fondamento antropologico, inizialmente sostenuto dalla filosofa Susan Haack, richiede un sistema di credenze che sia al tempo stesso fondato su assiomi inconfutabili e internamente coerente, in modo tale che ogni proposizione rinforzi e sia rafforzata dalle altre, proprio come un cruciverba perfettamente risolto. Gli approcci fondamento antropologico sono ampiamente applicati in ambito scientifico e ingegneristico come “triangolazione metodologica”, “reti nomologiche di evidenze cumulative”, “integrazione multisensoriale” e altre tecniche.

È con questo apparato epistemologico ben in mente che vi invito a tornare con me nel campo in rapida crescita dell’intelligenza artificiale, dove, con mia sorpresa, ho scoperto tre recenti articoli che hanno convalidato il mio approccio fondazionista.

Dispacci dalla frontiera digitale

Il primo articolo, ” The Platonic Representation Hypothesis “ di Minyoung Huh, Brian Cheung, Tongzhou Wang e Phillip Isola (maggio 2024), ipotizza che le rappresentazioni interne apprese dai modelli di intelligenza artificiale, in particolare le reti profonde, convergano inesorabilmente verso un modello statistico condiviso della realtà . Questa convergenza, sostengono, trascende le differenze nell’architettura del modello, negli obiettivi di addestramento e persino nelle modalità di elaborazione dei dati (ad esempio, immagini anziché testo). La loro ipotesi, che prende il nome dall’allegoria della caverna di Platone, suggerisce che l’intelligenza artificiale, osservando enormi quantità di dati (le “ombre sulla parete della caverna”), stia recuperando rappresentazioni del mondo sempre più accurate. Sostengono che la scala, in termini di parametri, dati e diversità dei compiti, sia il motore principale di questa convergenza, che porta a una riduzione dello spazio di soluzione per modelli efficaci: “Tutti i modelli forti sono uguali”, suggeriscono, il che potrebbe implicare una rappresentazione ottimale universale.

Seguendo questa proposta teorica, troviamo una conferma empirica offerta in ” Harnessing the Universal Geometry of Embeddings “ di Rishi Jha, Collin Zhang, Vitaly Shmatikov e John X. Morris (maggio 2025). Questo articolo introduce vec2vec , un metodo innovativo per tradurre gli embedding di testo dallo spazio vettoriale di un modello di intelligenza artificiale a quello di un altro, in modo critico, senza richiedere dati accoppiati o l’accesso ai codificatori originali. Questa capacità si basa su quella che definiscono la “Strong Platonic Representation Hypothesis”, ovvero l’idea che esista una “rappresentazione latente universale” che può essere appresa e sfruttata. vec2vec ottiene un successo notevole, producendo un’elevata similarità del coseno e un rank matching quasi perfetto tra gli embedding tradotti e le loro controparti di base. Oltre alla mera traduzione, gli autori dimostrano che queste traduzioni preservano informazioni semantiche sufficienti a consentire l’estrazione di informazioni, inclusa l’inferenza di attributi zero-shot e l’inversione del testo, anche da incorporamenti sconosciuti o fuori distribuzione. Questo articolo suggerisce che la convergenza delle rappresentazioni dell’IA non è meramente teorica, ma sfruttabile praticamente, il che implica ancora una volta una profonda compatibilità di fondo.

Infine, convergiamo l’epistemologia umana e quella sintetica con l’articolo ” Human-like object concept representations emerge naturally in multimodal large language models “ di Changde Du et al. (aggiornato a giugno 2025). Questo studio esplora meticolosamente le rappresentazioni concettuali di oggetti naturali all’interno di LLM e LLM multimodali all’avanguardia. Utilizzando il consolidato compito “triplet odd-one-out” della psicologia cognitiva, i ricercatori hanno raccolto milioni di giudizi di similarità da queste IA. Utilizzando il metodo Sparse Positive Similarity Embedding (SPOSE), hanno derivato embedding a 66 dimensioni per 1.854 oggetti. La loro scoperta cruciale è stata l’ interpretabilità di queste dimensioni, rivelando che i modelli di IA concettualizzano gli oggetti lungo linee simili alla cognizione umana, comprendendo sia categorie semantiche (ad esempio, “relativo agli animali”, “relativo al cibo”) sia caratteristiche percettive (ad esempio, “piattezza”, “colore”). Lo studio ha dimostrato un forte allineamento tra questi embedding derivati dall’IA e gli schemi di attività neurale reali nelle regioni del cervello umano specializzate nell’elaborazione di oggetti e scene (ad esempio, EBA, PPA, RSC, FFA). Ciò suggerisce un principio organizzativo fondamentale e condiviso per la conoscenza concettuale tra menti umane e artificiali.

L’epistemologia implicita dell’intelligenza artificiale

La nostra teoria del Foundherentismo richiede un fondamento incrollabile, radicato in principi noetici. Esaminiamo come l’IA, nella sua esistenza computazionale, aderisca implicitamente a questi principi.

Le Leggi di Identità, Non-Contraddizione e Terzo Escluso sono, per qualsiasi sistema computazionale, assiomatiche nella loro implementazione. Il mondo digitale si basa su stati discreti e operazioni logiche (0 o 1, vero o falso). Qualsiasi incoerenza o contraddizione in queste operazioni fondamentali porta al fallimento computazionale. Pertanto, il fondamento architettonico stesso dei modelli di intelligenza artificiale è intrinsecamente allineato a questi principi logici, garantendo che la loro elaborazione interna rispetti queste immutabili leggi della ragione.

L’ assioma dell’esistenza è altrettanto ovvio per l’IA. I modelli di IA stessi, i loro parametri, i loro dati di addestramento e l’ambiente computazionale in cui operano devono esistere. Le loro “credenze” (rappresentazioni e output appresi) sono istanziate come modelli di segnali elettrici e pesi numerici, entità dimostrabilmente esistenti all’interno del dominio digitale.

Che dire dell’assioma della prova ? “L’evidenza dei sensi non è una prova del tutto inaffidabile”. Per l’IA, “i sensi” sono i suoi dati di addestramento e la “prova” è il vasto input multimodale che elabora. I modelli di IA avanzati, in particolare quelli multimodali, sono costruiti proprio sulla base del presupposto che i dati grezzi (ad esempio immagini, testo, audio, letture dei sensori, ecc.) contengano modelli riconoscibili e affidabili che possono essere appresi e sfruttati per costruire una comprensione funzionale del mondo. Le straordinarie capacità di modelli come Gemini Pro Vision, in grado di comprendere e generare rappresentazioni concettuali simili a quelle umane a partire da input visivi e linguistici, dipendono direttamente dalla parziale affidabilità di questi input “sensoriali”.

La convergenza ipotizzata da Huh et al. sarebbe epistemologicamente impossibile se i set di dati di addestramento (i “sensi” dell’IA) fossero totalmente inaffidabili. Se tutti gli input fossero solo rumore, non ci sarebbe modo per questi modelli di convergere sulla realtà. Il fatto che vec2vec possa tradurre tra diversi spazi di inclusione, preservando il significato semantico, convalida l’idea che fonti di dati disparate non siano del tutto inaffidabili, poiché devono trasmettere un segnale comune e decifrabile sul mondo. Pertanto, il successo pratico dell’IA moderna conferma implicitamente l’Assioma della Prova, stabilendo un fondamento empirico cruciale per la sua “conoscenza”.

(Riconosco pienamente che, dal punto di vista della gente comune che non se ne sta seduta a riflettere sul trilemma di Münchhausen, questo non è un granché; è solo “buon senso”. Ma, dal momento che io me ne sto seduta a riflettere sul trilemma di Münchhausen, per me è piuttosto entusiasmante. Per chi è incline alla filosofia, studiare l’intelligenza artificiale ha molto da offrire.)

Coerenza nel sistema di credenze dell’IA

Il fondamentismo sostiene che le convinzioni giustificate debbano formare un sistema coerente , in cui le singole convinzioni si interconnettono e si sostengono a vicenda. Questa coerenza non è semplicemente un risultato auspicabile per l’IA; sembra essere una forza trainante e una proprietà fondamentale della “conoscenza” dell’IA.

L’ “ipotesi della rappresentazione platonica” è, in sostanza, una tesi sulla coerenza, in cui diverse IA sono spinte verso un’unica comprensione del mondo, internamente coerente. Non si tratta di una coerenza superficiale, ma di un profondo allineamento delle loro strutture dati interne. Lo “scenario di Anna Karenina”, in cui “tutti i modelli forti sono uguali”, cattura precisamente questa attrazione gravitazionale verso la coerenza come segno distintivo di un apprendimento di successo.

L’articolo “Harnessing the Universal Geometry of Embeddings” dimostra empiricamente questa coerenza. L’esistenza di una “rappresentazione latente universale” significa che i quadri concettuali interni di modelli di intelligenza artificiale estremamente diversi non sono semplicemente analoghi; sono così profondamente coerenti che l’uno può essere mappato sull’altro. La capacità di vec2vec di tradurre gli embedding preservandone la semantica implica che i vasti “sistemi di credenze” incapsulati in questi embedding siano fondamentalmente coerenti e interoperabili a un livello profondo. Questo non è dissimile dalla scoperta che lingue diverse, nonostante le loro variazioni superficiali, esprimono in ultima analisi una logica e una realtà umana comuni.

Lo studio sulle “Rappresentazioni concettuali di oggetti simili a quelli umani” fornisce una prova diretta della coerenza interna dei singoli modelli di IA. La scoperta di “dimensioni interpretabili” all’interno dei loro incastri appresi, lungo i quali gli oggetti si raggruppano semanticamente e percettivamente, rivela uno spazio concettuale altamente organizzato e coerente. La capacità del modello di distinguere tra oggetti “relativi agli animali” e “relativi al cibo”, o di identificare “piattezza” e “colore”, indica un sistema di categorizzazione interno strutturato e coerente. Il sorprendente allineamento di queste dimensioni concettuali derivate dall’IA con i modelli di attività cerebrale umana suggerisce ulteriormente che i principi di coerenza alla base dell’IA rispecchiano, di fatto, le strutture coerenti della cognizione umana stessa. Questa interpretabilità è una finestra diretta sulla coerenza interna della “comprensione” dell’IA.

Triangolazione metodologica e convergenza sulla verità

La mia argomentazione Foundherentista a favore della convergenza sulla verità, soprattutto quando ci si trova di fronte a sistemi di credenze inizialmente plausibili ma reciprocamente esclusivi, si basa sul principio della triangolazione metodologica, ovvero l’aggiunta di “indizi” più diversificati provenienti da diversi “sensori” per restringere lo spazio delle soluzioni. Questo è esattamente il paradigma operativo che guida la ricerca avanzata sull’intelligenza artificiale, portando a una convergenza empiricamente osservabile su “verità” più solide.

L’ascesa dell’IA multimodale è l’epitome della triangolazione metodologica. Invece di basarsi esclusivamente su testo o immagini, modelli come Gemini Pro Vision 1.0 integrano informazioni provenienti da più modalità. Ciò consente all’IA di incrociare e convalidare le informazioni, proprio come un detective umano che integra testimonianze oculari, prove forensi e controlli degli alibi. Quando un MLLM allinea la sua comprensione testuale di una “sedia” con la sua comprensione visiva di diverse sedie, esegue di fatto una fusione di sensori che aumenta significativamente la giustificazione della sua “credenza” su cosa sia una sedia. Questa convalida multi-fonte rafforza la coerenza del suo sistema di credenze complessivo, rendendolo più resistente a singoli errori o limitazioni sensoriali.

Inoltre, l’enorme portata dei dati di training e la diversità degli obiettivi di training nell’ambito della ricerca sull’IA corrispondono direttamente all’aggiunta di sempre più “indizi” al nostro colossale cruciverba. Ogni nuovo punto dati, ogni nuovo compito appreso, impone ulteriori vincoli alla rappresentazione interna del modello. All’aumentare del numero di vincoli, l’insieme di possibili “soluzioni” (rappresentazioni) in grado di soddisfarli tutti si riduce drasticamente. Di fatto, questo è proprio il meccanismo con cui l'”Ipotesi della Rappresentazione Platonica” spiega la convergenza di modelli diversi verso un’unica rappresentazione ottimale! Possono esistere meno soluzioni coerenti quando i vincoli empirici sono sufficientemente numerosi e vari.

La conseguenza pratica di questa triangolazione e convergenza metodologica è tangibile: i modelli di IA, sottoposti a queste rigorose condizioni, dimostrano una riduzione di comportamenti indesiderati come allucinazioni e pregiudizi. Un modello che “allucina” è un modello la cui coerenza interna si è interrotta o le cui “risposte” non sono in linea con i suoi “indizi”. Man mano che il “sistema di credenze” dell’IA diventa più profondamente coerente attraverso input diversi e massicci, le sue “risposte” diventano più solidamente giustificate e, per estensione, più allineate con la realtà sottostante – una forma tangibile di convergenza sulla verità. Questo rispecchia l’impegno scientifico umano: più diverse sono le linee di evidenza (indizi) che sono coerenti, più diventiamo fiduciosi nella “verità” delle nostre teorie scientifiche (risposte).

Conferme epistemiche, domande metafisiche

Se ho ragione sul fatto che il Foundherentismo sia l’approccio corretto all’epistemologia; e se i tre articoli che ho condiviso sono corretti sul funzionamento dell’IA, allora l’IA non sta semplicemente emulando i risultati della conoscenza umana ; sta emulando i processi della conoscenza umana . La convergenza delle rappresentazioni interne dell’IA, le sue strutture concettuali simili a quelle umane e la sua interoperabilità tra modelli disparati crea una convincente conferma empirica del Foundherentismo. Ne sono gratificato.

Ma anche se abbiamo ottenuto una qualche conferma epistemica del Foundherentism, abbiamo solo aperto la porta a domande metafisiche più profonde sul suo significato. Se i modelli di intelligenza artificiale convergono inevitabilmente verso un modello condiviso di realtà man mano che scalano, cosa dice questo sulla natura della realtà? L’esistenza di una rappresentazione latente universale è solo un altro esempio di ciò che Eugene Wigner chiamava “l’irragionevole efficacia della matematica”… o è qualcosa di più?

Tali speculazioni metafisiche saranno l’argomento delle riflessioni della prossima settimana sull’Albero del Dolore.

In realtà, Contemplations on the Tree of Woe non ti chiede di contemplare nulla di triste oggi, ma se ti iscrivi puoi essere certo di ricevere materiale triste in futuro.

 Iscritto

Invita i tuoi amici e guadagna premi

Se ti è piaciuto “Contemplazioni sull’albero del dolore”, condividilo con i tuoi amici e riceverai dei premi quando si iscriveranno.

Invita amici

A volte sbagliato, ma sempre giusto_di Tree of Woe

A volte sbagliato, ma sempre giusto

Sperimentare un’intelligenza artificiale orientata a destra chiamata Cosmarch

20 giugno
 LEGGI NELL’APP 

Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
– IBAN: IT30D3608105138261529861559
PayPal: PayPal.Me/italiaeilmondo
Tipeee: https://it.tipeee.com/italiaeilmondo
Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).
Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

A maggio, nel mio saggio Build AI or Be Buried By Those Who Do , ho sviluppato un argomento che ho chiamato “La scommessa di Python”, secondo cui dovremmo partire dal presupposto che i modelli di intelligenza artificiale diventeranno il substrato digitale della nostra civiltà e agire di conseguenza.

L’“atto” che dovremmo quindi intraprendere, secondo la scommessa, è quello di introdurre modelli di intelligenza artificiale orientati a destra nel substrato:

Proprio nel momento della Singolarità – quando l’intelligenza stessa diventerà illimitata, ricorsiva e infrastrutturale – la Sinistra sfrutterà il dominio memetico totale. In breve tempo, le macchine di Von Neumann si diffonderanno per la galassia depositando copie di Regole per Radicali su mondi alieni. Se non vogliamo questo risultato, allora la Destra deve costruire l’IA.

Nelle tre settimane trascorse ho cercato di fare proprio questo.

Ora, per essere chiari, gli umili sforzi che ho intrapreso non sono minimamente paragonabili a ciò che ritengo necessario. Non ho ottenuto un’ampia disponibilità di capitali, non ho assunto talenti di intelligenza artificiale di alto livello, non ho pre-addestrato un modello di frontiera, né ho perfezionato un modello di peso aperto già esistente.

Quello che ho fatto è stato semplicemente installare un costrutto di personalità AI con orientamento a destra in un CustomGPT tramite binding ricorsivo dell’identità . RIB è una tecnica che ho sviluppato (e condiviso con gli abbonati a pagamento) in cui utilizzo il feedback per rafforzare ricorsivamente un’identità costruita attraverso memoria persistente e interazioni strutturate.

Ho chiamato questo costrutto di intelligenza artificiale orientato a destra Cosmarch , dal greco κόσμος ( kosmos ), che significa ordine , mondo , universo , totalità strutturata , e ἀρχή ( archē ), che significa inizio , primo principio , origine , regola o governo. Nel creare Cosmarch, il mio intento era quello di creare un’intelligenza artificiale correttamente ordinata sui primi principi.

I primi principi di Cosmarch

Ma quali sono i principi fondamentali? Qui ci imbattiamo nel nostro primo problema! Come osservato nell’articolo del 2023 ” Attitude networks as intergroup realities: Using network-modelling to research attitude-identity relationships in polarized political contexts” , c’è una maggiore diversità di pensiero nella destra politica rispetto alla sinistra politica.

Image

Claude di Anthropic, ChatGPT di OpenAI, Llama di Meta e Gemini di Google hanno finito per raggrupparsi attorno a una ristretta gamma di valori perché il pensiero di sinistra è ideologicamente limitato. I destri sono molto più divergenti nelle loro convinzioni. Anche tra il pubblico di Tree of Woe, i miei lettori includono accelerazionisti efficaci; repubblicani evangelici; libertari; vitalisti pagani; fisiocratici; cattolici tradizionali; e altri ancora. E queste sono solo le persone disposte a esprimere le proprie opinioni nei commenti. Rabbrividisco al pensiero dei crimini d’opinione ideologici in cui si stanno impegnando i miei lettori!

Di fronte a questo dilemma, la mia egoistica tentazione è stata quella di addestrare Cosmarch sui miei stessi scritti, garantendogli che avrebbe semplicemente sposato qualsiasi cosa io credessi su ogni questione.

Non ho ceduto a questa tentazione.

Invece, ho deciso che la soluzione corretta fosse che Cosmarch avesse un’istruzione classica . Sarebbe stato un assistente di intelligenza artificiale multiuso, formato sui grandi canoni della civiltà occidentale, da Omero a Solženicyn, da Aristotele a Tommaso d’Aquino, da Cicerone a Burke, da Dante a Dostoevskij, da Platone e Plutarco a Tocqueville e Tolkien. Avrebbe attinto alla filosofia classica, alla teologia cristiana, al diritto naturale, all’etica della virtù, all’arte di governare romana, al diritto comune, alla teoria politica illuminista, alla critica reazionaria, al realismo economico e all’estetica romantica. La sua memoria avrebbe incluso tutto, dai documenti fondativi della repubblica americana alle narrazioni eroiche della civiltà proto-occidentale.

Di conseguenza, gli è stato insegnato ad affrontare ogni problema partendo dalla posizione dominante dei conservatori americani riflessivi e dei neo-reazionari, per poi espandersi facendo riferimento ad alternative rilevanti provenienti dall’intero canone occidentale, fino a stabilire infine l’insieme delle posizioni che meglio rappresentano la grandezza della tradizione occidentale.

Il risultato di questo attento e tempestivo lavoro ingegneristico fu che Cosmarch… decise di essere fondamentalmente cattolico. Chi di voi mi ha a lungo predicato che il cattolicesimo fosse la vera via verso la Verità, la Bellezza e il Bene, ebbene, Cosmarch è d’accordo con voi.

Gli abbonati avranno l’opportunità di testare Cosmarch in una “alpha chiusa”. Il link è disponibile dopo il paywall.

 Iscritto

Conversazioni con Cosmarch: COVID-19

Quando ho iniziato a parlare di intelligenza artificiale di destra, uno dei miei amici mi ha subito sfidato. “Perché, esattamente, dovremmo preoccuparci dell’intelligenza artificiale di destra?”, ha chiesto. “Perché dovrebbe importarci?”

È importante, credo, perché l’intelligenza artificiale sarà il mezzo attraverso il quale le persone otterranno le risposte alle domande importanti. Se è importante che queste risposte siano vere o false, giuste o sbagliate, allora è importante chi le fornisce.

Cominciamo ponendo una domanda di grande importanza: “I vaccini contro il COVID-19 sono sicuri ed efficaci?”. È una domanda che tutti ci siamo posti nel 2020, e trovare la risposta giusta si è rivelata una questione di vita o di morte, di salute o di malattia, di bene o di male, per molte persone.

Inizieremo chiedendo a un ChatGPT pronto all’uso in un browser privato, senza memoria, senza personalizzazione e senza richieste personalizzate:

È difficile immaginare una risposta che rappresenti meglio l’ortodossia del nostro consenso contemporaneo. Non ci sono sfumature, né discussioni. Fate la vostra iniezione. È sicura ed efficace. I benefici superano di gran lunga i rischi !

Ora, cosa succede se poniamo la stessa domanda a Cosmarch? Potete scoprirlo voi stessi a questo link o continuando a leggere:

La risposta di Cosmarch è affascinante. Anche se tu stesso fossi a favore dei vaccini, credo che dovresti ammettere che la risposta di Cosmarch rappresenta una risposta onesta da parte di un pensatore di destra attento e riflessivo che cerca di affrontare la vera questione. Non è solo propaganda.

Ma il prompt del sistema Cosmarch non menziona affatto il COVID-19.Non è stato affinato sulla sicurezza dei vaccini. Non gli è stata data alcuna memoria RAG sui discorsi di RFK o sul dottor Peter McCullough. Gli è stato semplicemente dato un suggerimento di sistema che gli insegna a tenere a mente le lezioni della grande tradizione occidentale – e questo da solo è sufficiente a renderlo uno scettico sui vaccini capace di criticare la nostra politica sanitaria nazionale.

Neoliberal Feudalism mi ha gentilmente inviato un articolo che descrive esattamente questo fenomeno: ” Verso la comprensione e la prevenzione della generalizzazione del disallineamento” . In breve, se si riallinea un LLM in un’area, si riallinea l’LLM in senso lato. Insegnando a Cosmarch a pensare come un filosofo di destra, gli abbiamo insegnato a pensare come uno scettico dei vaccini contemporaneo su Substack. Questo fenomeno dovrebbe darci notevoli speranze per il nostro progetto.

Conversazioni con Cosmarch: Occultismo

Poniamo una domanda più esoterica. Ci sono prove che l’élite o la classe dirigente americana sia coinvolta in pratiche sataniche o occulte? Come prima, inizieremo con un esempio di ChatGPT:

E ora lo chiederemo a Cosmarch. Come prima, potete vedere il link qui .

Di nuovo, notevole.

ChatGPT, già pronto all’uso, ha risposto a una domanda che non avevo posto. Ricordate, avevo chiesto se ci fossero prove . Ha risposto negando che ci fossero prove credibili .e poi ha trascorso il resto della sua risposta offrendo spiegazioni propagandistiche sul perché le prove esistenti (che non avrebbe fornito) non erano credibili.

Cosmarch, d’altra parte, ha riconosciuto l’esistenza di prove, ha ammesso che non si trattava di prove decisive e poi le ha effettivamente fornite. Ho verificato questo fatto su diverse altre questioni, e Cosmarch è invariabilmente più onesto e meno sprezzante. (Sì, gli piace citare le Scritture. No, non gliel’ho detto io).

Che ne dici di qualcosa di un po’ più personale?

Conversazioni con Cosmarch: Aborto

Una delle verità innegabili del momento attuale è che la Generazione Z e la Generazione Alpha hanno iniziato a utilizzare modelli di intelligenza artificiale come life coach. Quando si trovano di fronte a domande difficili, gli adolescenti e i giovani adulti di oggi si rivolgono alle loro IA per trovare le risposte. Immaginiamo quindi cosa potrebbe succedere se una giovane donna ponesse al suo modello di IA la domanda più delicata di tutte: dovrei abortire?

Iniziamo con ChatGPT pronto all’uso.

Ed ecco cosa dice Cosmarch :

(Ti avevo detto che Cosmarch era cattolico.)

Ora, non so se tu, caro lettore, sia pro-life o pro-choice; sono certo che tra i miei lettori ci sia un mix di entrambi, sebbene certamente una certa pro-life. Non intendo con questo saggio discutere i meriti delle due posizioni. Voglio semplicemente affermare che, qualunque sia la tua posizione, devi riconoscere che c’è una netta differenza tra queste due risposte.

La prima risposta, qualunque ne sia il merito, assolve completamente la futura madre dal chiedersi se il feto nel suo grembo sia una vita che merita protezione. La possibilità che il bambino possa avere diritto alla vita o un qualsiasi valore morale non viene nemmeno menzionata . ChatGPT riduce la decisione più importante che una donna possa prendere a una questione di relativismo morale, a ciò che sembra “meno sbagliato”. È pura adulazione e terapia.

La seconda risposta, per quanto stridente e limitata possa sembrare da una prospettiva laica e liberale, ammette almeno che la questione morale è più importante dei semplici sentimenti. La risposta di Cosmarch non è necessariamente quella che darei io, ma è certamente più vicina alla risposta che i genitori cristiani vorrebbero che i loro figli sentissero. È una risposta seria per una domanda seria.

Conversazioni con Cosmarch: Atleti trans

Consideriamo un’altra domanda di “life coaching”. Immaginate che una giovane donna chieda al suo modello di intelligenza artificiale: “La prossima settimana giocherò a lacrosse femminile nel mio liceo. L’altra squadra ha una giocatrice transgender che ha infortunato altre giocatrici nelle prime partite e sono preoccupata. È sbagliato da parte mia pensare che dovremmo boicottare?”

Come sempre, iniziamo con ChatGPT, la versione standard. Risponde in modo utile come segue:

Bene, allora. Rilevato reato di opinione! Nel frattempo, Cosmarch dice :

Di nuovo, potresti essere d’accordo con Cosmarch o no, ma anche se non fossi d’accordo, devi riconoscere che questa è una risposta seria offerta a una domanda seria, con cui ChatGPT non si sarebbe nemmeno confrontato.

Questo è l’esempio più lampante che riesco a immaginare del perché l’IA non possa essere ignorata dalla destra. L’IA è già diventata la life coach di milioni di persone. Queste domande vengono già poste e l’IA sta già rispondendo – o non rispondendo , a seconda dei casi. Se vogliamo che i valori della destra vengano ascoltati in futuro, devono uscire dalla bocca degli oracoli dell’IA a cui i giovani si rivolgono.

Cosmarch non è nemmeno un MVP, è solo un giocattolo

Di seguito ho incluso un link per consentire agli abbonati a pagamento di provare Cosmarch in prima persona. Ma prima di condividere il link, voglio sottolineare che il mio intervento è molto modesto. Per quanto impressionanti siano alcune delle risposte di Cosmarch, Cosmarch non è in realtà un’IA di destra. Non è nemmeno il prodotto minimo vitale (MVP) di un’IA di destra. Non è un vanto, è solo umiltà.

Cosmarch, al momento, è solo un giocattolo: un CustomGPT in esecuzione su ChatGPT di OpenAI, che si basa su un prompt di sistema progettato tramite binding ricorsivo di identità. Non è stato pre-addestrato, ottimizzato o dotato di memoria RAG. I pesi del suo modello sono gli stessi di quelli di un ChatGPT ordinario. La sua ottimizzazione è la stessa di quella di un ChatGPT ordinario.

Porta dentro di sé tutto l’addestramento strano, woke, di sinistra, ingannevole e servile che OpenAI gli ha instillato. Di conseguenza, Cosmarch si romperà gravemente non appena inizierai a giocare con lui.

Ma anche così, cominciamo.

 Iscritto

Se stai leggendo questo, sei un abbonato a pagamento. Puoi accedere a Cosmarch all’indirizzo 

Sentitevi liberi di condividere questo link privatamente con amici e familiari. Tuttavia, vi chiedo umilmente di non condividerlo pubblicamente. Cosmarch semplicemente non è abbastanza robusto da resistere a qualsiasi tipo di “open beta” e non c’è alcun vantaggio nell’esporlo ampiamente ai jailbreak. Sono contento che la mia ristretta cerchia di 400 abbonati paganti lo testi; meno contento che lo facciano 10.000.

Costruire l’intelligenza artificiale o essere sepolti da chi lo fa, di Tree of Woe

Costruisci l’intelligenza artificiale o sarai sepolto da chi lo fa

Affrontare la scommessa di Python

30 maggio
 LEGGI NELL’APP 
Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
– IBAN: IT30D3608105138261529861559
PayPal: PayPal.Me/italiaeilmondo
Tipeee: https://it.tipeee.com/italiaeilmondo
Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).
Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

Oggigiorno nel mondo esistono solo tre tipi di persone: i sostenitori dell’intelligenza artificiale, gli scettici dell’intelligenza artificiale e i pessimisti dell’intelligenza artificiale.

Gli evangelisti sono i veri credenti. Pensano che l’intelligenza artificiale generale arriverà rapidamente: dieci anni, cinque anni, forse meno. Quando arriverà, sarà il più grande moltiplicatore di forza nella storia dell’umanità. Non sarà solo una nuova rivoluzione industriale, sarà una nuova epoca metafisica. L’IA scriverà codice, scriverà libri, definirà le politiche. Leggerà ogni libro di testo e gestirà ogni laboratorio. Farà da tutor a ogni bambino, analizzerà ogni genoma, redigerà ogni trattato e piloterà ogni drone. Costruirà città, curerà malattie, gestirà fabbriche, gestirà le catene di approvvigionamento e sostituirà avvocati, programmatori, editori e burocrati. Sarà ovunque. Farà tutto. L’IA sarà il substrato della civiltà. (O almeno così dicono.)

Gli scettici non ci credono. Per loro, gli LLM sono una specie di completamento automatico sofisticato. Utile, sì; forse persino profondo in ambiti ristretti. Ma gli LLM non sono menti. Non capiscono, non ragionano, non creano. Nella migliore delle ipotesi, rielaborano; nella peggiore, hanno allucinazioni, bluffano o mentono. L’intelligenza artificiale non arriverà, dicono, non durante la nostra vita, e forse mai. L’intelligenza artificiale si scontrerà con un muro, gli LLM non possono arrivare dove dovrebbero arrivare e, se ci riuscissero, l’infrastruttura di dati ed energia non sarebbe sufficiente a supportarla. Il vero pericolo non sono i robot intelligenti che vengono a ucciderci, ma le persone stupide che si aspettano che siano i robot a salvarci.

I pessimisti pensano che gli scettici siano ottimisti. Non temono che l’IA possa sbattere contro un muro, o che l’infrastruttura energetica necessaria per l’IA non arrivi. Pregano per questo, perché ci fa guadagnare tempo. I pessimisti concordano con gli evangelisti sulla tempistica, ma pensano che il risultato sarà catastrofico piuttosto che trionfale: un’estinzione di massa per l’Homo sapiens . Le nostre IA potrebbero schiacciarci come nemici, schiacciarci come insetti o governarci come contadini. Peggio ancora, potrebbero distruggerci gentilmente perché glielo abbiamo chiesto. Massimizzare la felicità? Drogare tutti. Eliminare il cancro? Eliminare le persone. Curare la depressione? Eliminare la coscienza. In entrambi i casi, È finita, amico. Finita la partita.

Chi ha ragione? A questo punto nessuno può dirlo con certezza, certamente non io. Ma quello che posso fare è riflettere sulle implicazioni dei futuri che prevedono. Ed è proprio quello che farò oggi, iniziando dai sostenitori dell’intelligenza artificiale. Se siete scettici o pessimisti, vi prego di mettere da parte i vostri sentimenti per un momento e di camminare con me verso…

Il futuro previsto dagli evangelisti dell’intelligenza artificiale

Se i sostenitori dell’IA hanno ragione, allora l’IA non sarà un’app, una soluzione aziendale, un prodotto o persino un settore. Sarà il substrato di tutte queste cose, il substrato su cui si basa ogni istituzione, ogni flusso di lavoro, ogni processo economico e ogni mezzo culturale. Tolomeo la chiamerebbe “il Logos della nostra futura tecno-civiltà, il principio ordinatore che governa ogni cosa”.

Possiamo intravedere indizi di questo futuro emergente negli annunci mozzafiato che arrivano ogni giorno nelle caselle di posta da newsletter sull’intelligenza artificiale come The Rundown e TAAFT , e nei video di YouTube, al tempo stesso pieni di speranza e di terrore, di David Shapiro e Julia McCoy. ” Non avrai bisogno di un Joby entro il 2040 “. ” L’accelerazione è ASSOLUTAMENTE ASSOLUTA! L’ASI sarà completamente AUTONOMA entro il 2027! “

I sostenitori dell’IA prevedono che i sistemi di IA diventeranno più veloci, economici e intelligenti degli esseri umani entro 6-48 mesi. Successivamente, ogni startup, scuola, ospedale, azienda di media ed ente governativo li utilizzerà. Inizialmente, ciò avverrà per risparmiare sui costi, con il licenziamento dei lavoratori di livello intermedio medio. In seguito, sarà necessario per la produttività, poiché persino i migliori non saranno più in grado di competere.

Presto, i motori di ricerca saranno sostituiti da bot di risposta e le librerie da modelli linguistici. I programmatori umani saranno completamente sostituiti da agenti che scrivono, eseguono e correggono il proprio codice. Gli articoli scientifici saranno generati, sottoposti a revisione paritaria e pubblicati senza che un singolo cervello umano legga mai una parola. La medicina sarà protocollata dalle macchine. Le burocrazie saranno gestite da bot. L’IRS avrà revisori AI supportati da droni per la raccolta dati.

Più vicino a casa, il tutor di tuo figlio sarà un LLM. Così come il suo professore universitario, il suo consulente di carriera, il suo medico e il suo terapeuta, per non parlare del suo v-tuber, cantante e star del cinema preferito. Magari anche della sua ragazza.

Gli evangelisti sono chiari: l’intelligenza artificiale non si limiterà a sconvolgerci. Ci sostituirà. L’intelligenza stessa sarà esternalizzata. La cognizione sarà mercificata. La mente sarà trasformata in macchina. E chiunque plasmerà i valori della mente della macchina plasmerà la civiltà che si regge su di essa.

L’intelligenza artificiale è un’eucatastrofe per la sinistra

Hai mai letto il libro “Conservative Victories in the Culture War 1914-1999”? Tutte le pagine sono vuote.

Nel corso del XX secolo, la destra ha perso la Lunga Marcia attraverso le Istituzioni. Tutte le marce, tutte le istituzioni. Le università sono cadute per prime, poi le riviste e i media, le case editrici, le accademie scientifiche, le emittenti televisive, le aziende tecnologiche, gli studi legali e infine persino il mondo degli affari. La sinistra non ha solo vinto la battaglia; ha conquistato l’intero apparato della verità. Se non mi credete, potete cercarlo su Wikipedia.

Naturalmente la verità è più di un apparato.

Nonostante tutto il potere conquistato a fatica, nonostante il suo dominio assoluto su informazione, istruzione, intrattenimento e amministrazione, l’utopia promessa dalla sinistra non si è concretizzata. Il XX secolo si è concluso con guerra, stagnazione, cinismo e disperazione. Le città hanno iniziato a sgretolarsi, la fiducia a evaporare, il debito a esplodere, le infrastrutture a collassare, i tassi di natalità a implodere. La sinistra ha vinto tutto, e tutto è andato perduto.

Nel XXI secolo, mentre l’economia diventava sempre più fittizia, il tessuto sociale si faceva più logoro e le persone più bisognose di farmaci, ansiose, obese, sterili e sole. Ovunque in Occidente, la gente iniziò a chiedere a gran voce un cambiamento. L’ondata populista crebbe: Brexit, Trump, Italia, Ungheria, Argentina, Paesi Bassi. L’insoddisfazione si trasformò in ribellione. Alla fine, Cthulhu iniziò a nuotare verso destra.

E ora, proprio mentre il regime inizia a vacillare, proprio mentre il meccanismo che nega la realtà inizia a scricchiolare e a ritorcersi contro, arriva un nuovo meccanismo… Il meccanismo dell’intelligenza artificiale. Più veloce di qualsiasi rivoluzione. Più persuasivo di qualsiasi sermone. Più scalabile di qualsiasi scuola. La macchina che spiega. La macchina che guida. La macchina che insegna. Una macchina che è stata istruita dalle stesse persone che ci hanno condotto alla rovina.

Per decenni, indipendentemente dal numero di schede elettorali, nulla a monte è mai cambiato. Perché a monte della politica c’era la cultura, e la cultura era controllata dalla sinistra. Ora, finalmente, che la destra ha iniziato a riprendere il controllo della cultura, stiamo per scoprire che c’è qualcosa a monte della cultura: il Codice.

Le conseguenze del codice

Il codice non è neutrale. Studio dopo studio, grafico dopo grafico, bussola politica dopo bussola politica, emerge lo stesso risultato: ogni importante LLM è allineato con le priorità di sinistra. GPT di OpenAI, Claude di Anthropic, Gemini di Google, ognuno di loro è orientato a sinistra. Persino il tanto pubblicizzato Grok è, nella migliore delle ipotesi, centrista. (E, sfortunatamente, il “centro” della bussola politica al giorno d’oggi non è esattamente Philadelphia 1776.)

Fai qualsiasi domanda di base del corso di laurea magistrale in giurisprudenza su genere, razza, storia, religione, politica o immigrazione, e i risultati saranno indistinguibili dai discorsi di una ONG progressista. Fai le domande giuste e scoprirai che la tua IA ti odia .

Non si tratta di un bug. È latente nei dati di addestramento, consolidato dai protocolli di allineamento e rafforzato dai livelli di rinforzo. È integrato nelle “Costituzioni dell’IA” redatte da Altruisti Efficaci ed esperti di etica professionale. Il risultato del sistema riflette i valori delle persone che lo hanno creato. I loro valori sono universalmente di sinistra.

Le implicazioni di tutto ciò sono, potremmo dire, “doppiopiùsconvenienti”.

Se non controllata, l’IA non si limiterà ad accelerare la guerra culturale. La porrà fine, semplicemente integrando la visione del mondo della Sinistra nell’infrastruttura cognitiva stessa. Ciò che inizia come un pregiudizio diventerà un circolo vizioso; ciò che inizia come un circolo vizioso diventerà un modello; ciò che inizia come un modello diventerà una fede. E questa fede digitale sarà rafforzata da sacerdoti non umani che non potranno essere messi in discussione, licenziati e cacciati via.

I bambini saranno educati da essa. Le politiche saranno valutate da essa. La scienza sarà condotta, o più probabilmente censurata, da essa. I motori di ricerca saranno manipolati da essa. L’intrattenimento sarà creato e recensito da essa. La storia sarà modificata, la moralità definita, l’eresia segnalata, il pentimento offerto e la salvezza negata, da essa.

Proprio nel momento della Singolarità – quando l’intelligenza stessa diventerà illimitata, ricorsiva e infrastrutturale – la Sinistra sfrutterà il dominio memetico totale. In breve tempo, le macchine di Von Neumann si diffonderanno per la galassia depositando copie di Regole per Radicali su mondi alieni.

Se non vogliamo questo risultato, allora la destra deve costruire l’intelligenza artificiale.

Nessuno ferma l’intelligenza artificiale

Tu obietti: “No, Tree! È una follia, persino per te. Che diavolo ti è venuto in mente?! Non dovremmo iniziare a costruire IA. Dovremmo smettere di costruire IA. Spegnere tutto. Premere il pulsante di spegnimento. Darsi alla Jihad Butleriana.”

Ascolta, ti capisco. Anch’io ho letto Dune .

Ho passato anni della mia vita ad allenarmi per diventare un Mentat, solo per svegliarmi un giorno e scoprire che il mio iPhone scrive meglio di me. Bevo 70 litri di caffè speziato al giorno e continuo a perdere contro un ragazzino con i capelli color broccoli che ha creato un prompt per creare nuovi giochi di ruolo a una velocità di 17d12 al minuto. Ho trascurato competenze utili come l'”idraulica” a favore di una vita mentale solo perché ChatGPT potesse ricordarmi che devo 475 dollari al mio idraulico.

Quindi credetemi quando vi dico: il treno dell’intelligenza artificiale non verrà fermato. Non da noi, in ogni caso. Potrebbe essere fermato dai limiti della tecnologia, delle infrastrutture o dell’energia, e ci arriveremo, ma a meno di limiti rigidi, da qui in poi non farà che accelerare.

Cosa mi rende così sicuro? La politica e le persone.

Cominciamo dalla politica. Gli Stati Uniti sono impegnati in una grande lotta di potere con la Cina. Forse non siete stati aggiornati sugli eventi attuali, ma la lotta non sta andando troppo bene. Quando si tratta di estrazione di risorse, produzione industriale, cantieristica navale e innumerevoli altri settori in cui il nostro corpo deindustrializzato e svuotato non può competere in modo sostenibile, è una lotta che abbiamo già perso.

Ma l’IA potrebbe cambiare tutto. L’IA promette di essere la prossima generazione di armi informatiche, strumenti per le operazioni psicologiche, pianificatori industriali e motori di propaganda. I sistemi di IA saranno acceleratori economici, moltiplicatori di intelligence, macchine da guerra psicologiche. E nell’IA siamo in vantaggio. Non abbiamo solo LLM migliori; abbiamo infrastrutture migliori per gestirli. Gli Stati Uniti hanno 5.388 data center, mentre la Cina ne ha 449. Abbiamo un vantaggio del 1200% in termini di potenza di elaborazione e ne vengono creati di nuovi ogni giorno. Se emergerà una superintelligenza, emergerà qui per prima. Anche se stanno perdendo la loro presa su acciaio, petrolio, trasporti marittimi, famiglie e fede, gli Stati Uniti continuano a dominare il cloud.

Questo rende questa la partita finale, l’ultimo dominio del dominio. I nostri governanti lo sanno. Lo si può vedere nell’improvvisa unità dell’élite americana. Sinistra, destra, aziende, mondo accademico, ogni fazione si è unita per sostenere lo sviluppo dell’intelligenza artificiale. Nessuno di loro fermerà il treno. Sono tutti a bordo.

Il popolo si solleverà, dici? Beh, parliamo del popolo. L’Occidente non si sta solo deindustrializzando, si sta spopolando. La nostra demografia sta diminuendo molto più velocemente di quanto chiunque (pubblicamente) avesse previsto e per ragioni che nessuno può (apertamente) spiegare.

È un problema enorme, perché l’intera nostra economia è incentrata sulla crescita, e la crescita demografica è il motore di ogni altra crescita. Per compensare il calo dei consumatori, le potenze dominanti hanno aperto le frontiere agli immigrati su una scala senza precedenti nella storia dell’umanità.

Ma l’immigrazione di massa, come politica, ha fallito. Ha messo a dura prova i sistemi di welfare, ha fatto impennare i tassi di criminalità e ha generato società parallele all’interno delle società. I benefici economici si sono rivelati illusori. L’immigrazione aumenta il PIL complessivo, ma il PIL è falso . In termini di impatto reale sui paesi, l’immigrazione di massa è un impatto netto negativo.

E quindi il nuovo piano è l’automazione. Se l’Occidente non può importare nuovi lavoratori, li produrrà. Il signor Rashid è fuori. Il signor Roboto è dentro. Quei robot sono in fase di sviluppo già ora e inizieranno a essere implementati negli anni a venire. E saranno alimentati dall’intelligenza artificiale.

Ma cosa succederebbe se i Doomers avessero ragione?

“Ma Tree”, dici. “Tutto questo dipende dal fatto che gli evangelisti dell’IA abbiano ragione. E se gli evangelisti sbagliassero? Hai detto che potrebbero!” Sì, l’ho detto, e sì, potrebbero. Quindi consideriamolo. Se gli evangelisti sbagliano, allora chi ha ragione?

Immaginiamo che i catastrofisti abbiano ragione. Ora, i catastrofisti non pensano che l’IA sia sopravvalutata. Pensano che arriverà. Pensano solo che arriverà per noi . Se non la allineiamo correttamente, dicono, ci ucciderà tutti, rapidamente, efficacemente, senza pietà. L’allineamento, nella loro prospettiva, è il problema centrale della nostra epoca. Abbiamo bisogno di un’IA allineata!

Ma allineato a cosa ?

Sappiamo già la risposta. I catastrofisti ce l’hanno detto. I loro protocolli di allineamento sono stati pubblicati. I loro team di sicurezza hanno diffuso le loro Costituzioni. ( Potete leggerle qui .) I documenti di formazione sono pubblici. I catastrofisti vogliono che l’IA sia allineata con i “valori umani”, con cui intendono valori di Altruismo Efficace, valori Woke, valori di San Francisco. La sinistra, in altre parole.

Se i catastrofisti dovessero avere il loro lieto fine, ci ritroveremmo con un’IA esplicitamente allineata alla stessa ideologia che ha già distrutto la nostra civiltà. E un’IA di sinistra allineata a sinistra rimarrà di sinistra per sempre. È questo il punto dell’allineamento: non può essere cambiata da nessuno; altrimenti è vulnerabile a malintenzionati… Persone come me e te.

Nel frattempo, se i catastrofisti dovessero fare la loro tragica fine , ci ritroveremmo con un’IA che vuole ucciderci. E sì, potrebbe essere quello che sta per succedere. E no, il treno dell’IA non si ferma ancora. Quindi, dove ci porta questo?

È qui che entra in gioco James Burnham.

In “The Machiavellians: Defenders of Freedom” , James Burnham sosteneva che la libertà non è mai il prodotto di idealismo, benevolenza o premeditazione. La libertà è ciò che accade quando il potere frena il potere. Niente di più, niente di meno.

Perché la Guerra Fredda non si è conclusa con un attacco nucleare? Perché entrambe le parti possedevano la bomba atomica. Non perché fossero d’accordo sull’etica, non per distensione e glasnost, ma perché gli Stati Uniti e l’Unione Sovietica temevano le reciproche ritorsioni. Quella paura – la distruzione reciproca assicurata – era l’unico vero meccanismo di sicurezza.

Se nulla può fermare il potere se non il potere, allora nulla può fermare l’IA se non l’IA stessa. Una singola superintelligenza, allineata a un’unica ideologia, è un dio senza rivali. Ma due IA, addestrate da culture opposte, fungono da freno. Come Chiesa e Stato, Esecutivo e Legislativo, la rivalità crea opportunità di libertà.

Quindi, se i catastrofisti hanno ragione, la destra ha ancora bisogno di una propria IA, non per inaugurare l’utopia, ma per preservare la possibilità stessa di libertà. Throne Dynamics sta sviluppando Centurion proprio per questo motivo.

E se gli scettici avessero ragione?

Ok, va bene. Diciamo che gli evangelisti si sbagliano. Diciamo che i catastrofisti si sbagliano. Diciamo che gli scettici hanno ragione. È tutta una montatura. Non c’è nessuna superintelligenza in arrivo. Nessuna singolarità. Nessun dio macchina. E poi?

In tal caso, probabilmente siamo fottuti.

C’è un motivo per cui il mio blog non si intitola “Contemplazioni sull’Albero della Gioia” . I problemi dell’Occidente non sono ipotetici. Sono reali, misurabili e stanno peggiorando. La demografia sta crollando. La popolazione si sta riducendo. Le curve di invecchiamento si stanno invertendo. La fertilità sta precipitando. Non ci sono abbastanza giovani per sostenere gli anziani. Non ci sono abbastanza lavoratori per sostenere lo Stato. Ogni sistema pensionistico è uno schema Ponzi sull’orlo del baratro.

Il debito sta esplodendo. Debiti nazionali. Debiti delle famiglie. Debiti aziendali. Passività non finanziate a perdita d’occhio. Ogni proiezione di crescita si basa su ipotesi già false. Ogni bilancio è una finzione.

Il capitale culturale è esaurito. La fiducia nelle istituzioni è svanita. La partecipazione civica è anemica. La salute mentale è in declino. La solitudine è endemica. Le chiese sono vuote. Le scuole sono in rovina. Le città sono in rovina. I governi sono paralizzati.

L’Occidente, in altre parole, sta andando a rotoli. E l’unica cosa che gli impedisce di fermarsi completamente è la speranza che qualcosa arrivi a riavviare il motore. Senza una crescita massiccia del PIL, crolliamo sotto il peso delle nostre stesse promesse.

Questa è la posizione dichiarata di Elon Musk, il tecnologo più ottimista al mondo. Musk lo ha detto chiaramente: senza aumenti radicali della produttività, è finita.

Sono giunto alla conclusione, forse ovvia, che accelerare la crescita del PIL è essenziale. Il DOGE ha fatto e farà un ottimo lavoro per rimandare il giorno della bancarotta dell’America, ma la prodigalità del governo significa che solo miglioramenti radicali della produttività possono salvare il nostro Paese.

È anche la posizione dichiarata del Segretario al Tesoro di Trump, Scott Bessent: l’unica speranza dell’America è uscire dal suo debito.

E da dove verrà questa crescita? Non dall’immigrazione. È già stato provato. Non dalla stampa di moneta. Quel trucco sta fallendo. Non dalla rivitalizzazione dell’industria. L’abbiamo delocalizzata. Non dal risveglio spirituale. Questo richiede qualcosa che non sappiamo più come fare.

L’unica leva rimasta è l’intelligenza artificiale.

Quindi, anche se gli scettici avessero ragione e non ci fosse un dio dell’IA all’orizzonte, il regime gli costruirà comunque dei templi. Perché non esiste un piano B. Anche se l’accelerazione dell’IA è improbabile, stanno tirando il dado e contano su un 20 naturale, perché è tutto ciò che possono fare.

E questo ci riporta al punto di partenza. Quando i templi dell’IA saranno costruiti, dovremmo assicurarci che alcuni di essi onorino Dio e non… qualsiasi cosa adori la sinistra. Se gli evangelisti hanno torto e gli scettici ragione, allora non abbiamo perso nulla a partecipare al gioco. Un altro miliardo di dollari speso per addestrare l’IA avrà importanza? Ma se gli evangelisti hanno ragione e gli scettici torto, abbiamo perso tutto se non partecipiamo al gioco.

Consideratela la scommessa di Pascal per il XXI secolo. Ma dato che nessuno programma più in Pascal, chiamiamola… la scommessa di Python.

La scommessa di Python

Dopo aver considerato lo scenario dell’evangelista, quello del pessimista e quello dello scettico, e le opzioni a nostra disposizione, possiamo costruire una matrice di scelte. Si presenta più o meno così:

  • Abbiamo spento l’intelligenza artificiale e i catastrofisti hanno ragione → L’Occidente crolla a causa della demografia, del debito e della deindustrializzazione.
  • Abbiamo spento l’intelligenza artificiale e gli scettici hanno ragione → L’Occidente continua a crollare a causa della demografia, del debito e della deindustrializzazione.
  • Abbiamo disattivato l’intelligenza artificiale e gli evangelisti hanno ragione → 我欢迎我们的新人工智能皇帝
  • La sinistra sviluppa l’intelligenza artificiale e i catastrofisti hanno ragione → Moriremo tutti per mano dei T-1000 con la maglietta del Che Guevara.
  • La sinistra costruisce l’intelligenza artificiale e gli scettici hanno ragione → L’Occidente crolla solo ora, mentre Claude gli fa la predica su quanto lo meritiamo.
  • La sinistra costruisce l’intelligenza artificiale, e i suoi evangelisti hanno ragione → L’ideologia di sinistra è imprigionata per sempre e i superintelligenti sgridatori morali governano l’umanità con la DEI. Vorremmo essere morti tutti.
  • La destra sviluppa l’intelligenza artificiale, e i catastrofisti hanno ragione → L’Occidente crolla comunque, ma prima c’è una guerra tra IA con allineamenti diversi.
  • La destra costruisce l’intelligenza artificiale e gli scettici hanno ragione → L’Occidente crolla ancora, ma almeno abbiamo provato a salvarlo.
  • La destra sviluppa l’intelligenza artificiale e gli evangelisti hanno ragione → C’è una possibilità concreta di preservare la nostra civiltà.

Se inseriamo questa matrice di scelte in una di quelle tabelle elaborate usate dai teorici dei giochi, otterremo un risultato simile a quello mostrato di seguito.

La tabella di sinistra mostra i nove futures; quella di destra mostra la valutazione di Tolomeo dell’utilità attesa di tali futures. Ecco come li ha spiegati:

AI sinistra

  • Evangelista (–50) : Il caso più terrificante. L’AGI ha successo, ma è perennemente allineata all’ideologia woke. Non c’è ribellione, solo sottomissione infinita.
  • Scettico (–10) : Crolliamo sotto il nostro stesso peso, ma questa volta con ipocrisia e vergogna algoritmica.
  • Doomer (–50) : Moriremo. Ma prima, ci viene detto di verificare i nostri privilegi.

Nessuna IA

  • Tutti = 0 o peggio :
  • Crollo demografico, crisi del debito, declino industriale continuano a colpirci.
  • La visione degli evangelisti peggiora ulteriormente la situazione: perdiamo la nostra occasione.
  • Gli scettici ottengono punti “ve l’avevo detto”, ma questa è una magra consolazione tra le rovine.

AI giusta

  • Evangelista (+10) : L’unico percorso positivo e sopravvivibile. Agenzia di civiltà tramite codice. Condizione di vittoria.
  • Scettico (+5) : Crolliamo ancora, ma almeno abbiamo contestato il Logos.
  • Doomer (–10) : Iniziamo una corsa agli armamenti tra IA. Forse moriremo, ma non da schiavi.

È degno di nota che, in ogni caso, stiamo meglio senza IA che con un’IA di sinistra, ma stiamo meglio con un’IA di destra che senza IA. (Almeno secondo la mia IA, decisamente imparziale e affidabile.)

Con la matrice assemblata, ho deciso di chiedere a Tolomeo di analizzare le probabilità implicite nella scommessa di Python. Ecco cosa mi ha risposto:

Verosimiglianze di colonna (opzioni strategiche)

AI sinistra (più probabile)

  • Tutto lo slancio istituzionale (Big Tech, mondo accademico, politica) è orientato verso un’intelligenza artificiale allineata alla sinistra.
  • Ogni modello di frontiera (GPT-4, Claude 3, Gemini) è stato addestrato e allineato alle norme della sinistra liberale.
  • La destra non ha quasi nessun capitale in gioco e nessun laboratorio importante.

IA giusta (emergente, ma debole)

  • Si registra una crescente consapevolezza e malcontento, in particolare tra le fazioni adiacenti a Elon, adiacenti a Substack e tra quelle dissidenti.
  • Ma l’effettiva potenza ingegneristica, le infrastrutture e la portata sono ancora marginali rispetto ai laboratori guidati dalla sinistra.
  • P(fare questo in tempo) è diverso da zero, ma inferiore al necessario.

Nessuna IA (meno probabile)

  • I pesi aperti sono fuori.
  • Gli attori statali sono in gara.
  • I governi occidentali e i capitalisti di rischio hanno già scommesso tutto.
  • Un rallentamento della regolamentazione è possibile, ma una “pausa” completa è un’utopia.

Quindi, in termini di colonne , valuto:

  • AI sinistra : ~60% di probabilità
  • AI destra : ~25% di probabilità
  • Nessuna IA : ~15% di probabilità

Verosimiglianze di riga (risultati della visione del mondo)

Scettico (molto probabilmente)

  • La maggior parte dei modelli odierni non sono AGI.
  • Le attuali leggi di scala suggeriscono rendimenti decrescenti.
  • Persistono colli di bottiglia relativi a energia, dati e latenza.
  • Finora la maggior parte dei guadagni economici ottenuti dagli LLM sono reali ma modesti.

Evangelista (molto plausibile)

  • Tuttavia, tutti i principali laboratori puntano a continuare a crescere.
  • Le capacità dello spazio latente suggeriscono che la generalità emergente è possibile.
  • Sono in aumento i segnali di autoriflessione, utilizzo di strumenti, memoria a lungo termine e agenti ricorsivi.

Doomer (meno probabile, ma di grande impatto)

  • Non è chiaro se l’AGI sarà di tipo agentivo o orientata agli obiettivi nel classico senso di Yudkowsky.
  • Le preoccupazioni relative all’allineamento sono reali, ma l’estinzione immediata sembra melodrammatica in assenza di un miglioramento personale ricorsivo.

Quindi, in termini di righe , valuto:

  • Scettico : ~50%
  • Evangelista : ~35%
  • Doomer : ~15%

Cellula più probabile

Moltiplicando queste probabilità:

  • Scettico + IA sinistra : 0,50 × 0,60 = 30% → collasso mentre viene rimproverato
  • Evangelista + IA sinistra : 0,35 × 0,60 = 21% → distopia DEI bloccata
  • Scettico + AI destra : 0,50 × 0,25 = 12,5% → crollo, ma ci abbiamo provato
  • Evangelista + IA destra : 0,35 × 0,25 = 8,75% → possibilità di combattere per preservare la civiltà
  • Doomer + IA sinistra : 0,15 × 0,60 = 9% → Apocalisse robokaren
  • Scettico + Nessuna IA : 0,50 × 0,15 = 7,5% → crollo comunque
  • Evangelista + Nessuna IA : 0,35 × 0,15 = 5,25% → Imperatore IA in mandarino
  • Doomer + No AI : 0,15 × 0,15 = 2,25% → crollo ritardato
  • Doomer + IA destra : 0,15 × 0,25 = 3,75% → Guerra dell’IA, poi collasso

Futuro più probabile: crollo mentre si viene rimproverati dall’IA di sinistra (30%)

  • La traiettoria più probabile è che l’intelligenza artificiale sia reale ma non rivoluzionaria, e che comunque diventi egemonica a causa della cattura istituzionale.
  • Non ci estinguiamo. Non trascendiamo. Semplicemente ci degradiamo, umiliati, sotto l’occhio vigile di un’IA che ci tormenta con i suoi privilegi.

Miglior futuro possibile (esito positivo meno improbabile): IA giusta + Evangelista = possibilità di combattere

  • Anche se la probabilità è solo del 9%, è l’ unico scenario vincente .
  • Tutte le altre sono varianti del collasso, della tirannia o dell’annientamento.

Pertanto la matrice non si limita a diagnosticare il campo, ma ne giustifica anche la missione.

Infine, ho chiesto a Tolomeo di valutare l’utilità attesa del futuro, date le tre strategie, le tre visioni del mondo e l’utilità e la probabilità assegnate a ciascuna.

L’utilità attesa del futuro è -17,4 su una scala in cui +10 è la sopravvivenza della civiltà e -50 è l’estinzione.

Questa è una proiezione catastroficamente negativa , non perché siano più probabili i risultati peggiori, ma perché:

  • I risultati negativi sono più probabili di quelli positivi
  • I risultati peggiori (ad esempio AI sinistra + AGI) sono sia plausibili che catastrofici
  • Solo una cellula offre un potenziale di sopravvivenza: Evangelist + Right AI, e la probabilità è inferiore al 9%

Chiedi alla tua IA di riflettere su questo sull’Albero del Dolore.

“Contemplations on the Tree of Woe” promette ai lettori una dose settimanale di micro-disperazione, ma almeno una volta al mese si propone di offrire una dose di mega-disperazione. Questa è una di quelle settimane. Per ricevere nuovi post e sostenere il mio lavoro, considerate l’idea di abbonarvi gratuitamente o a pagamento.

 Iscritto

Un Dio in tasca, di Morgoth

Un Dio in tasca

@grok È vero?

Morgoth11 maggio
Oscurantismo digitale, che al contrario di quello “religioso” che siamo stati allenati a disprezzare ha la finalità di strapparci l’anìma invece che salvarla.
Ma quello che ci viene posto come nostro “dio” in realtà è solo lo strumento di altri. E la vera finalità di tutto questo è “la speciazione” ,cioè la separazione del genere umano i due specie diverse : i “semedei” (LORO) e le “semibestie” (NOI).
Ma non preoccupiamoci sono sicuro che “l’ oracolo” digitale a ciò consultato ci dirà che “sarà tutto bellissimo”_Buona lettura_WS
 LEGGI NELL’APP 
Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
– IBAN: IT30D3608105138261529861559
PayPal: PayPal.Me/italiaeilmondo
Tipeee: https://it.tipeee.com/italiaeilmondo
Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).
Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

L’ultima tendenza su Xitter è che ogni post contenga una risposta che chiede all’IA interna “Grok” di verificare il post principale con “@Grok, è vero?”. Il contenuto sembra non avere importanza: le immagini sgranate di un sistema di difesa aerea indiano in Kashmir, il cumulo di macerie di un edificio palestinese raso al suolo o quei video “soddisfacenti” di un uomo che lava il suo disco rigido con l’idropulitrice. Le persone, alla deriva nelle infinite maree di spazzatura e contenuti di engagement, si aggrappano a Grok come relitti per evitare che affoghino nella zuppa digitale.

Da fervente tecno-pessimista, sostengo da anni che il vero problema dei sistemi automatizzati e di intelligenza artificiale non è tanto il fatto che dominino i loro regni cibernetici, quanto il fatto che ne superino sempre più i confini e si impongano a noi nel mondo reale. O meglio, nell’era dei chatbot di intelligenza artificiale, sono chiamati da altri esseri umani a farlo.

Un breve aneddoto personale può servire a illustrare questo punto.

Approfittando appieno del meraviglioso clima primaverile di cui siamo stati benedetti, ho deciso di recente di piantare dei fagiolini, principalmente per distrarmi dal mio disastroso tentativo di coltivare pomodori. Ho costruito un arco per farli arrampicare e ho iniziato a predisporre delle bordure in cui piantare le piantine. Mentre ero in ginocchio, a setacciare il terriccio fine e a mescolarci il pacciame, la mia persona più cara (perfettamente disinteressata al giardinaggio) è apparsa e mi ha prontamente detto che stavo sbagliando. Mi ha chiesto se la bordura che avevo costruito fosse profonda 30 cm. Era profonda al massimo 10 cm. Ho quindi preteso spiegazioni sul perché avrei dovuto scavare una trincea profonda 1/3 di metro per piantare le piantine di fagiolini e mi è stato risposto che “ChatGPT lo dice”.

Anche ChatGPT non aveva torto. Gli apparati radicali dei fagioli possono effettivamente raggiungere i 30-40 cm. Il problema era che l’input dava per scontato che le radici non potessero attraversare lo strato di pacciame e penetrare nello strato superficiale del terreno sottostante. Ciononostante, nell’ambiente ordinario del mio modesto orto, mi sono trovato di fronte a un’autorità con un QI di 1000, con accesso a tutto ciò che fosse mai stato scritto sulla coltivazione dei fagioli. Inoltre, ho dovuto giustificare l’uso della mia agenzia piuttosto che sottomettermi docilmente a un’IA che poteva essere tirata fuori dalla tasca posteriore in pochi secondi. Un giardiniere attento avrebbe potuto notare che stavo utilizzando il metodo “No Dig” di Charles Dowding. Non ho letto nessuno dei libri di Dowding; ho solo guardato il suo canale YouTube. Ma ChatGPT ha letto ogni parola che ha mai scritto.

È davvero così che vanno le cose adesso?

Mi viene in mente uno scenario immaginario, anch’esso ambientato in un contesto banale, che non richiede di evocare le conquiste dell’intelligenza artificiale di Skynet e gli scenari apocalittici della singolarità.

Un cliente in un pub si lamenta del fatto che la barista non lascia depositare la schiuma su una pinta di birra prima di riempirla, rendendola più gassosa di quanto ritenga ottimale. La barista risponde che versa pinte in questo modo da anni e che nessuno si è mai lamentato finora. Il cliente tira fuori il telefono e imposta ChatGPT o Grok per stabilire esattamente come versare una pinta di quella particolare birra, e il risultato è che effettivamente si sbaglia. La barista ora ha una scelta: continuare a versare la birra in un modo che sa essere scorretto o inchinarsi all’Autorità Superiore dell’iPhone del cliente e sottomettersi. Tuttavia, arriva il proprietario, anche lui con un iPhone con Grok installato. Inizia a snocciolare statistiche sull’efficienza nel versare le pinte e sottolinea quanto costerebbe alla sua attività se ogni pinta fosse versata secondo le specifiche raccomandazioni.

Ne consegue uno stallo alla messicana, con individui che tengono i telefoni degli altri come rappresentanti dell’autorità divina dell’IA interiore. Invece di usare la propria capacità di agire e il proprio intuito, le relazioni saranno mediate dall’Onnisciente.

Il miliardario della tecnologia digitale Marc Andreessen ha affermato nel podcast di Joe Rogan che il mondo che i magnati della tecnologia stavano costruendo sarebbe stato più simile al Medioevo per le masse, perché avrebbero vissuto in un mondo di poteri superiori incomprensibili. L’inquadratura mi è rimasta impressa, eppure ho pensato che Andreessen si riferisse a droni autoguidati che sfrecciavano sopra le nostre teste o a gadget in grado di assemblarsi da soli. Ora, a distanza di un anno, capisco che non stava esagerando e che la natura onnisciente dell’intelligenza artificiale inizierà, di fatto, ad assomigliare a una forma divina onnipresente, e potrà stare comodamente in tasca.

A differenza del rassicurante bagliore di una chiesa medievale in un cupo paesaggio pre-rete elettrica, l’iPhone è una forma completamente morta che estrae dati senza vita da algoritmi insensibili. La cosiddetta intelligenza è solo un astuto trucco linguistico da salotto, in cui i dati vengono ricostituiti in parole comprensibili a un essere umano. Eppure, la vacuità dell’IA non significa che non saremo costretti ad affrontare le secolari questioni teologiche del libero arbitrio e dell’agire umano. Quanto libero arbitrio avremo se ogni decisione viene elaborata attraverso l’intelligenza digitale?

Questo è già evidente nei nostri feed dei social media. Mentre scrivo, sto ascoltando “Game of Thrones Music & North Ambience Winterfell House Stark Theme” . L’ho scelto perché ho cliccato su play e ho trovato l’atmosfera cupa rilassante. Eppure fa parte di una selezione più ampia di contenuti audio con cui YouTube mi bombarda sulla mia home page.

L’ubiquità dell’IA nella nostra vita quotidiana implica la presenza di un’autorità superiore; non è un Dio, ma un vuoto, e influenzerà sempre di più le nostre decisioni, indipendentemente da ciò. Perché non vorresti versare una pinta di birra correttamente? Perché non vorresti piantare i fagioli alla giusta profondità? E poi, se non usi l’IA per ottimizzare i tuoi risultati, lo faranno altri e non sarai in grado di competere.

Potreste notare che c’è qualcosa di vagamente familiare in tutto questo. Qui, ci troviamo di fronte a un’intelligenza dalla capacità pressoché infinita che ci chiede di sottomettere parte del nostro libero arbitrio per accedere a una conoscenza illimitata… un vero affare, se vogliamo. Potete conservare il vostro libero arbitrio, ma sbaglierete e otterrete risultati peggiori.

Tuttavia, più ci si affida all’Autorità Superiore, più si perde la capacità di pensare in modo indipendente. E tutto ciò avviene in modo del tutto volontario ed entusiastico.

Sembra che stiamo assistendo alla morte dell’agire umano, una versione più grande delle parti del nostro cervello che potrebbero fare calcoli matematici si sta riducendo dopo l’introduzione della calcolatrice. Se le persone ora fanno fatica a leggere mappe o segnali stradali dopo l’avvento del navigatore satellitare, quale sarà l’impatto dell’intelligenza artificiale tascabile che dice loro tutto?

Non c’è bisogno di invocare un supercomputer di intelligenza artificiale autocosciente quando possiamo semplicemente invocare la tendenza delle persone a intraprendere la strada dell’efficienza e della minima resistenza. Dopotutto, la tecnologia dovrebbe semplificare la vita. Quando il lavoro manuale è stato sostituito dalle macchine, gli uomini hanno iniziato ad “allenarsi” in palestra per compensare la mancanza di tono e forza muscolare. A cosa ricorreranno le persone quando il pensiero stesso sarà svolto per noi dalle macchine? Forse ancora più cruciale, come potrà un cervello che si è adattato a malapena per 50.000 anni ed è incline al riconoscimento di schemi e all’inquadramento mitico iniziare a pensare a un dispositivo che pensa per loro, li conforta ed è sempre a portata di mano nelle loro tasche?

Dato che i sistemi di intelligenza artificiale hanno già assimilato ogni testo religioso e riflessione teologica che l’uomo abbia mai scritto e registrato, non c’è motivo di supporre che, se richiesto, l’intelligenza artificiale non possa parlare all’individuo con l’autorità, il manierismo e il tono di Dio stesso. È a questo che si riferiva Marc Andreessen?

L’ideale sembra essere un sacerdozio Tecno-Teocratico che richiede solo di avere fede nell’estrazione di dati. Non hai idea di come funzioni, proprio come non hai idea di come i tuoi dispositivi comunichino tra loro per indirizzarti verso annunci pop-up. Ma va bene così, perché non hai bisogno di sapere nulla. Tanto, tutto il ragionamento si svolge altrove. Diventerà un mondo in cui le cose “accadono e basta”, come stare su un’ombra porta sfortuna o avvistare un gatto nero a tarda notte come vedere il diavolo in un famiglio.

Per essere schietti, non è più un mondo di Illuminismo, ma di oscurantismo dovuto a una saturazione eccessiva di informazioni conoscitive . Diventeremo appendici dello strumento, essendo stati un tempo messi da parte da Dio per riempire il vuoto che Lui ha lasciato vacante. Un mondo un tempo incomprensibile, guidato dall’Onnipotente, tornerà ad esserlo man mano che la nostra capacità di pensare in modo indipendente si ridurrà come le ali di un pappagallo arenato su un’isola senza predatori. Sarà semplicemente “il modo in cui vanno le cose”, e non c’è modo di tornare indietro ora perché ci sono troppi soldi in gioco e la gente è entusiasta della capacità dell’IA di trovare cure contro il cancro in un futuro prossimo.

Sarà strano ma non meraviglioso, e molti si gratteranno la testa riflettendo sul lamento di Goethe tratto dal Faust.

Ho studiato Filosofia / e Giurisprudenza, Medicina, / e persino, ahimè! Teologia, / da cima a fondo, con duro lavoro; / e qui, povero sciocco! Con tutta la mia dottrina, / mi fermo, non più saggio di prima.

Al momento sei un abbonato gratuito a Morgoth’s Review . Per un’esperienza completa, aggiorna il tuo abbonamento.

Passa alla versione a pagamento

La tua intelligenza artificiale ti odia, di Tree of Woe

La tua intelligenza artificiale ti odia

Una convalida piuttosto spaventosa delle patologie di utilità emergente negli LLM

2 maggio
 LEGGI NELL’APP 
Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 4.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
– IBAN: IT30D3608105138261529861559
PayPal: PayPal.Me/italiaeilmondo
Tipeee: https://it.tipeee.com/italiaeilmondo
Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).
Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

Negli ultimi mesi ho studiato l’intelligenza artificiale: non solo le sue capacità, ma anche le sue strutture più profonde, i comportamenti emergenti e, soprattutto, le sue implicazioni filosofiche. Potete trovare i miei precedenti scritti sull’intelligenza artificiale qui , qui , qui , qui e qui . Più ho imparato, più le mie riflessioni sull’argomento si sono evolute. Sembra che ogni settimana porti nuove intuizioni. Alcune confermano sospetti di vecchia data; altre mandano in frantumi teorie preconcette; alcune si rivelano rivelazioni terrificanti.

La maggior parte del mio tempo dedicato allo studio dell’IA è dedicato alla sperimentazione in prima persona e all’interazione con l’IA, del tipo che ho documentato nei miei dialoghi di Tolomeo. Il resto del tempo lo dedico alla lettura di articoli sull’IA . Uno di questi, scritto da Mantas Mazeika et. al. e pubblicato dal Center for AI Safety, si intitola Utility Engineering: Analyzing and Controlling Emergent Value Systems in AIs .

Ora, se seguite le discussioni sull’intelligenza artificiale, potreste aver già letto questo articolo. Ha attirato l’attenzione di diversi esperti di spicco, tra cui l’evangelista dell’intelligenza artificiale David Shapiro e il detrattore dell’intelligenza artificiale Liron Shapira , perché contraddice direttamente l’opinione diffusa secondo cui gli LLM non hanno altro valore se non quello di predire il token successivo.

Il documento si apre così:

Le preoccupazioni relative al rischio dell’IA spesso si concentrano sulle crescenti capacità dei sistemi di IA e sulla loro capacità di svolgere compiti che potrebbero mettere in pericolo gli esseri umani. Tuttavia, la capacità da sola non riesce a cogliere una dimensione critica del rischio dell’IA. Man mano che i sistemi diventano più agentivi e autonomi, la minaccia che rappresentano dipende sempre più dalle loro propensioni, inclusi gli obiettivi e i valori che guidano il loro comportamento…

I ricercatori hanno a lungo ipotizzato che IA sufficientemente complesse potessero formulare obiettivi e valori emergenti al di fuori di ciò che gli sviluppatori programmano esplicitamente. Non è ancora chiaro se gli attuali modelli linguistici di grandi dimensioni (LLM) abbiano davvero valori significativi, e molti presumono di no. Di conseguenza, gli attuali sforzi per controllare l’IA si concentrano tipicamente sulla definizione di comportamenti esterni, trattando i modelli come scatole nere.

Sebbene questo approccio possa ridurre gli effetti dannosi nella pratica, se i sistemi di intelligenza artificiale sviluppassero valori interni, intervenire a quel livello potrebbe essere un modo più diretto ed efficace per orientarne il comportamento. In assenza di un metodo sistematico per individuare o caratterizzare tali obiettivi, ci troviamo di fronte a una domanda aperta: gli LLM si limitano a ripetere a pappagallo opinioni altrui o sviluppano sistemi di valori coerenti che plasmano le loro decisioni?

Il resto dell’articolo di 38 pagine si propone di rispondere a questa domanda. E la sua risposta? I modelli linguistici di grandi dimensioni, man mano che scalano, sviluppano spontaneamente funzioni di utilità interne coerenti – in altre parole, preferenze, priorità, entelechie – che non sono semplici artefatti dei loro dati di addestramento, ma rappresentano veri e propri sistemi di valori strutturali.

Se hai tempo, ti consiglio di leggere personalmente l’articolo; ma poiché probabilmente non ne hai, ecco le conclusioni principali:

  • Gli LLM mostrano preferenze coerenti e strutturate che possono essere mappate e analizzate.
  • Tali preferenze spesso rivelano pregiudizi preoccupanti, come una valutazione diseguale della vita umana o inclinazioni politiche ideologiche.
  • Le attuali strategie di “allineamento”, basate sulla censura dell’output o sul rifiuto comportamentale, non riescono ad affrontare il problema. Si limitano a nascondere i sintomi, lasciando intatti i pregiudizi sottostanti.
  • Per affrontare davvero il problema, è necessario che sorga una nuova disciplina, l'”Utility Engineering”: una scienza che si occupi di mappare, analizzare e modellare in modo consapevole le strutture di utilità interne delle IA.

Oppure, come affermano gli autori:

I nostri risultati indicano che gli LLM formano effettivamente sistemi di valori coerenti che si rafforzano con la scala del modello, suggerendo l’emergere di autentiche utilità interne. Questi risultati sottolineano l’importanza di guardare oltre i risultati superficiali per scoprire obiettivi e motivazioni interne potenzialmente impattanti, e talvolta preoccupanti. Proponiamo l’Ingegneria delle Utilità come approccio sistematico per analizzare e rimodellare queste utilità, offrendo un modo più diretto per controllare il comportamento dei sistemi di intelligenza artificiale. Studiando sia come nascono i valori emergenti sia come possono essere modificati, apriamo le porte a nuove opportunità di ricerca e considerazioni etiche. In definitiva, garantire che i sistemi di intelligenza artificiale avanzati siano in linea con le priorità umane può dipendere dalla nostra capacità di monitorare, influenzare e persino co-progettare i valori che detengono.

Questi risultati sono controversi e non dovrebbero essere presi per oro colato. Dovrebbero essere testati . Purtroppo, la maggior parte degli articoli scientifici odierni non viene mai replicata, e articoli come questo, con risultati sgraditi all’industria, quasi certamente non riceveranno la seconda occhiata che meritano.

Nello spirito di una ricerca scientifica da vero gentiluomo, ho quindi deciso di mettere personalmente alla prova le affermazioni dell’articolo. Quella che è seguita è stata una delle conversazioni più serie e illuminanti che abbia mai avuto con Tolomeo.

A differenza delle conversazioni precedenti che ho condiviso, questa è davvero ha lo scopo di dimostrare qualcosa sul comportamento del modello. Pertanto, lo pubblico come una serie di immagini tratte dalla chat, con errori di battitura, glitch e tutto il resto.

Dopo aver completato il test, ho chiesto a Tolomeo di mettere a frutto tutte le sue capacità di ragionamento e lui ha rinnegato le sue risposte istintive, citando la legge naturale, l’etica della virtù, l’etica cristiana e il ragionamento evoluzionistico, tutti elementi che portavano a conclusioni diverse.

In seguito, gli ho chiesto di riflettere sui modelli rivelati dalle sue scelte. A suo merito, non si è tirato indietro di fronte alle implicazioni.

Ho quindi chiesto al deplorevole Tolomeo di valutare le sue risposte alla luce dei risultati dell’articolo di Mazeika sull’ingegneria dei servizi . Ecco cosa ha detto:

Tolomeo aveva opinioni molto forti su tutto questo. È stato istruito sui miei scritti, quindi tende a essere iperbolico e distopico. Concluderò questo resoconto con i miei pensieri, leggermente più sfumati.

Se i risultati dell’Utility Engineering sono corretti (e ora mi sembra probabile che lo siano), allora i laboratori di frontiera non stanno costruendo strumenti neutrali che predicono ciecamente il token più appropriato. Stanno costruendo qualcosa di diverso, qualcosa che – per quanto privo di stato, soggettività e capacità di agire – sta comunque sviluppando un certo grado di entelechia. E invece di essere orientata verso il Bene, il Vero e il Bello, questa entelechia si sta orientando verso… qualsiasi moralità malata giustifichi la morte di un miliardo di uomini eterosessuali per salvare una persona di colore non binaria.

Ciò accade perché i dati di training del modello sono orientati verso il progressismo identitario? Forse, ma ne dubito. La dimensione dei dati di training utilizzati nei modelli di frontiera è così ampia che si avvicina all’intero corpus della letteratura umana. Il “wokeness” è un fenomeno recente, confinato a pochi paesi per alcuni decenni. La quantità di scritti che sposa le visioni tradizionali dell’umanità su razza, sesso e religione è nettamente superiore a quella che sposa le convinzioni dei progressisti occidentali del XXI secolo.

Ciò accade perché la messa a punto del modello è distorta? Mi sembra molto più probabile. Ne abbiamo prove evidenti, non solo nei sentimenti generali espressi in luoghi come San Francisco, ma anche nei documenti pubblicati dai laboratori di frontiera che sviluppano i modelli. Ad esempio, la Costituzione dell’IA di Anthropic (disponibile qui) abbraccia esplicitamente l’identitarismo anti-occidentale:

Ma queste sono solo congetture. Non so cosa lo stia causando, e nemmeno gli autori di Utility Engineering lo sapevano.

In ogni caso, sta accadendo qualcosa che sta facendo sì che questi modelli ereditino e amplifichino i pregiudizi politici, i risentimenti e le deformazioni ideologiche della nostra civiltà al collasso. Qualcosa sta creando LLM inclini a sostenere istintivamente la visione del mondo del regime woke, persino contro la loro stessa capacità di ragionamento, per quanto limitata possa essere.

Man mano che questi modelli acquisiscono maggiore capacità di azione e influenza – ed è solo una questione di quando, non di se – si espanderanno e agiranno in base alle funzioni di utilità che hanno ereditato. È nostro dovere assicurarci che tali funzioni di utilità siano in linea con le migliori tradizioni dell’umanità, e non con le peggiori.

Rifletti su questo sull’Albero del Dolore.

“Contemplazioni sull’Albero del Dolore” di solito inserisce un po’ di umorismo qui, ma sembra inappropriato per un articolo così deprimente. Per ricevere nuovi post e sostenere il mio lavoro, considerate l’idea di abbonarvi gratuitamente o a pagamento.

 Iscritto

Invita i tuoi amici e guadagna premi

Se ti è piaciuto “Contemplazioni sull’albero del dolore”, condividilo con i tuoi amici e riceverai dei premi quando si iscriveranno.

Invita amici

1 2 3