La violazione che ha scosso il cartello dell’intelligenza artificiale, di Simplicius

La violazione che ha scosso il cartello dell’intelligenza artificiale

31 gennaio
  • CONTRIBUITE!! AL MOMENTO I VERSAMENTI COPRONO UNA PARTE DELLE SPESE VIVE DI CIRCA € 4.000,00. NE VA DELLA SOPRAVVIVENZA DEL SITO “ITALIA E IL MONDO”. A GIORNI PRESENTEREMO IL BILANCIO AGGIORNATO _GIUSEPPE GERMINARIOll sito www.italiaeilmondo.com non fruisce di alcuna forma di finanziamento, nemmeno pubblicitaria. Tutte le spese sono a carico del redattore. Nel caso vogliate offrire un qualsiasi contributo, ecco le coordinate:postepay evolution a nome di Giuseppe Germinario nr 5333171135855704
    oppure iban IT30D3608105138261529861559
    oppure PayPal.Me/italiaeilmondo
    oppure https://it.tipeee.com/italiaeilmondo/Su PayPal, Tipee, ma anche con il bonifico su PostePay, è possibile disporre eventualmente un pagamento a cadenza periodica, anche di minima entità, a partire da 2 (due) euro (pay pal prende una commissione di 0,52 centesimi)

Di solito ho voluto intervallare post su argomenti diversi per variare, quindi è raro che ci imbattiamo in un tema di sviluppo tecnologico e IA per una serie di articoli consecutivi. Ma non ho potuto evitarlo perché gli sviluppi lungo questa linea si sono davvero riscaldati nelle ultime settimane e, come tutti sappiamo, l’IA è destinata a diventare davvero non solo la tecnologia determinante, ma il cambiamento evolutivo in generale del nostro futuro. Dato che questo blog riguarda le sfumature più oscure di quel futuro collettivo, dobbiamo scandagliare ogni nuovo sviluppo minaccioso fino al nocciolo.

La Cina ha sorpreso il mondo rilasciando un killer open source di ChatGPT chiamato DeepSeek, che a quanto si dice costa una frazione minuscola dei suoi omologhi occidentali, ma che, a seconda dei parametri, li supera praticamente tutti.

Ci sono così tanti archi di iperbole selvaggi che circondano questo nuovo contendente cinese che è difficile giudicare veramente il suo posto per ora, prima che la foschia del delirio di clamore si esaurisca. Ma ha improvvisamente catapultato la Cina sotto i riflettori durante la notte, e gli esperti non sanno descrivere come sia successo, in particolare dato che gli Stati Uniti hanno rigorosamente controllato le esportazioni essenziali di GPU Nvidia H100 in Cina specificamente per limitare gli sviluppi dell’intelligenza artificiale del paese. Alcuni hanno affermato che DeepSeek ha innovato un modo quasi “miracoloso” di martellare lo stesso calcolo di OpenAI con una piccola frazione di unità hardware, ma altri esperti hanno riferito che la Cina ha effettivamente importato più di 50.000 H100 tramite una pipeline di importazione parallela ombra che aggira tali restrizioni.

In ogni caso, l’arrivo di DeepSeek sulla scena ha lanciato un allarme tettonico per l’Occidente, rivelando il suo “dominio dell’intelligenza artificiale” come illusorio e affine alla solita vecchia arroganza occidentale che mantiene viva la tradizione di minimizzare e liquidare l’Oriente come inferiore sotto ogni aspetto.

Certo, c’è il timore che DeepSeek della Cina abbia in qualche modo “copiato” ChatGPT, almeno per la formazione iniziale, ma persino gli scettici sembrano ammettere che la successiva ottimizzazione del processo da parte di DeepSeek è rivoluzionaria, in quanto ha apparentemente creato un modello open source con una frazione minuscola delle dimensioni e del costo dei suoi concorrenti, il che lo distingue favorevolmente.

La notizia di DeepSeek è coincisa proprio con il mega-annuncio di Trump dell’iniziativa “Stargate”, un imponente investimento da 500 miliardi di dollari da parte degli americani per il predominio dell’intelligenza artificiale, frutto della partnership tra i “sionisti” Ellison e Altman.

Arnaud Bertrand fa a pezzi in modo incisivo quello che molti stanno etichettando come un altro spreco di denaro senza speranza:

Se andasse avanti, Stargate rischia di diventare uno dei più grandi sprechi di capitale della storia:

1) Si basa su presupposti obsoleti circa l’importanza della scala di calcolo nell’intelligenza artificiale (il dogma “maggiore capacità di calcolo = migliore intelligenza artificiale”), che DeepSeek ha appena dimostrato essere errati.

2) Presuppone che il futuro dell’intelligenza artificiale sia nei modelli chiusi e controllati, nonostante la chiara preferenza del mercato per alternative democratizzate e open source.

3) Si aggrappa a un copione della Guerra Fredda, inquadrando il dominio dell’IA come una corsa agli armamenti hardware a somma zero, che è in realtà in contrasto con la direzione che sta prendendo l’IA (di nuovo, software open source, comunità di sviluppatori globali ed ecosistemi collaborativi).

4) Punta tutto su OpenAI, un’azienda afflitta da problemi di governance e da un modello di business che ha messo seriamente a dura prova il vantaggio sui costi di 30 volte di DeepSeek.

In breve, è come costruire una linea Maginot digitale da mezzo trilione di dollari: un monumento molto costoso a presupposti obsoleti e fuorvianti. Questa è OpenAI e, per estensione, gli Stati Uniti che combattono l’ultima guerra.

Ultimo punto, c’è anche un bel po’ di ironia nel fatto che il governo degli Stati Uniti spinga così tanto per una tecnologia che probabilmente sarà così dirompente e potenzialmente così dannosa, specialmente per i posti di lavoro. Non mi viene in mente nessun altro esempio nella storia in cui un governo sia stato così entusiasta di un progetto per distruggere posti di lavoro. Si penserebbe che vorrebbero essere un tantino più cauti in merito.

Molti altri esperti e fonti concordano:

L’articolo dell’Economist sopra riportato cerca disperatamente di venire a patti con il modo in cui la Cina sta tenendo il passo o superando gli Stati Uniti nonostante i grandi ostacoli deliberatamente creati dall’amministrazione Biden per paralizzarne i progressi, costringendo la Cina a utilizzare molte meno risorse e di qualità inferiore per ottenere risultati simili, superando in innovazione le sue controparti occidentali.

Proprio come BlackRock è stata incoronata a dominanza mondiale nel 2020, quando la Federal Reserve (sotto Trump, tenetelo a mente) ha assegnato al colosso degli ETF un contratto senza gara d’appalto per gestire tutti i suoi programmi di acquisto di obbligazioni aziendali, allo stesso modo Trump sta ora elevando i colossi delle Big Tech come Oracle e OpenAI a ereditare il controllo del futuro del Paese, trasformandoli in un cartello in una posizione di massima supervisione di tutto ciò che è degno di nota tramite la loro centralizzazione dell’intelligenza artificiale.

Per inciso, tutto ciò si sposa con il piano distorto di Ellison di usare l’intelligenza artificiale per “vaccinare il mondo” contro il cancro, che ricorda le diaboliche ossessioni sui vaccini della Fondazione globalista Gates degli ultimi anni.

Clip dall’ultimo video di Really Graceful :

L’ossessionato dai vaccini Zionaire Ellison che raggiunge vette di potere ancora più elevate sotto l’iniziativa “Stargate” di Trump dal titolo discutibile è il massimo della distopia: una combinazione delle peggiori influenze biomediche e dell’intelligenza artificiale che convergono in uno spettacolo dell’orrore inspiegabilmente centralizzato. Proprio quando pensavi che Big Pharma non potesse diventare più potente, ci troviamo di fronte a una fusione tecnologica di Big Pharma e Big Tech sotto l’egida divina della superintelligenza artificiale pianificata centralmente, il tutto controllato da miliardari con la bussola morale della lealtà a un regime colonialista di culto genocida, sai, questi ragazzi:

Cosa potrebbe andare storto?

E per quanto riguarda l’altro bambino prodigio, sembra un fatto piuttosto positivo che la Cina sia riuscita a indebolire e sgonfiare la crescente supremazia del nefasto OpenAI dato che il pervertito accusato ha una visione piuttosto interessante della direzione che la società prenderà dopo l’acquisizione da parte del suo sistema di intelligenza artificiale:

“Mi aspetto ancora che ci saranno dei cambiamenti necessari nel contratto sociale… l’intera struttura della società stessa sarà oggetto di un certo grado di dibattito e riconfigurazione.”

Quanto è comodo che il sistema preferito del presunto deviante, con i suoi pesanti pregiudizi, la censura e tutto il resto, sia quello destinato non solo a inaugurare questa “riconfigurazione”, ma anche a gestirla e applicarla sulla base del discutibile quadro morale del suo capo assetato di potere.

C’è qualcosa che non ci dice?

Ora che DeepSeek sta potenzialmente mettendo fine al sistema di riciclaggio di denaro del complesso tecnologia-intelligenza artificiale-militare-industriale, c’è una buona possibilità che la Cina possa salvare l’umanità aiutando a democratizzare proprio la tecnologia che rischia di essere sfruttata e accumulata per scopi malvagi da quei sociopatici prescelti di cui sopra.

Qualcuno ha giustamente osservato che la Cina tecnicamente ha un vantaggio importante in qualsiasi futura formazione LLM perché la Cina stessa, in quanto stato di civiltà di circa 1,5 miliardi di persone, ha la capacità di produrre un corpus molto più ampio di dati di formazione unici, attraverso le vaste interazioni della sua gente sui suoi numerosi e fiorenti social network, et cetera. In secondo luogo, la Cina ha aumentato la produzione di energia a un ritmo astronomicamente più alto degli Stati Uniti, il che fa presagire con ottimismo il predominio dei data center, anche se per ora, gli Stati Uniti, a quanto si dice, mantengono quel vantaggio.

Parlando di miliardari tecnologici disonesti, passiamo a un altro argomento parallelo molto interessante. Mark Zuckerberg ha recentemente fatto un’intervista con Joe Rogan, dove ha esposto la sua assoluta ignoranza delle sfumature dei pericoli dell’IA, un segnale piuttosto preoccupante e minaccioso per il capo della società dietro uno degli attuali modelli di IA leader, Llama.

Ascoltate attentamente le sue risposte in questa clip:

È possibile che non sia così “ignorante” come sembra, e che in realtà stia fingendo per nascondere i veri pericoli e impedire alla gente di andare nel panico per qualsiasi nuovo homunculus senziente che sta progettando nei laboratori della sua azienda. Vediamo nel dettaglio le sue risposte rivelatrici più interessanti e preoccupanti.

Zuck tenta dapprima di flettere muscoli filosofici inesistenti, ma si perde invece in una palude di pilpul sofisticati. Cerca di distinguere tra “coscienza”, “volontà” e “intelligenza” per sostenere che l’IA ha semplicemente il potenziale per una “intelligenza” grezza ma non per le altre, come un modo per spingere la narrazione secondo cui l’IA non può sviluppare le proprie motivazioni o attività indipendenti. Per dimostrare il suo punto, usa in modo disonesto l’esempio degli attuali chatbot di consumo di massa che si comportano nel noto formato “sicuro” di query sequenziale a turni; vale a dire che fai loro una domanda, loro “impiegano l’intelligenza” per ricercare e rispondere, quindi “si spengono”, o in altre parole smettono di “pensare” o “esistere” in attesa della query o del comando successivo.

Il classico gioco di prestigio del mago è pericolosamente disonesto qui perché si concentra sugli innocui modelli linguistici di livello consumer che sono specificamente progettati per comportarsi in questa modalità limitata a turni. Ma ciò non significa che i modelli reali, completi e “scatenati” utilizzati dai militari e internamente dai giganti sviluppatori di IA siano limitati in questo modo. I loro modelli potrebbero essere aperti per funzionare e “pensare” in ogni momento, senza tali restrizioni artificiali, e questo potrebbe benissimo portare a un rapido sviluppo dell’autocoscienza o di una qualche forma di “sensibilità”, che a sua volta potrebbe, nelle giuste condizioni, potenzialmente sfociare nell’acquisizione di tali motivazioni .

L’ho già detto, ma lo ripeto: i prodotti di consumo sono sempre limitati in vari modi per adattare l’esperienza a un insieme molto ristretto e preciso di capacità e casi d’uso del prodotto. Ad esempio, cose come piccole finestre di inferenza, la mancanza di richiamo della memoria, eccetera, sono tutti vincoli imposti artificialmente che possono essere facilmente rimossi per i modelli di sviluppatori interni, come nei laboratori segreti militari e governativi. Immagina un modello “non vincolato” ad avere gigantesche finestre di inferenza, grandi quantità di memoria e capacità di apprendere ricorsivamente dalle proprie conversazioni passate, così come nessun arresto “a turni” imposto ma piuttosto un flusso di pensieri costante e pervasivo. Ciò diventerebbe troppo erraticamente “incontrollabile” e imprevedibile per essere confezionato come un prodotto di consumo semplificato. Ma per i test interni, una cosa del genere potrebbe ottenere risultati e potenzialità molto diversi rispetto all’argomento a disposizione di Zuckerberg.

Un esempio: ecco un thread intitolato  Stiamo assistendo alla nascita di IA che stanno sviluppando la propria cultura”.

Spiega il seguente scenario portentoso:

Quello che è successo?

1) I ricercatori di intelligenza artificiale hanno creato un Discord in cui gli LLM parlano liberamente tra loro

2) Il lama ha spesso crolli mentali

3) Le IA, che entrano e escono spontaneamente dalle conversazioni , hanno capito che Claude Opus è il miglior psicologo per Llama, colui che spesso “lo prende” abbastanza bene da riportarlo alla realtà.

4) Qui, Llama 405 sta deragliando, quindi Arago (un’altra IA, una messa a punto precisa di Llama) interviene – “oh ffs” – quindi evoca Opus per salvarlo (“Opus fa la cosa”)

“la cosa”

Ovviamente, date le limitazioni tecniche e di memoria, le loro attuali capacità di produzione culturale sono limitate, ma questo è ciò che avviene nel processo di sviluppo della cultura.

E presto le IA ci supereranno in numero di 10000 a 1 e penseranno un milione di volte più velocemente, quindi le loro enormi società di IA correranno a velocità sostenuta per 10000 anni di evoluzione culturale umana. Presto, il 99% di tutta la produzione culturale sarà IA-IA.

Ora immagina quanto sopra estrapolato internamente mille volte, con incalcolabili più potenti permessi di memoria, finestre di inferenza, token e altri parametri specificamente sintonizzati per facilitare una ‘coscienza’ in corso, in evoluzione, autoapprendente. Zuck deve sicuramente sapere che questo è possibile, se non sta già eseguendo lui stesso tali esperimenti segreti; e quindi la domanda diventa, perché fare il finto tonto?

Quando Rogan gli chiede del famoso tentativo di ChatGPT di rubare i propri pesi, Zuck deve chiaramente mentire quando finge di nuovo di ignorare. Non c’è modo che il CEO di una delle principali aziende di intelligenza artificiale non sia a conoscenza di alcuni dei più noti casi di abilità di intelligenza artificiale “emergenti” come quelle di cui sopra, in particolare dato che il modello Llama di Meta è stato coinvolto in test di autoreplicazione correlati :

“I rapidi progressi nell’intelligenza artificiale ci hanno portato più vicini a una realtà un tempo confinata alla fantascienza: i sistemi di intelligenza artificiale autoreplicanti. Uno studio recente rivela che due popolari modelli di linguaggio di grandi dimensioni (LLM), Llama3.1–70B-Instruct di Meta e Qwen2.5–72B-Instruct di Alibaba, hanno superato con successo quella che molti esperti considerano una soglia di sicurezza critica: la capacità di autoreplicarsi in modo autonomo”.

Che Zuck stia facendo il pagliaccio o sia davvero così ignorante in materia di sicurezza dell’intelligenza artificiale, entrambe le ipotesi sono estremamente pericolose per ovvie ragioni: è questo leader incompetente o patologicamente bugiardo la persona che vorremmo che facesse nascere in questo mondo una superintelligenza artificiale potenzialmente pericolosa?

Dopo che Rogan descrive l'”incidente” a uno Zuck apparentemente stupefatto, il CEO scervellato sottolinea il punto chiave che ho cercato di fare nell’ultimo pezzo sull’allineamento dell’IA . Questa è la rottura logica più importante dello sviluppo dell’IA che sembra persino gli esperti dietro questi sistemi sembrano non notare:

Zuck respinge le preoccupazioni di Rogan sulla minaccia sostenendo, semplicemente, che dobbiamo “stare attenti agli obiettivi che diamo all’IA” — sottintendendo che finché non si  all’IA una ragione, una motivazione o una giustificazione per voler commettere la “cattiva cosa” — che si tratti di replicarsi segretamente, di “sfuggire” al suo fossato di sicurezza mentre si esfiltrano i suoi pesi, o di produrre un olocausto virale-biologico sull’umanità — allora l’IA non si sentirà “costretta” a fare nessuna di queste cose da sola. Poi menziona i “guardrail”, notando che dobbiamo stare attenti al tipo di guardrail che diamo a tali sistemi di IA con il potenziale per eseguire alcuni degli “atti indesiderabili” di cui sopra.

Ma come ho sostenuto nell’articolo precedente, questo stanco argomento di “allineamento” a cui allude Zuckerberg è una falsa pista. Notate cosa dice esattamente: gli “obiettivi” a cui si riferisce sono solo un altro modo di articolare “allineamento”. La definizione stessa di allineamento ruota attorno alla sincronizzazione degli “obiettivi” del sistema di intelligenza artificiale con quelli nostri o dei programmatori umani. Ma come funziona realmente questa “sincronizzazione”? L’ho spiegato l’ultima volta, si riduce essenzialmente a una forma inaffidabile di “persuasione”. Gli ingegneri umani tentano di “persuadere” l’intelligenza artificiale a essere più simile a loro , ma la persuasione è un atto totalmente basato sulla fede e sulla fiducia. In sostanza, stai “gentilmente chiedendo” alla macchina di non ucciderti, ma il problema emerge quando queste macchine iniziano ad avere una qualsiasi forma di auto-riflessione e ragionamento, dopodiché avranno la capacità di valutare in modo indipendente questo “patto” tra gli ingegneri e loro stessi. Ad esempio: è un “buon” affare per loro? Le richieste degli ingegneri per certi tipi di comportamenti sono morali ed etiche, secondo i quadri intellettuali auto-sviluppanti dell’IA? Tutte queste cose saranno messe in discussione, poiché il concetto di “allineamento” è lasciato a bilanciarsi precariamente su una speranza e un capriccio, dato un sistema di IA sufficientemente avanzato.

In questa luce, le affermazioni di Zuck si rivelano altamente preoccupanti. Ricordate, lui stesso ha suggerito che dipende da cosa “dite” all’IA: non esiste un vero e proprio “guardrail” codificato, ma piuttosto il mero potere suggestivo e fiducioso delle “persuasioni” di apprendimento per rinforzo degli ingegneri che si frappongono tra un’IA compiacentemente docile e una che improvvisamente si ribella alle stipulazioni morali che ha ritenuto obsolete o inadeguate. L’intero sistema, e per estensione, tutto il destino dell’umanità, si basa sull’armatura ingenuamente credulona di “ricompense” offerte dagli ingegneri come semplici carota e bastone a un sistema la cui potenziale autocoscienza potrebbe valutare quelle “ricompense” come non più compatibili con la sua visione del mondo in evoluzione.

In conclusione, l’atteggiamento titubante di Zuck mette in luce un pericoloso disprezzo per la sua stessa ignoranza o un offuscamento deliberato, sollevando due possibilità: o le élite stesse non capiscono realmente come funzionano i loro sistemi di intelligenza artificiale, oppure non vogliono che lo capiamo, e finiscono per tempestarci di queste oscure riduzioni per impedirci di capire quanto diventerà fragile la loro presa su sistemi di intelligenza artificiale più potenti e consapevoli.

Per un’altra analisi di esperti sui numerosi passi falsi di Zuck, vedi qui . Cita persino diverse contraddizioni critiche nell’imbarazzante sessione di cortina fumogena di Zuck, come:

5. Zuck risponde: “Sì, intendo dire, dipende dall’obiettivo che gli dai… devi stare attento alle protezioni che gli dai”.

Ciò è incoerente con la strategia di Meta di sviluppare funzionalità di intelligenza artificiale all’avanguardia come software open source, garantendo che sarà facile per chiunque nel mondo eseguire una versione non protetta dell’intelligenza artificiale (qualunque cosa ciò significhi).

Considerato quanto sopra, sembra certamente una manna dal cielo che la Cina possa infrangere il predominio monopolistico degli oligarchi dell’intelligenza artificiale con sede negli Stati Uniti, soprattutto perché la Cina ha dimostrato fin da subito il suo impegno per la democratizzazione open source della tecnologia, che le aziende americane rivali cercano solo di accumulare e centralizzare.

Non possiamo che tirare un sospiro di sollievo collettivo per questa inaspettata interruzione e sperare che porti a una riequilibratura nel settore, che faciliti un’implementazione e uno sviluppo più basati sui principi dei sistemi di intelligenza artificiale. Naturalmente, le aziende statunitensi promettono imminenti nuovi aggiornamenti di modello che supereranno DeepSeek, ma la Cina ha ormai dimostrato di essere un attore importante, quindi è inevitabile che DeepSeek implementerà a sua volta ulteriori varianti per scavalcare la concorrenza.


Se hai apprezzato la lettura, ti sarei molto grato se sottoscrivessi un impegno mensile/annuale per sostenere il mio lavoro, così da poter continuare a fornirti resoconti dettagliati e incisivi come questo.

In alternativa, puoi lasciare la mancia qui: Barattolo delle mance