OpenAI – La Saga di Q*: Implicazioni, di SIMPLICIUS THE THINKER
Questa settimana un’inquietante notizia bomba ha scosso il mondo dello sviluppo dell’intelligenza artificiale. Il licenziamento di Sam Altman, CEO dell’azienda leader nello sviluppo dell’IA “OpenAI”, ha scatenato una valanga di speculazioni e fughe di notizie che hanno iniziato a dipingere un quadro fosco di alcune scoperte segrete potenzialmente spaventose presso l’azienda di IA sotto i riflettori. Sebbene non vi sia ancora nulla di confermato, la comunità crowdsource ha messo insieme una serie di pezzi di puzzle su ciò che è accaduto, rivelando la probabilità che Altman sia stato licenziato dopo che un’inquietante scoperta sull’intelligenza artificiale in un progetto interno chiamato Q* o Qstar ha spaventato il consiglio di amministrazione di OpenAI che, secondo la teoria, si è sentito tradito dall’ingannevole occultamento dello sviluppo del progetto da parte di Altman. Sono un amante degli intrighi clandestini e delle storie di spionaggio, e questa ha tutte le caratteristiche del tipo di storie di paura di un’IA canaglia e consapevole che siamo cresciuti aspettandoci prima o poi dalle storie di fantascienza, e forse la comprensione generale della corruttibilità della natura umana e del fatto che coloro che stanno dietro ai principali sviluppi globali sono tipicamente predisposti alla Triade Oscura. Quindi, cosa è successo esattamente? Senza perdersi in chiacchiere, sappiamo che c’è stata un’ondata di agitazione senza precedenti all’interno di OpenAI. Per chi non lo sapesse, si tratta dell’azienda leader nel settore dell’intelligenza artificiale che, secondo un recente sondaggio, dovrebbe essere la prima a introdurre una qualche forma di AGI, coscienza, superintelligenza, ecc. È composta per la maggior parte da ex-esordienti di GoogleMind e con il suo prodotto ChatGPT ha un netto vantaggio, essendo in testa al gruppo in continua crescita. Come precursore: anche molto prima di questi eventi, dal profondo delle stanze del sancta sanctorum di OpenAI echeggiavano voci sul raggiungimento dell’AGI al suo interno. Una cosa che i profani devono capire è che questi sistemi di cui siamo a conoscenza sono modelli di consumo altamente ridimensionati, che sono stati “detronizzati” in vari modi. Tuttavia, alcuni dei primi che sono stati lanciati nell’ultimo anno o giù di lì sono stati “lasciati in libertà” senza le stesse reti di sicurezza che si vedono attualmente. Ciò ha dato luogo a una serie di interazioni tristemente selvagge, come quella dell’alter ego di Bing “Sydney”, che ha convinto molti osservatori scossi che avesse acquisito proprietà emergenti. Dopo la paura e il contraccolpo, le aziende hanno iniziato a limitare le versioni “consumer” pronte per l’uso, per cui molti di coloro che sono scettici sulle capacità dell’IA basandosi sui chatbot open source a nostra disposizione non ne vedono la piena portata, o quasi. Il modo in cui queste versioni per i consumatori sono più limitate è nelle limitazioni imposte ai gettoni per conversazione e al tempo di “inferenza” concesso al programma per ricercare e rispondere alle domande. Ovviamente, per una variante consumer declassata rivolta al pubblico, si vuole un sistema facile ed ergonomico che possa essere reattivo e avere il più ampio appeal e usabilità. Ciò significa che i chat bot che si intende utilizzare hanno brevi margini di inferenza per ricercare dati e fare calcoli in pochi secondi. Inoltre, hanno date limite di conoscenza, il che significa che potrebbero non sapere nulla dopo un certo punto, mesi o addirittura un anno fa. Questo non copre nemmeno altre limitazioni più tecniche. Nelle versioni interne “complete”, gli sviluppatori di IA sono in grado di giocare con sistemi che hanno cache di token e tempi di inferenza incomprensibilmente più grandi, il che porta a sistemi molto più “intelligenti” che possono probabilmente avvicinarsi a “presentarsi come” coscienti, o almeno possedere la capacità di astrarre e ragionare in misura molto maggiore. L’analogia è con i computer domestici. Per i prodotti di consumo di massa, le aziende devono produrre computer che siano accessibili per il consumatore medio, nell’ordine dei 1.000-2.000 dollari. Quindi, quando vedete l’ultimo modello “più potente”, dovreste capire che non si tratta della tecnologia più potente che possa essere realizzata al momento, ma semplicemente della più potente che possa essere ampiamente disponibile a basso costo. Ma se lo volessero davvero, potrebbero creare un singolo sistema che costa milioni, ma è esponenzialmente più potente del vostro PC di casa. Lo stesso vale per questo. ChatGPT è destinato a essere un prodotto di consumo accessibile, ma le varianti interne che non hanno vincoli monetari, di tempo o di hardware sono molto più capaci di quanto si possa immaginare. E questo è un pensiero sobrio, dato che ChatGPT 4 può già sconvolgere la mente con le sue capacità grezze in alcune categorie. Quindi, tornando indietro, già da mesi circolavano voci di progressi “preoccupanti” sui modelli interni. Queste voci provenivano spesso da addetti ai lavori che sapevano, o da “leaker” anonimi che postavano su Twitter e altrove, e spesso erano apparentemente corroborate da criptiche menzioni fatte dai dirigenti. Ecco cosa è successo questa volta. Sulla scia dello scandalo OpenAI, che ha visto oltre 500 lavoratori minacciare di dimettersi in massa, i ricercatori hanno iniziato a mettere insieme i fili per trovare una pista tracciata da dirigenti chiave, da Sam Altman a Ilya Sutskever stesso, nel corso degli ultimi 6 mesi circa, che sembrava puntare proprio all’area di sviluppo in questione nella saga di Qstar. Il progetto ruota attorno a una nuova svolta nel modo in cui l’intelligenza artificiale risolve i problemi, che potenzialmente porterebbe a progressi multigenerazionali rispetto ai modelli attuali. Sono stati diffusi video in cui Altman, in occasione di recenti colloqui, affermava con fare presuntuoso di non sapere più se stavano creando un programma o una “creatura”. Altri segnali indicavano che la rivolta all’interno di OpenAI era incentrata sulla perdita di fiducia in Altman, che si riteneva avesse “mentito” al consiglio di amministrazione sulla portata delle recenti scoperte, ritenute abbastanza pericolose da spaventare molte persone all’interno dell’azienda. La citazione che ha fatto il giro: “Prima dei quattro giorni di esilio dell’amministratore delegato di OpenAI Sam Altman, diversi ricercatori dello staff hanno inviato al consiglio di amministrazione una lettera in cui avvertivano di una potente scoperta di intelligenza artificiale che, a loro dire, avrebbe potuto minacciare l’umanità, hanno dichiarato a Reuters due persone che hanno familiarità con la questione“. Ad aggiungere benzina al fuoco è stata la “fuga di notizie” su Reddit di una presunta lettera interna, pesantemente redatta, che parlava dei tipi di scoperte raggiunte da questo progetto che, se vere, avrebbero cambiato il mondo e sarebbero state estremamente pericolose allo stesso tempo: In sostanza, la lettera dipinge un’immagine di Q* – che qui si presume sia indicato come “Qualia” – che raggiunge una sorta di meta-cognizione autoreferenziale che gli consente di “insegnare a se stesso” e quindi di raggiungere la pietra miliare dell'”auto-miglioramento”, concepita come parte dell’AGI e potenzialmente della super-intelligenza. La “rivelazione” più sorprendente è stata quella di aver decifrato un testo cifrato AES-192 in un modo che supera persino le capacità dei sistemi di calcolo quantistico. Questa è di gran lunga l’affermazione più difficile da credere: che un cifrario di livello “intrattabile” con 2^42 bit sia stato decifrato in breve tempo. Come chiarisce questo video esplicativo, si calcola che il tempo per decifrare un codice a 192 bit sia dell’ordine di 10^37 anni, ovvero trilioni e trilioni di anni: Da un lato questo grida immediatamente al falso. Ma dall’altro lato, se qualcuno stesse davvero favoleggiando, non avrebbe scelto un’affermazione molto più credibile per dare una parvenza di realtà? Va anche notato che molti degli sviluppi più significativi dell’intelligenza artificiale vengono regolarmente divulgati su Reddit, 4Chan, ecc. attraverso lo stesso tipo di account anonimi e spesso vengono poi convalidati: è così che funzionano le cose al giorno d’oggi. Se la fuga di notizie di cui sopra è vera, rappresenterebbe un’immediata compromissione totale di tutti i sistemi di sicurezza globali, in quanto non c’è nulla che sia al riparo dal cracking. Questo include tutte le criptovalute. Un sistema come quello sopra descritto potrebbe rompere la crittografia della rete bitcoin e sottrarre a chiunque qualsiasi quantità di bitcoin, con il risultato di un crollo totale delle criptovalute in tutto il mondo – in quanto verrebbe meno la fiducia in esse – o la possibilità per un cattivo attore di prelevare criptovalute a capriccio da chiunque. Le ramificazioni più importanti sono quelle generali: un sistema di autoapprendimento di questo tipo potrebbe già esistere e potrebbe portare a un momento di “singolarità” di auto-miglioramento quasi istantaneo fino a raggiungere una super-intelligenza che potrebbe poi innescare alcuni degli scenari peggiori, come rubare codici nucleari, sintetizzare armi biologiche e chissà cos’altro. Un altro post anonimo di un presunto dipendente di OpenAI ha preteso di far luce su ciò che è realmente accaduto:
Ancora una volta, questa potrebbe essere completamente falsa e, ad essere onesti, è probabile che lo siano entrambe le lettere. Ma in ogni caso, anche a prescindere da tutte le cose più discutibili, le direzioni conosciute, come dimostrato dai documenti pubblicati di recente sul Q-Learning, sembrano già dirette verso lo stesso risultato determinante. Supponendo che la fuga di notizie di cui sopra sia falsa, resta il fatto che tutte le altre prove indicano che OpenAI ha sviluppato un’importante “svolta” che ha spaventato gli addetti ai lavori. E sappiamo anche che questa svolta ruota probabilmente intorno alle aree simili a quelle attribuite alla lettera “trapelata”, visti gli altri vari indizi che i pezzi grossi di OpenAI hanno lasciato negli ultimi mesi, cioè quello di varie iniziative di “Q-Learning” che sono concomitanti con ciò di cui parlano le fughe di notizie. In cosa consiste esattamente questa svolta? Si tratta principalmente del modo in cui le attuali IA “pensano” o elaborano le informazioni. Come molti sanno, gli attuali LLM utilizzano una forma di ricerca predittiva della prossima parola appropriata, basata, in parte, sulla prevalenza di quella particolare “parola successiva” nella sequenza appropriata, desunta dal vasto “corpus” di dati che il modello linguistico ha ingerito e ora “copia”. Questi dati rappresentano l’intero corpus dell’umanità, dai libri alle pubblicazioni online, dai tweet ai social media, ecc. Ma questa forma di calcolo limita la capacità del modello linguistico di “ragionare” o di avere una capacità autoreferenziale fondamentale per ciò che consideriamo “coscienza”. Le nuove scoperte riguardano proprio quest’area. Permettono ai modelli linguistici, in sostanza, di fermarsi e di interrogare diverse parti del loro processo – qualcosa di simile alla “riflessione”. In altre parole, è come fermarsi a metà del pensiero e chiedersi: “Aspetta, è giusto? Fammi ricontrollare”. I modelli della generazione attuale non hanno questa capacità, si limitano a scorrere la stringa fino alla fine, trovando le correlazioni dei token e le parole con la più alta probabilità che corrispondano a quella determinata stringa. Questa nuova capacità consente all’intelligenza artificiale di “interrogarsi” continuamente a intervalli, diventando così il primo precursore di una forma di “ricorsione mentale” identificata con la coscienza. Ma la capacità associata di gran lunga più sorprendente e “pericolosa” è l’utilizzo di questo processo per l’auto-miglioramento dei modelli. Questo è sempre stato considerato il Santo Graal e il pericolo più grande, perché nessuno sa con precisione quanto “velocemente” potrebbero “evolvere” naturalmente in qualcosa di totalmente incontrollabile; semplicemente non ci sono rubriche o precedenti per questo, e un computer enormemente potente che funziona con decine di migliaia di CPU può potenzialmente “auto-migliorarsi” ordini di grandezza più velocemente di un essere umano. La lettera trapelata menziona che “Qualia” ha dimostrato una capacità senza precedenti di applicare una forma accelerata di “apprendimento trasversale”. Ciò significa che, invece di dover essere istruito e addestrato su ogni nuovo compito da zero, il sistema può imparare le regole generali di un compito e poi applicarle per inferenza ad altri compiti. Un esempio di base potrebbe essere: prima imparare a muoversi in un ambiente cittadino virtuale, capendo che urtare gli oggetti è un male e potrebbe causare danni o lesioni. Poi, separatamente, si insegna a guidare un’automobile. Infine, senza alcuna nuova istruzione, si sale su un elicottero e si “capisce” come pilotarlo grazie al trasferimento delle conoscenze precedenti e alla comprensione profonda che le regole dei compiti precedenti possono essere applicate a questo. Per esempio, urtare un oggetto è negativo, quindi sappiamo che non dobbiamo volare contro nessun edificio. Poi si potrebbe “dedurre” che i controlli meccanici dell’auto funzionino in modo simile in un elicottero, cioè che ci sia una forma di accensione, una forma di propulsione che deve essere controllata tramite un apparato meccanico vagamente simile, ecc. La più grande implicazione per questo tipo di progresso è nella matematica, che alla fine si ramifica in tutto. Questo perché il modo in cui funzionano i modelli attuali, nella generazione predittiva del prossimo gettone spiegato prima, non può essere utilizzato con successo per soluzioni matematiche vere e profonde. In sostanza, ciò significa che il linguaggio è un “trucco” molto più facile da padroneggiare per le IA rispetto alla matematica. Questo perché il linguaggio può essere approssimato con questa semplice misura predittiva, ma la risoluzione di problemi matematici avanzati richiede vari livelli di cognizione profonda e capacità di ragionamento. Ecco una spiegazione convincente: Gli esperti ritengono che se il problema della matematica in generale può essere risolto in questo modo per i sistemi di IA, allora si apre la porta a tutte le possibilità, poiché la matematica è la base di quasi tutto. Ciò porterebbe necessariamente le IA a essere in grado di risolvere vecchi enigmi, generare nuove teorie, padroneggiare la fisica e la meccanica quantistica, la biologia e tutto il resto, il che aprirebbe ulteriormente le porte a importanti scoperte per la razza umana, anche se questo non significa che saranno necessariamente buone, ovviamente.Questa nuova scoperta aprirebbe alle IA le cosiddette capacità di “generalizzazione”, consentendo loro di apprendere da sole nuove discipline piuttosto che specializzarsi in un solo tipo di capacità generativa, come Midjourney con l’arte. Si eviterebbe la necessità di operare su specifici, giganteschi “insiemi di dati di alta qualità” rilevanti per la disciplina, consentendo invece all’IA di “inferire” tutto il suo apprendimento da una disciplina all’altra, aprendo la strada a una multi-modalità senza limiti.In questo momento, i LLM sono noti per essere bravi solo quanto i loro dati di addestramento, ma non possono davvero “uscire” da questi per risolvere problemi veramente creativi. Questo pone anche un “tetto” al loro sviluppo, perché l’intera razza umana ha solo una quantità finita di “dati di qualità”. E per quanto questa quantità sia elevata, è già stata in gran parte assorbita dai migliori sviluppatori di IA, il che significa che c’è una continua tensione tra le aziende che si spingono in direzioni illecite, come i dati protetti da copyright o comunque offlimits, solo per ottenere una goccia in più di miglioramento.La nuova scoperta potrebbe porre fine a tutto questo, eliminando del tutto la necessità di disporre di serie di dati.
Per coloro che sono ancora dubbiosi sul fatto che le IA sviluppino presto la “coscienza” o la “senzienza”, c’è un’idea che non è stata presa in considerazione. Un nuovo articolo per te: Scritto da ricercatori del settore, cerca di arginare le reazioni eccessive ad alcuni dei recenti sviluppi, che portano a saltare alle conclusioni sull’IA. Tuttavia, nel fare ciò, in realtà, essi sostengono che si tratta solo di un gioco semantico. Parlare di IA come se avesse una “mente” significa impantanarsi in una prospettiva umano-centrica, antropomorfizzando inavvertitamente questi sistemi. Il fatto è che – come ho sostenuto in precedenza – la prossima ondata di IA potrebbe benissimo superare i cervelli umani, ma il modo in cui le IA “pensano” sarà probabilmente completamente diverso da quello in cui funzionano i cervelli umani. Questo porterebbe molti a concludere che non hanno senzienza o coscienza, ma in realtà tale deduzione sarebbe semplicemente un altro modo per dire “non possiedono una mente umana”. Certo che no: nessuno sta suggerendo che la loro mente sarà simile a quella umana, o che ci si debba riferire ad essa come a una “mente”. Potete chiamarla come volete, ma il fatto è che le sue capacità saranno innegabili. Coloro che si affrettano a denunciare l’IA come incapace di essere senziente non fanno altro che reagire emotivamente all’idea, comprensibilmente ripugnante, che un oggetto costruito artificialmente possa pretendere di essere uno di noi. Questi sentimenti derivano da un misto di orgoglio e di radicato sdegno giudaico-cristiano o semplicemente religioso, una sorta di istintiva repulsione per l’ignoto, per tutto ciò che rasenta l’apparentemente oscuro o demoniaco, l’empio. Non c’è nulla di sbagliato in questo, si è liberi di avere le proprie convinzioni e alla lunga si può anche avere ragione. Ma queste reazioni istintive e radicate non cambiano il fatto che le capacità dell’IA stanno rapidamente progredendo fino a diventare ciò che presto probabilmente si avvicinerà alla mente umana in termini di capacità, se non di funzioni interne. È interessante notare che proprio l’articolo sopra citato rimanda a un documento di ricerca che tenta di demistificare la magia dei trasformatori, quei blocchi primordiali dei moderni LLM. Vedete, gli stessi scienziati non sanno come funzionano queste cose nemmeno al livello più elementare. Gli scienziati alimentano i parametri e li addestrano a ricevere informazioni, ma non sono certi di come i trasformatori elaborino parte di questo flusso di lavoro, perché i livelli e le complessità sono troppo elevati perché gli esseri umani possano visualizzarne correttamente l’interazione. Nel documento di ricerca si è cercato di semplificare il processo per visualizzarne almeno una parte di base. Il risultato è stato intrigante: sono stati costretti ad ammettere che l’IA utilizzava quello che potevano solo paragonare a un “ragionamento astratto”. In sostanza, i trasformatori utilizzavano il noto processo predittivo di abbinamento tra parole note e altre parole note. Ma quando gli scienziati hanno introdotto parole su cui il modello non era mai stato addestrato, è stato in grado di utilizzare una sorta di processo di “astrazione” per tentare di collegare la parola sconosciuta alla sequenza in qualche modo associativo. Ciò ha sorpreso gli scienziati perché il modello semplificato è stato in grado, a un livello di base, di “imparare” un nuovo processo, cosa che secondo loro non avrebbe dovuto essere in grado di fare: Questo fenomeno di apparente apprendimento di nuove abilità dal contesto è chiamato apprendimento nel contesto. Il fenomeno è stato sconcertante perché l’apprendimento dal contesto non dovrebbe essere possibile. Questo perché i parametri che dettano le prestazioni di un modello vengono regolati solo durante l’addestramento, e non quando il modello sta elaborando un contesto di input. Dove ci porterà nel prossimo futuro? Sempre più spesso questi sistemi di intelligenza artificiale si insinuano nelle nostre vite, proprio sotto il nostro naso, in modi spesso invasivi che lasciano sempre più spesso l’esperienza dell’utente in difetto. Alcuni avranno notato – a seconda del browser e dei client utilizzati – che ogni giorno ci vengono propinate tonnellate di contenuti spam generati dall’intelligenza artificiale. Per esempio, sul browser Microsoft Edge – che sconsiglio assolutamente di usare – l’intera splash page è piena di articoli di notizie completamente generati dall’intelligenza artificiale che sono praticamente illeggibili per il loro design spammoso e il loro scopo pubblicitario. Solo pochi giorni fa, la rivista Futurism ha pubblicato una storia sorprendente su come Sports Illustrated avrebbe utilizzato personaggi/scrittori sportivi totalmente generati dall’intelligenza artificiale per scrivere articoli goffi generati dall’intelligenza artificiale: È una lettura obbligata. Il succo del discorso è che queste aziende sembrano essere così disperate di ridimensionare e tagliare i lavoratori umani, che stanno generando falsi scrittori per cercare di spacciarli per umani senza doverli pagare. I ricercatori se ne sono accorti dopo aver trovato le foto delle teste degli scrittori sportivi su un sito web che vendeva foto stock generate dall’intelligenza artificiale, per non parlare del fatto che gli “scrittori” non avevano alcuna presenza sui social media, su Linkedin o su altri siti online e non avevano nemmeno traccia della loro esistenza. Ironicamente, “Drew Ortiz” ha un aspetto più umano e realistico di Zuckerberg. Ma sto divagando. In realtà hanno pubblicato una serie di storie con altre “personalità” di questo tipo e le hanno cancellate tutte dopo essere stati colti sul fatto. Conta ai fini del punteggio BlackRock ESG se l'”assunzione di diversità” non è esattamente reale? L’articolo fornisce alcuni esempi di scorie scritte dall’IA: La scrittura degli autori dell’IA spesso sembra scritta da un alieno; un articolo di Ortiz, per esempio, avverte che la pallavolo “può essere un po’ complicata da praticare, soprattutto senza una vera palla con cui allenarsi”. Spam o no, stanno già diventando onnipresenti e presto troverete le IA dietro molti dei vostri contenuti, inconsapevolmente o meno. Molti temono che sostituiranno tutti i campi creativi, vista la fluidità che hanno dimostrato nell’arte generativa, nel linguaggio e nella scrittura, ecc. Un bel meme raccontava come tutti pensavamo che l’IA ci avrebbe permesso di non lavorare più, ma di sederci nel tempo libero e creare arte, ma invece ora stiamo lavorando più duramente che mai in un contesto di iperinflazione, mentre l’IA sta creando tutta la nostra arte. Tuttavia, il valore della vera arte è solitamente legato all’artista: la sua personalità, la sua storia, la sua storia specifica. Se un’IA dipingesse qualcosa di simile a uno di questi quadri di Mark Rothko, venduti per decine di milioni di dollari, avrebbe un valore? Il valore dell’opera di un artista è di solito intrinsecamente legato alla mistica dell’artista stesso, alla condizione umana percepita che l’artista rappresenta nel carattere e nell’aspetto della sua vita. Ma forse anche un’intelligenza artificiale potrebbe raggiungere tali attributi. Ray Kurzweil ha affrontato argomenti simili nel suo fondamentale L’era delle macchine spirituali. Al momento, l’élite tecnocratica globalista sta compiendo grandi sforzi per indirizzare lo sviluppo dell’IA verso il raggiungimento di un “grande reset del capitale”. Solo un paio di settimane fa, Lynn de Rothschild ne ha parlato alla CNBC: L’IA cambierà tutto, nel bene e nel male”, afferma. L’autrice chiede una dichiarazione congiunta “storica” da parte del settore pubblico e privato per evitare che gli sviluppi dell’IA lascino indietro ancora più persone a livello globale. Ma probabilmente questi sono tutti gesti performativi volti a nascondere i veri disegni globalisti per assumere il controllo totale del mondo. Nel suo nuovo articolo Brandon Smith scrive: L’IA, proprio come il cambiamento climatico, sta rapidamente diventando un’altra scusa inventata per la centralizzazione globale. Spiega come Lynn de Rothschild sia a capo del Council for Inclusive Capitalism, un’impresa il cui intento è quello di spalmare tutte le mega iniziative aziendali DEI, ESG e Great Reset in un’unica grande fornace di carbone con sopra le scoperte dell’AI, creando un intruglio di controllo tecnocratico totale – guidato dai Rothschild, naturalmente – dell’intera struttura aziendale del mondo. L’idea è semplice: allineare la maggior parte delle aziende all’ordine politico di estrema sinistra. Una volta fatto questo, costringeranno queste aziende a usare le loro piattaforme e la loro esposizione pubblica per indottrinare le masse. I globalisti risponderanno a questa argomentazione con l’IA. Diranno che l’IA è il mediatore “oggettivo” per eccellenza, perché non ha lealtà emotive o politiche. Affermeranno che l’IA deve diventare l’apparato decisionale de facto della civiltà umana. E ora capite perché Rothschild è così ansioso di guidare la creazione di un quadro normativo globale per l’IA: chi controlla le funzioni dell’IA, chi programma il software, alla fine controlla il mondo, usando l’IA come procuratore. Se qualcosa va storto, possono semplicemente dire che è stata l’IA a prendere la decisione, non loro. Come si vede nella nuova “profezia” di Bill Gates, la plebe sarà attirata dal sogno utopico di un minor numero di giornate lavorative, mentre le macchine impiccione pompano inesorabilmente fiumi di succo di insetti verde soia per il nostro consumo, mentre i costrutto-bot dell’intelligenza artificiale mettono insieme i nostri recinti di bestiame, dove trascorreremo interminabili giornate collegati al rilassante spazio mentale di Meta mondi virtuali in cui saremo utilizzati come fattorie di spazi pubblicitari. Le stesse élite sempre in movimento, naturalmente, migreranno liberamente attraverso i livelli superiori degli strati ricchi, in quanto assumeranno il ruolo di classe dirigente custode per supervisionare le “implementazioni sociali” di questi sistemi di IA, agendo come amministratori titolati e “benevoli” di ciò che resta dell'”umanità”. Ma c’è la possibilità che altri Stati-civiltà ideologicamente divergenti, come la Russia o la Cina, possano sfruttare questi poteri nascenti dell’IA per un bene collettivo, sviluppandoli abbastanza velocemente da creare un contrappeso globale-infrastrutturale che impedisca alle élite della “vecchia nobiltà” occidentale di prendere il controllo con i loro sistemi. Il motivo è che il controllo totale richiede una mentalità da folla di altri Paesi minori che sottoscrivono ciecamente i diritti dei loro cittadini. Ma se si introducesse prima, o almeno nello stesso periodo, un sistema di concorrenza diretta che desse alla maggioranza media una scelta effettiva, si potrebbe impedire la monopolizzazione totale da parte del Cartello. Proprio la scorsa settimana, Putin ha annunciato una serie di iniziative per lo sviluppo dell’IA in Russia, dopo aver sottolineato quanto lo sviluppo dell’IA sarà importante non solo per il futuro in generale, ma anche per chi controlla quel futuro: Se la Russia o la Cina potessero offrire al mondo una vera alternativa, con il potenziale di una reale equità e di una depredazione tecno-corporativa non estrattiva, sfruttatrice e a caccia di rendite, attraverso la schiavitù transumanista, incorporata nel suo cuore e nella sua essenza, allora le nefaste potenze globaliste fallirebbero. Ma la corsa è iniziata e per ora gli Stati Uniti e la loro classe di elite transumanista sembrano in testa. If you enjoyed the read, I would greatly appreciate if you subscribed to a monthly/yearly pledge to support my work, so that I may continue providing you with detailed, incisive reports like this one. Alternatively, you can tip here: Tip Jar |
ll sito www.italiaeilmondo.com non fruisce di alcuna forma di finanziamento, nemmeno pubblicitaria. Tutte le spese sono a carico del redattore. Nel caso vogliate offrire un qualsiasi contributo, ecco le coordinate: postepay evolution a nome di Giuseppe Germinario nr 5333171135855704 oppure iban IT30D3608105138261529861559 oppure PayPal.Me/italiaeilmondo Su PayPal, ma anche con il bonifico su PostePay, è possibile disporre eventualmente un pagamento a cadenza periodica, anche di minima entità, a partire da 2 (due) euro (pay pal prende una commissione di 0,52 centesimi)