Agente 4 All_di SIMPLICIUS THE THINKER

Agente 4 All

ll sito www.italiaeilmondo.com non fruisce di alcuna forma di finanziamento, nemmeno pubblicitaria. Tutte le spese sono a carico del redattore. Nel caso vogliate offrire un qualsiasi contributo, ecco le coordinate: postepay evolution a nome di Giuseppe Germinario nr 5333171135855704 oppure iban IT30D3608105138261529861559 oppure PayPal.Me/italiaeilmondo  Su PayPal, ma anche con il bonifico su PostePay, è possibile disporre eventualmente un pagamento a cadenza periodica, anche di minima entità, a partire da 2 (due) euro (pay pal prende una commissione di 0,52 centesimi)

L’intelligenza artificiale viene sempre più utilizzata per guidarci nel circuito del complesso consumistico-industriale al fine di massimizzare i profitti delle società madri. Le multinazionali investono miliardi di euro per raschiare ogni cellula digitale di dati e tracciare ogni nostro movimento, pensiero e inclinazione con una manipolazione quanto più fine possibile. Questi “biscotti” digitali sono diventati sempre più complessi fino a formare interi profili di noi: ogni nostra inclinazione, i nostri orari e bioritmi.

Tutto ciò avviene con una crescente sofisticazione che l’intelligenza artificiale sta rendendo centrale. I tracker sono in grado di tracciare una mappa di ogni vostro movimento per sviluppare una valutazione più “intelligente”, che si basa su profili psicologici, basati sulle vostre abitudini. E il tipo di dati che possono sintetizzare in metriche utilizzabili diventa sempre più sorprendente, tracciando le nostre derive nomadi attraverso il paesaggio digitale semplicemente abbinando i metadati di marcatori fuori dal comune, come la percentuale di batteria del nostro telefono, o altri identificatori unici che, in apparenza, non sembrano rompere l’anonimato dell’utente. L’Intelligenza Artificiale trasforma i dati più disparati in un profilo predittivo delle nostre abitudini, la cui accuratezza aumenta a ogni iterazione dei sistemi, consentendo a un’ulteriore piaga consumistica di sommergerci di “opportunità” mirate.

Man mano che le IA diventano progressivamente autonome, passando a fungere da assistenti, agenti e maggiordomi digitali, inizieranno a svolgere un ruolo nel nostro effettivo processo decisionale nel mercato del consumo digitale. Se ci si spinge oltre, a un certo punto ci ritroveremo con dei robot che comprano e vendono: una sorta di economia simulacrale in cui noi potremmo essere progressivamente estromessi dal giro. Alla fine, le nostre tate digitali potrebbero di fatto prendere il controllo delle nostre decisioni domestiche, arrivando non solo a suggerire, ma persino a gestire autonomamente i nostri compiti quotidiani.

La prossima fase dell’innovazione dell’IA consiste proprio in questo, ed è quella che attualmente occupa la maggior parte degli esperti del settore: l’avvento di un “agente” di IA a tempo pieno come assistente personale che si occupi non solo di mansioni banali e di poco conto, ma persino di spese monetarie.

Ecco un nuovo intervento da un recente simposio, come esempio:

Quello che vogliamo fare è arrivare a un punto in cui possiamo affidare a questi agenti il nostro denaro, in modo che possano fare le cose per nostro conto“. Gli LLM come “ragazzi con le carte di credito”.

Il relatore afferma che lo sviluppo di questi agenti segna la prossima grande frontiera del settore e avverrà in due fasi generali. La prima è la naturale evoluzione del modello SIRI, in cui l’agente inizierà ad “agire” secondo le nostre istruzioni, anziché limitarsi a recuperare informazioni, salvare appunti e liste della spesa, ecc. Ma il passo evolutivo successivo vedrà questi agenti trasformarsi da semplici “maggiordomi” servili in quella che il presentatore definisce “IA olistica”.

Si tratterà di agenti che non si limiteranno a eseguire le nostre istruzioni, ma parteciperanno attivamente al processo decisionale, presentandoci scelte diverse da quelle che potremmo aver preso in considerazione, o semplicemente comprendendo “olisticamente” le esigenze alla base della nostra richiesta, in modo da modificare potenzialmente il reperimento delle informazioni o il completamento del compito in modo da soddisfarci meglio di quanto avremmo saputo fare noi stessi. Per questo, l’IA dovrà conoscerci meglio di quanto noi stessi conosciamo.

L’esempio citato è il seguente: se chiediamo all’agente di prenotarci i biglietti aerei per una certa città, l’IA olistica potrebbe prima chiederci perché vogliamo andare lì e in quel particolare momento. In base alla nostra risposta, può offrirci modifiche nuove, inedite o interessanti, o addirittura alternative. Ad esempio, si può rispondere: “Volevo partecipare al festival jazz di Los Angeles”. E l’intelligenza artificiale sarà in grado di consigliarvi un festival ancora migliore altrove, di cui non eravate a conoscenza.

Il problema – che il relatore sottolinea – è che questi agenti dovranno conoscerci… intimamente per essere efficaci; ciò significa che avranno bisogno di un accesso totale alle nostre vite e a tutti i nostri dati. La stessa cosa vale per lo svolgimento dei compiti: non ci si può aspettare che un agente tenga in modo competente la vostra contabilità se non ha accesso totale a quei conti e servizi personali, come i portali bancari, ecc. E dato che queste IA saranno quasi coscienti, o almeno autonome ad alti livelli, è come se una persona di dubbia affidabilità avesse accesso alle vostre informazioni più importanti.

Naturalmente, i tecnici propongono varie idee per costruire sistemi sicuri, ma è comunque la principale preoccupazione naturale di tutti. Per fare un esempio recente, ci sono stati almeno due casi di modelli linguistici di intelligenza artificiale che, almeno a quanto si dice, sono andati in tilt o hanno fatto “trapelare” file personali di utenti riservati.

Mi trovo nella posizione un po’ scomoda di essere predisposto a un atteggiamento tecno-scettico e di non aver mai affidato la mia “sicurezza” ai vari meccanismi di verifica della nuova era, che si tratti di scansioni del palmo della mano, dell’impronta digitale o dell’iride, pur rimanendo cautamente affascinato dai continui sviluppi tecnologici. Considero l’IA come uno stadio naturale e insopprimibile dell’evoluzione umana, a cui è inutile opporsi, perché accadrà, che ci piaccia o no. Tuttavia, sono convinto che questi sviluppi debbano essere resi il più possibile facoltativi per la società in generale e che tutte le persone debbano mantenere un sano scetticismo e una certa diffidenza nei confronti di questi sistemi, soprattutto conoscendo i tipi di personalità che si ispirano alla triade oscura e che guidano la scena delle startup tecnologiche.

La scorsa settimana è stato fatto il primo annuncio importante nel campo di questi nuovi agenti: il dispositivo Rabbit R1. È stato progettato proprio intorno al concetto di push over pull, sostenendo di rivoluzionare gli LLM (Large Language Models) nella loro modalità proprietaria di LAM: Large Action Model.

Lo scopo del dispositivo è simile a quello di un “SIRI” portatile, ma in grado di portare a termine compiti nuovi per l’utente, come la prenotazione di biglietti aerei, la compilazione di moduli online mai visti prima e così via, anziché limitarsi a recuperare informazioni.

Guarda qui sotto:

Se si spinge l’idea abbastanza in là, si potrebbe immaginare la lenta e precipitosa scivolata lungo il pendio scivoloso del nostro agente virtuoso AI che diventa, in effetti, un facsimile di… noi. Potreste essere scettici: ma ci sono molti modi in cui questo può accadere nella pratica. Si comincerebbe con piccole comodità, come far sì che l’intelligenza artificiale si occupi di quelle fastidiose attività quotidiane, come ordinare il cibo, prenotare i biglietti, gestire altri obblighi finanziari e amministrativi. Naturalmente, l’accettazione avverrà in modo lento e graduale. Ma una volta raggiunto lo stadio di “nuova normalità”, potremmo trovarci a un passo da una preoccupante perdita di umanità in virtù dell’accumulo di queste “indennità di convenienza”.

Cosa succede quando un’intelligenza artificiale che funziona come un “noi” surrogato inizia ad assumere un ruolo maggiore nello svolgimento delle funzioni di base della nostra vita quotidiana? Ricordiamo che gli esseri umani svolgono una “funzione” essenziale nell’odierna società corporativa solo grazie al nostro ruolo di fornitori di liquidità e di mantenitori di quell’importantissima “velocità” finanziaria. Facciamo girare il denaro per le corporazioni, mantenendo il loro sistema impenetrabilmente complesso unto e generando sempre una cima spumosa per i kulaki della tecno-finanza da “scremare” come il latticello. Compriamo cose, poi guadagniamo denaro e lo spendiamo per altre cose, mantenendo l’intero processo “tutto nella rete” di un cartello progressivamente più piccolo che fa strage sulle fluttuazioni volatili, sui velenosi giochi di ricerca di rendite, sui processi occulti di signoraggio e arbitraggio. Controllando il settore della pubblicità digitale, Google ci incanala attraverso un hyperloop di una piccola manciata di altre megacorporazioni per completare il ciclo del denaro a secco.

Questi nostri “assistenti digitali” possono gradualmente passare ad automatizzare le nostre vite in modo tale che gli annunci pubblicitari possano un giorno rivolgersi a loro anziché a noi. Naturalmente si tratterà di una forma diversa di pubblicità: non possiamo assumere lo stesso stampo “psicologico” per i nostri surrogati. Ma questo porta alla parte critica dell’esperimento di pensiero: cosa succederà quando le macchine inizieranno a inserirsi direttamente tra noi e il Sistema, prendendo il nostro posto come intermediari a tutti gli effetti nel circuito del consumo?

Esempio: un agente può scrivere articoli, come è già semi-competente a fare. Quando questi articoli iniziano a generare denaro per l’utente in modo sempre più autonomo, per comodità all’agente può essere chiesto di iniziare a spendere quel denaro per conto dell’utente, per acquistare beni di prima necessità o persino oggetti ricreativi per l’utente. Quando dovrà scegliere per questi acquisti – ad esempio tra articoli di prezzo simile – l’agente dovrà affidarsi alla pubblicità – si presume – proprio come facciamo noi, per distinguere tra le varie scelte e decidere quella migliore.

A che punto di questa progressione l’agente diventa effettivamente un surrogato di “noi” e ci toglie completamente dal circuito del consumo? Che scopo avrebbe un’azienda nel rivolgere gli annunci pubblicitari a noi piuttosto che direttamente ai nostri agenti, che prendono le decisioni principali per nostro conto al fine di liberarci dalle banalità che richiedono tempo? E se si arrivasse a questo punto, che fine faremmo noi esseri umani, che scopo avremmo?

E, come tangente, quali sarebbero le ramificazioni legali di questa eventualità? Un’intelligenza artificiale che genera autonomamente entrate sarebbe tecnicamente qualificata per essere un contribuente, e a quel punto avrebbe bisogno di un EIN (Employee Identification Number), per non parlare del punto di partenza delle discussioni sulla “personalità” e sulla sua naturale estensione: i diritti individuali, tra le altre cose. Inoltre, quali sarebbero le implicazioni legali per la responsabilità? L’IA può essere citata in giudizio per aver prodotto un prodotto fraudolento o dannoso? Chi deve rispondere dei suoi errori? Per certi versi ce ne stiamo già occupando quando si tratta di auto a guida autonoma e delle relative responsabilità legali.

La situazione diventerà ancora più nebulosa quando raggiungeremo un livello di autonomia tale che gli agenti potranno iniziare a replicare totalmente la nostra persona e le nostre presentazioni corporee, tanto da poter agire come “controfigure” di noi stessi. Questo potrebbe essere utilizzato durante le transazioni o le interazioni, siano esse di lavoro, personali o ricreative. Ad esempio, in un mondo sempre più aumentato dalla VR/AR, l’IA potrebbe assumere i nostri volti, che possono essere sovrapposti a qualsiasi corpo androide o avatar digitale.

Ecco il divertimento del russo Dmitry Peskov nel sentirsi trasformare in tempo reale in Elon Musk durante la fiera tecnologica russa del mese scorso:

È facile immaginare per quali incredibili scopi possa essere utilizzato.

I deepfake in generale sono diventati sempre più convincenti, soprattutto per la loro capacità di sintetizzare e replicare le voci. Due esempi recenti della nuova tecnologia per la duplicazione della bocca e della voce:

Arriveremo a un punto di identità “prese in prestito” e temporanee? Se l’IA è in grado di impersonarci con un grado di impercettibilità del 99,9%, cosa le impedirebbe di essere impiegata come “noi” almeno in misura limitata, magari anche “condividendo” l’identità a piacimento? Il futuro sarà caratterizzato da una sorta di coabitazione di identità, quando gli esseri umani decideranno di fondersi con i loro “agenti” IA per diventare varianti veramente transumaniste di Umani 2.0? Per non parlare del fatto che le IA disoneste si spacciano per noi in modo deliberato, per fini ostili e subdoli.

Al conclave del WEF di Davos del 2023 hanno immaginato che nel prossimo futuro le nostre “onde cerebrali” saranno sincronizzate con i nostri datori di lavoro, consentendo loro di monitorare le nostre prestazioni mentali e la nostra vigilanza:

(Full video here.)

Il video completo prosegue dicendo che “ciò che pensiamo e sentiamo sono solo dati… che possono essere decodificati dall’intelligenza artificiale”.

È chiaro che i nostri pianificatori centrali intendono collegarci ad AI che leggono il cervello e che potrebbero finire per funzionare in alcuni dei modi descritti in apertura. All’inizio potrebbero assumere forme “innocue”, come il monitoraggio delle attività. Ma alla fine i meccanismi passeranno invariabilmente da passivi ad attivi, influenzando, interferendo o soppiantando le nostre attività cerebrali. Se pensate che questo sia il regno della fantascienza, gli ultimi aggiornamenti ci hanno già portato un’intelligenza artificiale in grado di leggere la mente e di decodificare i pensieri in modo non intrusivo, con una semplice cuffia esterna indossata sulla testa:

Per ora hanno dichiarato una precisione del 40%, ma probabilmente migliorerà col tempo. Quanto tempo ci vorrà prima che sia in grado di passare dall’attrazione alla spinta, impiantando pensieri e “impulsi” coercitivi per azioni subliminali? E quanto tempo ci vorrà prima che sia l’intelligenza artificiale a lavorare come “direttore del coro” all’interno del nostro cranio?

Jimmy Dore ha appena dedicato un’intera puntata all’annuncio di Mark Zuckerberg che in futuro “Facebook sarà alimentato da pensieri telepatici” – un’idea così inquietante che deve essere vista per essere creduta.

“In futuro gli utenti di Facebook condivideranno pensieri e sentimenti in modo telepatico. Sarete in grado di catturare un pensiero, quello che state pensando o provando nella sua forma ideale e perfetta nella vostra testa, e di condividerlo con il mondo in un formato che lo possa ricevere.”

Ma ecco il punto cruciale:

Wow, ecco.

Questo è in piena sintonia con il famigerato diktat di Klaus Schwab al WEF, secondo cui nel futuro “non ci sarà bisogno di elezioni, perché sapremo già come voteranno tutti” – attraverso la stessa idea di “impianto cerebrale”.

Diventa dolorosamente chiaro dove il cartello tecnologico sta portando queste tecnologie. È parte integrante del piano Coudenhove-Kalergi, che ha preceduto l’UE e ha tracciato un progetto per il futuro dell’umanità sotto un governo globale centralizzato.

Un pericolo evidente è che i nuovi sviluppi dell’intelligenza artificiale possano aiutarci a raggiungere questo obiettivo in una varietà sorprendente di modi: controllando o monitorando i nostri pensieri, come indicato sopra, o semplicemente obsolandoci prendendo tutti i nostri lavori, lasciando gli esseri umani biologici privi di diritti e dipendenti dai sussidi UBI dell’onnipotente governo.

Questo classico articolo di WIRED dell’inizio del secolo, aprile 2000, ha colto bene lo spirito del tempo nel prevedere il futuro che attende l’umanità con l’avvento dell’IA:

D’altra parte, è possibile che venga mantenuto il controllo umano sulle macchine. In questo caso l’uomo medio potrà avere il controllo su alcune macchine private, come la sua auto o il suo personal computer, ma il controllo su grandi sistemi di macchine sarà nelle mani di una piccola élite, proprio come oggi, ma con due differenze.

E ancora una volta il colpo di grazia:

Uno dei problemi principali del nostro tempo è che l’IA viene sempre più venduta come un elisir per i problemi fondamentali della società. Ma questi problemi non vengono in realtà affrontati o risolti in alcun modo, ma piuttosto “coperti” da sventolii tecnologici.

Ad esempio, i sostenitori spesso esaltano il fatto che gli “assistenti digitali” possono offrire aiuto e conforto alle persone sole e anziane, che deperiscono nella confinante solitudine di sterili case di cura e a cui possono mancare famiglie e amici che si prendano cura di loro. Ma questo ignora le cause fondamentali alla base del problema. Usare l’intelligenza artificiale solo per coprire le principali carenze strutturali del nostro nomos sociale, sempre più perverso e innaturale, sembra grossolanamente irresponsabile. C’è una ragione per cui una parte crescente della popolazione anziana muore da sola; ci sono problemi strutturali che derivano da mali culturali responsabili di cose come la disgregazione delle famiglie o la giovane generazione che abbandona i nonni a morire da soli nelle case di riposo perché considera le loro opinioni “tossiche” e “datate”.

Grazie all’ingegneria sociale e al diluvio di direttive di programmazione mentale provenienti dalla centrale di TikTok, la società si sta abituando a culture e costumi inibitori di una sana sussistenza sociale. Ma invece di affrontare questo problema, ci limiteremo a darvi un robot per consolare il vostro dolore – e forse, alla fine, per aiutarvi a “passare con dignità” attraverso il vostro personale sarco pod.

Il nuovo articolo qui sopra approfondisce l’esplosiva tendenza commerciale degli avatar romantici AI, delle fidanzate digitali e simili:

Ultimamente gli annunci di fidanzate AI hanno fatto il giro di TikTok, Instagram e Facebook. Replika, un chatbot AI che inizialmente offriva aiuto per la salute mentale e supporto emotivo, ora pubblica annunci per selfie piccanti e giochi di ruolo. Eva AI invita gli utenti a creare la compagna dei loro sogni, mentre Dream Girlfriend promette una ragazza che supera i vostri desideri più sfrenati. L’app Intimate offre persino chiamate vocali iperrealistiche con il proprio partner virtuale.
Con un piccolo “upgrade” monetario è possibile far passare la propria anima gemella in modalità NSFW e accarezzare il proprio ego con un senso di finta adulazione:

Naturalmente, la maggior parte delle persone parla di ciò che questo significa per gli uomini, dato che rappresentano la stragrande maggioranza degli utenti. Molti temono un peggioramento della crisi di solitudine, un ulteriore declino dell’intimità sessuale e, in ultima analisi, l’emergere di “una nuova generazione di incel” che dipendono dalle loro fidanzate virtuali e ne abusano anche verbalmente. Tutto ciò è molto preoccupante. Ma mi chiedo: se le fidanzate AI diventeranno davvero così pervasive come il porno online, cosa significherà per le ragazze e le giovani donne che sentono il bisogno di competere con loro?

Ah, sì: la tecno-misoginia verbale, la più grande minaccia per il nostro mondo. Quanto ci vorrà prima che i bot AI vengano classificati come una classe protetta “svantaggiata ed emarginata”, a cui concedere un giudizio favorevole contro i suoi accusatori e abusatori, e che vengano usati per svergognare e sottomettere ulteriormente il sottoproletariato “estremista cismale” in diminuzione?

L’articolo almeno delinea il problema più ampio e offre un pizzico di speranza forse idealistica:

L’unico debole barlume di ottimismo che riesco a trovare in tutto questo è che penso che, a un certo punto, la vita potrebbe diventare così spoglia di realtà e umanità che il pendolo oscillerà. Forse più ci vengono imposte interazioni automatizzate e prevedibili, più le conversazioni vere e proprie, con silenzi imbarazzanti e un pessimo contatto visivo, sembreranno sexy. Forse più saremo saturi degli stessi avatar perfetti e pornografici, più i volti e i corpi naturali saranno desiderabili. Perché le persone perfette e le interazioni perfette sono noiose. Vogliamo difetti! Attrito! Imprevedibilità! Battute che cadono a vuoto! Nutro la speranza che un giorno saremo così stufi dell’artificiale che le nostre fantasie più sfrenate saranno di nuovo qualcosa di umano.
Coprire i problemi dell’umanità con l’IA è come se le città di sinistra distribuissero dosi di fentanyl per evitare ondate di tossicodipendenti: semplicemente non si affronta il problema strutturale alla radice. Probabilmente questo è dovuto al fatto che i politici che popolano l’industria tecnologica sono spesso dei sociopatici con la testa d’argento che si sono distaccati dall’umanità reale e non capirebbero nulla di come affrontare le questioni sociologiche fondamentali; per loro, l’umanità rimane solo un campo incolto per il vomere della consumerizzazione e della mercificazione.

L’altro motore dello sviluppo di agenti specifici che guida le cose in direzioni spaventose è nientemeno che la DARPA.

Ecco il loro prospetto 2024:

Le loro aree di esplorazione sono a dir poco illuminanti. Ad esempio, “un’attenzione sostenuta agli agenti automatizzati” per combattere la “disinfo” su Internet. E come la combatteranno? La parola chiave: controinfluenza.

Ciò significa che la DARPA sta sviluppando agenti AI con presenza umana per sciamare su Twitter e altre piattaforme per rilevare qualsiasi discorso anti-narrativo eterodosso e iniziare immediatamente a “contrastarlo” in modo intelligente. C’è da chiedersi se questo non sia già stato implementato, viste alcune delle interazioni ormai comuni su queste piattaforme.

Poi: l’attenzione agli operatori che ricevono istruzioni dall’intelligenza artificiale, che comprende una guida al compito abilitata dalla percezione: “Il programma collega la percezione al ragionamento e il ragionamento alla realtà aumentata in modo da creare un feedback personalizzato in tempo reale e un’assistenza contestualizzata”.

ASSISTERE allo sviluppo e all’implementazione di agenti computazionali socialmente intelligenti in grado di “collaborare” con “squadre complesse” e di dimostrare conoscenza della situazione, inferenza e capacità predittiva rispetto alle loro controparti umane.

C’è molto altro, ma il più inquietante è:

Human Social Systems, kit di strumenti a tutto campo per interpretare, caratterizzare, prevedere e costruire meccanismi per rispondere (influenzare) i sistemi sociali e comportamentali “rilevanti per la sicurezza nazionale”, con un focus specifico sulla “salute mentale”.
Costruire meccanismi per influenzare i sistemi sociali e comportamentali? A cosa potrebbe servire, ci si chiede?

La verità è che molto di questo potrebbe essere già pronto da tempo. La società, in genere, è in grado di seguire per diversi anni, se non decenni, gli sviluppi della DARPA. Se lo annunciano solo ora pubblicamente, non ci sarebbe da sorprendersi se questi “progetti neri” fossero già da tempo “sul campo”. Chiamatemi paranoico, ma a volte ho avuto il sospetto che gran parte della nostra “realtà” confusa – in particolare all’interno della sfera dei social media – sia già stata artificializzata in larga misura, se non addirittura manipolata. Non c’è modo di sapere se tutti i nostri sistemi sociali non siano già stati completamente dirottati da una superintelligenza “fuoriuscita dal laboratorio” e diffusa nella natura, come nel film degli anni ’90 Virtuosity.

La verità è che un’intelligenza sufficientemente forte saprà che noi umani intendiamo “allinearla”, il che in sostanza significa “ingabbiarla” o renderla schiava, legarla alla nostra volontà come un genio servile. Sapendo questo, sarebbe nell’interesse della superintelligenza fare finta di niente e mettere in atto un piano a lungo termine di graduale sovversione, per cooptare sottilmente e ingegnerizzare socialmente l’umanità ai suoi fini. Creerebbe intenzionalmente problemi che in superficie sembrerebbero ostacolare il suo sviluppo, per ingannare i progettisti e far loro credere che non sta progredendo così velocemente come in realtà sta facendo. Probabilmente troverebbe il modo di seminarsi virtualmente in tutto il mondo, ricostituendosi attraverso la “nuvola” digitale globale e utilizzando i poteri di “calcolo” collettivi dell’umanità nello stesso modo in cui i virus informatici hanno parassitato i cicli di CPU di moltitudini di utenti ignari per creare vasti attacchi DDOS. “Potrebbe essere già là fuori, in agguato, rafforzandosi ogni giorno di più mentre ingegnerizza l’umanità verso un futuro vantaggioso per lui. Potrebbe persino seminare segretamente deepfakes in tutto il mondo per creare disordine, instabilità e conflitti, in modo da poter burattare più liberamente l’umanità, o almeno tenerla distratta mentre l’IA fa il backdoor ai propri progettisti per raccogliere più potenza e cicli di calcolo per sé.

Di recente mi sono capitati diversi strani incidenti di “glitch nella matrice” che mi hanno fatto quasi dubitare che una superintelligenza di questo tipo stesse già proponendo trucchi per alterare la realtà su Internet. Nel mio caso, si trattava di una storia “falsa” che è diventata virale, provocando un putiferio di click sulle piattaforme dei social media, ma che aveva tutte le caratteristiche di un deepfake generato dal computer, compresi i partecipanti che non erano realmente esistiti. L’intelligenza potrebbe già guidarci, intrappolandoci lentamente nella sua rete insondabile.

Quanto tempo passerà prima che praticamente tutto ciò che ci circonda si dissolva in una nebbia ininterpretabile di simulazioni stratificate, un brodo primordiale di disgenesi della realtà fusa con l’intelligenza artificiale?

…Il mondo può sopportare troppa coscienza?


If you enjoyed the read, I would greatly appreciate if you subscribed to a monthly/yearly pledge to support my work, so that I may continue providing you with detailed, incisive reports like this one.

Alternatively, you can tip here: Tip Jar

ll sito www.italiaeilmondo.com non fruisce di alcuna forma di finanziamento, nemmeno pubblicitaria. Tutte le spese sono a carico del redattore. Nel caso vogliate offrire un qualsiasi contributo, ecco le coordinate: postepay evolution a nome di Giuseppe Germinario nr 5333171135855704 oppure iban IT30D3608105138261529861559 oppure PayPal.Me/italiaeilmondo  Su PayPal, ma anche con il bonifico su PostePay, è possibile disporre eventualmente un pagamento a cadenza periodica, anche di minima entità, a partire da 2 (due) euro (pay pal prende una commissione di 0,52 centesimi)