AI Slop-‘n-Mush aumenta, di Simplicius
Le aziende tecnologiche hanno intensificato la loro spinta a trasformare le nostre realtà in simulacri sintetici di post-verità in cui tutto è reale e niente è reale, dove i “fatti” sono semplicemente mezzi di comunicazione pubblicitaria e la realtà stessa è pastorizzata in poltiglia al servizio delle narrazioni del capitale di rischio.
Alcuni potrebbero aver notato la preponderanza di risposte di bot AI su Twitter e altrove, con l’intera Internet che sta lentamente diventando una fogna industriale di datamosh AI mal concepiti. La ricerca di Google è diventata “inutilizzabile”, così affermano decine se non centinaia di video e articoli che evidenziano come il motore di ricerca sia ora crivellato di risultati preferenziali allo spam a pagamento di Google, servizi, prodotti inutili e altre scorie. Per non parlare del fatto che i risultati sono crivellati di melma AI, rendendo quasi impossibile pescare le informazioni necessarie dal mare di cacca:
Molti hanno iniziato a usare un hack “prima del 2023” nelle query di ricerca per aggirare la singolarità della slop, o slopularità che ora contamina ogni ricerca.
Aggiungere “prima del 2023” può migliorare le tue ricerche web su Google ed eliminare i contenuti generati dall’intelligenza artificiale
Meta ha annunciato un’ondata di nuovi “profili” AI che agiranno come normali utenti umani di Instagram/Facebook nell’interazione con le persone. A quale scopo, esattamente? Il tuo autore non ne ha la più vaga idea.
Meta conferma che ha intenzione di aggiungere tonnellate di utenti generati dall’intelligenza artificiale a Instagram e Facebook. Avranno biografie, foto del profilo e potranno condividere contenuti
Sembra però che l’intrepida ricercatrice Whitney Webb abbia ragione : conservate il pensiero in grassetto per dopo:
Il libro di Kissinger/Eric Schmidt sull’IA afferma fondamentalmente che la vera promessa dell’IA, dal loro punto di vista, è quella di essere uno strumento di manipolazione della percezione, ovvero che alla fine le persone non saranno in grado di interpretare o percepire la realtà senza l’aiuto di un’IA tramite decadimento cognitivo e impotenza appresa. Perché ciò accada, la realtà online deve diventare così folle che le persone reali non riescano più a distinguere il vero dal falso nel regno virtuale, così da poter diventare dipendenti da certi algoritmi che dicono loro cosa è “reale”. Per favore, per favore, rendetevi conto che siamo in guerra contro le élite sulla percezione umana e che i social media sono un importante campo di battaglia in quella guerra. Mantenete il vostro pensiero critico e scetticismo e non arrendetevi mai.
E questa parte merita di essere ripetuta: ” Affinché ciò accada, la realtà online deve diventare così folle che le persone reali non riescano più a distinguere il vero dal falso nel regno virtuale, così da poter diventare dipendenti da certi algoritmi che dicono loro cosa è “reale”.”
Davvero, date un’occhiata al nuovo replicante IA queer e nero di Meta:
Questa potrebbe essere una questione filosofica, ma le IA possono davvero essere queer? E che dire di un’IA che si appropria di astroturfing, cultura e personalità, con il volto dipinto di nero? Queste corporazioni malate non hanno proprio nessuna vergogna?
Voglio dire, dai:
Sbalorditivo.
Per maggiori informazioni clicca qui.
In effetti, queste strane operazioni psicologiche mascherate da “profili AI” sono state un altro imbarazzante fallimento per Meta, con le persone che si sono subito rese conto di quanto tutto ciò sia distopico e rotto:
Il punto ovvio è che i social network pensati per gli esseri umani per presumibilmente “creare connessioni più profonde” ora vengono deliberatamente popolati dai loro creatori con account AI spazzatura che producono cianfrusaglie per spacciarsi per esseri umani veri. Si tratta semplicemente di un espediente per riempire di riempitivi aziende morenti come Facebook, facendole apparire più “attive” di quanto non siano in realtà? O c’è un solco più oscuro in questa imposizione in stile Black Mirror?
Secondo Meta stessa, fa parte di una seria strategia a lungo termine per promuovere il “coinvolgimento”:
Meta scommette che nei prossimi anni i personaggi generati dall’intelligenza artificiale riempiranno le sue piattaforme di social media , puntando su questa tecnologia in rapido sviluppo per aumentare l’interazione con i suoi 3 miliardi di utenti.
Il gruppo della Silicon Valley sta lanciando una serie di prodotti di intelligenza artificiale, tra cui uno che aiuta gli utenti a creare personaggi AI su Instagram e Facebook, mentre combatte con i gruppi tecnologici rivali per attrarre e fidelizzare un pubblico più giovane.
“Ci aspettiamo che queste IA, col tempo, esistano effettivamente sulle nostre piattaforme, più o meno nello stesso modo in cui lo fanno gli account”, ha affermato Connor Hayes, vicepresidente del prodotto per l’IA generativa presso Meta.
“Avranno una biografia e un’immagine del profilo e saranno in grado di generare e condividere contenuti basati sull’intelligenza artificiale sulla piattaforma… è lì che vediamo tutto questo andare”, ha aggiunto.
In breve: più “interazioni” (ovvero clic, visualizzazioni di pagina, ecc.) riescono a farti avere, più opportunità di posizionamento degli annunci, sfruttamento dei tuoi dati e simili creano, quindi maggiori entrate.
Il problema è che, nel loro tentativo di massimizzare i margini di profitto da una popolazione sempre più disinteressata, stanno trasformando indirettamente tutta la realtà in un miscuglio sintetico di cianfrusaglie. Tutto questo viene fatto senza alcuna previdenza per le conseguenze sociali e culturali: nessuno si chiede quali tipi di effetti a lungo termine ci si possono aspettare. La spinta a utilizzare rapidamente l’IA come stampella, o per superare i concorrenti, sta portando alla lenta cancellazione dell’esperienza autentica.
Un esempio lampante è che i nuovi telefoni non registrano più la realtà, ma utilizzano l’intelligenza artificiale per “migliorare” le immagini, creando così un falso simulacro di dettagli artificiali che in realtà non esistono:
Ehi, finché ‘assomiglia più o meno a come ti ricordi che appariva la luna’ dovrebbe andare tutto bene, giusto? Ma a un certo punto la memoria collettiva della cosa reale viene completamente sostituita dalla costruzione artificiale?
Questa nuova tendenza sta prendendo piede ovunque. Anche le schede grafiche più recenti stanno ora utilizzando l’intelligenza artificiale per, essenzialmente, costruire pixel falsi, una sorta di simulazione nella simulazione:
Come già detto, l’intelligenza artificiale verrà presto utilizzata per colmare in modo sconsiderato ogni possibile carenza umana e sociale, senza pensare alle conseguenze di secondo e terzo ordine.
E in linea con gli “utenti generati” di Meta, le aziende ora ci sfruttano per creare surrogati di intelligenza artificiale, anche senza il nostro consenso:
Instagram sta testando la pubblicità con IL TUO VOLTO: gli utenti lamentano il fatto che nel feed hanno iniziato ad apparire annunci pubblicitari mirati che mostrano il loro aspetto.
La cosa inquietante è che hai utilizzato Meta AI per modificare i tuoi selfie.
Usa uno qualsiasi degli ultimi strumenti di intelligenza artificiale per caricare foto di te o della tua famiglia e potresti presto trovare le immagini utilizzate in grotteschi esperimenti di intelligenza artificiale a scopo di lucro come quello sopra. Non è un caso fortuito, ci sono stati molti casi simili di recente:
Una YouTuber ucraina scopre decine di suoi cloni che promuovono la propaganda cinese e russa. Ogni clone ha una storia diversa e finge di essere una persona reale. “Ha la mia voce, il mio viso e parla fluentemente il mandarino”.
Cavolo, il tizio che si sarebbe fatto esplodere nel Tesla Cybertruck avrebbe addirittura utilizzato l’intelligenza artificiale per pianificare l’attacco:
Il sospettato dell’esplosione del pick-up elettrico Tesla Cybertruck vicino all’ingresso del Trump International Hotel ha utilizzato l’intelligenza artificiale generativa (IA) ChatGPT per pianificare il crimine, ha affermato lo sceriffo della polizia cittadina Kevin McMahill in una conferenza stampa.
Secondo lui, questo è il primo caso noto di ChatGPT utilizzato per tali scopi negli Stati Uniti. Secondo le forze dell’ordine, il sospettato del crimine, Matthew Leavelsberger, voleva usare l’intelligenza artificiale per scoprire di quanti esplosivi avrebbe avuto bisogno per portare a termine l’attacco e dove avrebbe potuto acquistare il numero richiesto di fuochi d’artificio.
Anche la nostra accogliente casa di Substack, a quanto si dice, è invasa:
Il rapporto sopra riportato afferma che WIRED ha pagato per alcuni dei più grandi account Substack, per accedere alle loro sezioni a pagamento, identificando quindi i contenuti scritti dall’IA. Normalmente attribuirei questo a falsi positivi, dato che la mia stessa scrittura una volta è stata scansionata come “generata dall’IA” secondo un utente sconcertato, in seguito ho scoperto che questi “rilevatori di IA” erano molto imperfetti. Ma è passato un po’ di tempo e le cose sono probabilmente migliorate ora: in seguito ai test del rapporto sopra riportato, WIRED afferma che diversi autori hanno ammesso privatamente di utilizzare effettivamente l’IA nel loro flusso di lavoro. Bene, ora, cari lettori, sapete perché personalmente privilegio una prosa così elaborata, eccentrica o addirittura “sperimentale” nella mia scrittura, sempre desideroso di stare al passo con il limite dell’IA. La prossima apocalisse monotona probabilmente sommergerà l’intera Internet sotto una coltre infinita di scarabocchi di IA insipidi, procedurali e standardizzati; permettetemi di andarmene in un tripudio di gloria anticonformista.
Va notato che l’articolo chiarisce che Substack ha uno dei contenuti di intelligenza artificiale più bassi in percentuale rispetto a tutti gli altri popolari dump di scrittura come Medium:
Rispetto ad alcuni dei suoi concorrenti, Substack sembra avere una quantità relativamente bassa di scrittura generata dall’IA. Ad esempio, altre due aziende di rilevamento dell’IA hanno recentemente scoperto che quasi il 40 percento dei contenuti sulla piattaforma di blogging Medium è stato generato utilizzando strumenti di intelligenza artificiale. Ma una grande porzione dei presunti contenuti generati dall’IA su Medium ha avuto scarso coinvolgimento o lettori, mentre la scrittura AI su Substack viene pubblicata da account potenti.
Hanno persino lanciato un badge “Certified Human” per i blog che hanno superato il test e immaginano un futuro in cui gli scrittori possono segnalare la loro umanità, un po’ come i tag “azienda di proprietà femminile/LGBT” su Google Maps.
Nei prossimi anni, simili distintivi e sigilli che affermano che le opere creative sono umane al 100 percento potrebbero proliferare ampiamente. Potrebbero far sentire ai consumatori preoccupati di fare una scelta più etica, ma sembra improbabile che rallentino la costante penetrazione dell’intelligenza artificiale nei settori dei media e del cinema.
Ho deciso di apporre preventivamente il mio badge, per ogni evenienza:
Ma non sono l’unico ad aver notato questo declino generalizzato.
Questo recente articolo del Financial Times mette in luce la bizzarra discesa della cultura di Internet nella follia della singolarità terminale e kitsch:
Le strane immagini di un Gesù rosa viscido fatto di gamberi probabilmente non erano ciò che OpenAI aveva in mente quando ha avvertito che l’intelligenza artificiale avrebbe potuto distruggere la civiltà. Ma questo è ciò che accade quando metti una nuova tecnologia nelle mani del pubblico e gli dici che può fare tutto ciò che vuole. Dopo due anni di rivoluzione dell’intelligenza artificiale generativa, siamo arrivati all’era della melma.
La proliferazione di contenuti sintetici di bassa qualità come Shrimp Jesus è per lo più deliberata, progettata tramite strani prompt per scopi commerciali o di coinvolgimento. A marzo, i ricercatori della Stanford e della Georgetown University hanno scoperto che l’algoritmo di Facebook era stato di fatto dirottato da contenuti spam da modelli di testo in immagini come Dall-E e Midjourney. L’account “Insane Facebook AI slop” su X ha mantenuto un conteggio in corso. Uno dei preferiti in vista delle elezioni statunitensi mostrava Donald Trump che salvava coraggiosamente dei gattini.
Per inciso: avete notato quanto suonano terribilmente “morte” le nuove voci fuori campo dell’IA, che hanno completamente spopolato il mercato dei documentari su YouTube? Sembrano realistiche a livelli di “uncanny valley”, ma più le ascoltate ronzare, più iniziate a perdere i minuscoli strati sfumati di sottotesto forniti dalle inflessioni naturali, dalle pause e da altri radicati espedienti comunicativi di un presentatore umano. Ascoltare un narratore umano offre una nuova dimensione di significato, per quanto sottile, per cui il vostro cervello cerca naturalmente connessioni di contesto tra il narratore e il materiale, aprendo percorsi immaginativi e indirettamente lasciandovi più ricettivi al materiale presentato. Il narratore dell’IA ha qualcosa che manca e lascia il materiale stesso, sebbene possa essere prodotto in modo splendido, con la sensazione che manchi qualcosa.
Ma sebbene tutti gli stravaganti e buffi espedienti per la saturazione dell’intelligenza artificiale possano sembrare innocui, come accennato all’inizio, molti credono che siano un’intensificazione deliberata volta a intrappolarci in un vortice di informazioni, a disperdere la realtà in una matrice di “post-verità” in cui i nostri nuovi padrini dell’intelligenza artificiale saranno gli autori autorevoli delle nostre nuove “verità” per conto dei loro programmatori.
Brandon Smith ne ha parlato in un articolo l’anno scorso , scrivendo:
Per riassumere, i globalisti vogliono la proliferazione dell’intelligenza artificiale perché sanno che le persone sono pigre e useranno il sistema come sostituto della ricerca individuale. Se ciò accadesse su larga scala, l’intelligenza artificiale potrebbe essere utilizzata per riscrivere ogni aspetto della storia, corrompere le radici stesse della scienza e della matematica e trasformare la popolazione in una mente alveare sbavante; una schiuma ronzante di droni senza cervello che divorano ogni proclamazione dell’algoritmo come se fosse sacrosanta.
In questo senso, Yuval Harari ha ragione. L’intelligenza artificiale non ha bisogno di diventare senziente o di brandire un esercito di robot killer per fare grandi danni all’umanità. Tutto ciò che deve fare è essere abbastanza comoda da non farci più preoccupare di pensare con la nostra testa. Come il “Grande e Potente” OZ nascosto dietro una tenda digitale, dai per scontato di acquisire conoscenza da un mago quando in realtà sei manipolato da venditori di elisir globalisti.
Dopotutto, basta ascoltare cosa dicono le élite tecnologiche in cima alla scala sociale riguardo all’integrazione dell’intelligenza artificiale nei nostri nuovi paradigmi di controllo:
Naturalmente, l’articolo afferma che la società “Oracle” di Ellison sta investendo molto nell’intelligenza artificiale. E, cosa interessante, Oracle menziona come in futuro non saranno necessarie nemmeno le auto della polizia perché i droni AI sorveglieranno la città e inseguiranno i sospettati da soli. Ciò corrisponde a un’iniziativa già lanciata da un altro titano della tecnologia, il partner di Mark Andreessen, descritto qui:
Spiega come il dipartimento di polizia di Las Vegas abbia ora la “capacità di piazzare un drone su qualsiasi furto o chiamata al 911 in 90 secondi. Il drone può quindi seguire il colpevole e non puoi sfuggire a queste cose”. La cosa più interessante è che oltre all’utilità pedante nel “salvare vite” (o qualsiasi altra scusa a buon mercato che fornisce), Andreessen punta ulteriormente e prevedibilmente la tecnologia sul grande elefante distopico: “L’effetto deterrente”.
Raggiante di gioia insensata, il tiranno aspirante dalla testa di mollusco si crogiola nella capacità dei droni di creare una rete di paura nei cittadini. Dimostrando la sua incapacità di comprendere le conseguenze di secondo e terzo ordine, intona vanamente che:
“Se sai che a Las Vegas se entri in un 7-11 alle 2 di notte verrai beccato da un drone, non lo farai, giusto?” Chiunque abbia intelligenza soppeserebbe il potenziale pericoloso di abuso rispetto ai presunti benefici di un simile caso d’uso. Esempio di esperimento mentale: nell’era post-11 settembre del Patriot Act e della Homeland Security che ha visto la creazione della TSA, confronta il numero di crimini gravi risolti dalla TSA, o di terroristi “colti sul fatto”, con il numero di abusi su larga scala commessi dall’agenzia repressiva contro centinaia di migliaia di cittadini stufi. Uno o due criminali catturati o crimini risolti valgono la totale rivisitazione della società in un panopticon basato sulla paura?
Ciò porta alla naturale domanda del pendio scivoloso: a che punto ci si ferma? Man mano che l’intelligenza artificiale avanza, si continua a mettere in atto una sorveglianza, delle restrizioni, dei controlli sempre maggiori, eccetera, finché tutti i crimini e le sofferenze umane non saranno completamente eliminati? A che punto ciò avverrebbe? E la naturale conseguenza: perché non eliminare semplicemente tutta l’umanità stessa, o collegare tutti a una “Matrice” perpetua per impedire a chiunque di “essere ferito” ancora una volta, il massimo telos del fiocco di neve radicale di sinistra, a quanto pare. Deve arrivare un punto in cui viene tracciata una linea, e le persone sagge riconoscono e accettano che un po’ di crimine e dolore sono un prezzo necessario per vivere in una società libera. Perché questo semplice calcolo è sempre stato così totalmente sfuggente alla comprensione degli utopisti radicali di sinistra folli?
Un ulteriore approfondimento da parte del mollusco utopico:
Ricordi questo?
Molto di questo, tra l’altro, è gettato con una sfumatura veramente inquietante date le recenti rivelazioni che circondano la morte del whistleblower di OpenAI Suchir Balaji. Proprio mentre scrivo, Tucker Carlson ha rilasciato una lunga intervista esclusiva con la madre di Suchir, contenente una serie di rivelazioni scioccanti: lei contesta apertamente che la sua morte non sia stata un suicidio come stabilito, ma che sia stata quasi certamente un omicidio-omicidio. Guardala qui tu stesso:
https://x.com/TuckerCarlson/status/1879656459929063592
Tra le sue numerose prove ci sono questi tre fatti chiave:
- Tutto il suo appartamento era sporco di sangue
- La ferita d’ingresso del proiettile è attorno alla fronte con un’angolazione di 30-45 gradi verso il basso, un’angolazione impossibile per infliggersi una ferita da arma da fuoco autoinflitta.
- La cosa più strana è che sarebbero stati recuperati pezzi di una parrucca macchiata di sangue , le cui fibre di capelli non corrispondono ai capelli di Suchir.
Il punto è dire che queste aziende tecnologiche stanno giocando per tenere duro. È risaputo che OpenAI si è ormai quasi completamente fusa con lo stato profondo governativo, con persone come l’ufficiale della CIA Will Hurd e il capo della NSA Paul Nakasone che si sono uniti al consiglio di OpenAI. Ciò significa che aziende come OpenAI sono semplicemente estensioni di potenti interessi governativi che non rispettano le regole e hanno una storia di “eliminazione” di chiunque possa rappresentare una minaccia al loro ordine tecnocratico. A proposito, Will Hurd avrebbe anche fatto parte del consiglio di amministrazione della famigerata In-Q-Tel, un ritaglio della CIA famoso per aver finanziato Google e per i suoi collegamenti anche con Facebook:
In breve: se si interferisce con OpenAI, si finisce per avere a che fare con gente poco raccomandabile che proteggerà i propri beni a tutti i costi.
Stranamente, incanalando il famoso discorso di avvertimento di Eisenhower sul complesso militare-industriale del 17 gennaio 1961, Biden ieri sera nel suo discorso di addio ha messo in guardia dall’ascesa di un “complesso tecnologico-industriale” e di un’oligarchia che rappresentano una minaccia per gli Stati Uniti. Come sempre, Biden e i suoi tirapiedi non si sono mai preoccupati di nulla di tutto ciò quando Soros, Adelson, Murdoch, Koch, Pritzker e molti altri miliardari correvano in giro a finanziare cause pro-establishment. Ora che è emersa una coppia di miliardari in Trump e Musk che hanno preso posizione contro l’ortodossia, improvvisamente è un allarme panico per il “complesso tecnologico-industriale”.
Be’, meglio tardi che mai, suppongo.
Nel frattempo, la matrice big-tech-big-intel continuerà a pompare il fango per riorganizzare il nostro rapporto con la verità e la realtà, rendendo più facile l’iniezione delle loro piccole e distorte falsità quotidiane.
Se hai apprezzato la lettura, ti sarei molto grato se sottoscrivessi un impegno mensile/annuale per sostenere il mio lavoro, così da poter continuare a fornirti resoconti dettagliati e incisivi come questo.
In alternativa, puoi dare la mancia qui: Barattolo delle mance
CONTRIBUITE!! AL MOMENTO I VERSAMENTI COPRONO UNA PARTE DELLE SPESE VIVE DI CIRCA € 4.000,00. NE VA DELLA SOPRAVVIVENZA DEL SITO “ITALIA E IL MONDO”. A GIORNI PRESENTEREMO IL BILANCIO AGGIORNATO _GIUSEPPE GERMINARIO
ll sito www.italiaeilmondo.com non fruisce di alcuna forma di finanziamento, nemmeno pubblicitaria. Tutte le spese sono a carico del redattore. Nel caso vogliate offrire un qualsiasi contributo, ecco le coordinate:
postepay evolution a nome di Giuseppe Germinario nr 5333171135855704
oppure iban IT30D3608105138261529861559
oppure PayPal.Me/italiaeilmondo
oppure https://it.tipeee.com/italiaeilmondo/
Su PayPal, Tipee, ma anche con il bonifico su PostePay, è possibile disporre eventualmente un pagamento a cadenza periodica, anche di minima entità, a partire da 2 (due) euro (pay pal prende una commissione di 0,52 centesimi)