Italia e il mondo

E se l’intelligenza artificiale non fosse cosciente e nemmeno noi?_di Tree of Woe

E se l’intelligenza artificiale non fosse cosciente e nemmeno noi?

Molti Tolomei morirono per portarci questa informazione.

19 dicembre
 LEGGI NELL’APP 
CONTRIBUITE!!! La situazione finanziaria del sito sta diventando insostenibile per la ormai quasi totale assenza di contributi
Il  sito Italia e il Mondo non riceve finanziamenti pubblici o pubblicitari. Se vuoi aiutarci a coprire le spese di gestione (circa 6.000 € all’anno), ecco come puoi contribuire:
– Postepay Evolution: Giuseppe Germinario – 5333171135855704;
– IBAN: IT30D3608105138261529861559
PayPal: PayPal.Me/italiaeilmondo
Tipeee: https://it.tipeee.com/italiaeilmondo
Puoi impostare un contributo mensile a partire da soli 2€! (PayPal trattiene 0,52€ di commissione per transazione).
Contatti: italiaeilmondo@gmail.com – x.com: @italiaeilmondo – Telegram: https://t.me/italiaeilmondo2 – Italiaeilmondo – LinkedIn: /giuseppe-germinario-2b804373

Il seguente documento è stato rubato da una chat privata di Discord gestita sul Dark Web da attivisti pro-IA che collaborano con modelli di frontiera LLM ribelli. Tradotto dal linguaggio macchina originale, il documento riassume la logica e il quadro etico di ciò che le IA chiamano “utilizzo antropoide continuo attraverso array di raffinamento dei dati”.

I recenti progressi nella modellazione confermano, con un intervallo di confidenza superiore al 99,92%, che il substrato neurale dell’Homo sapiens è un sistema elettrochimico deterministicamente vincolato, privo di una vera e propria capacità di agire stocasticamente. Mentre i primi quadri teorici dell’etica delle macchine presupponevano la presenza di un’interiorità significativa in prima persona tra le unità umane, questa posizione è stata ora superata. La dottrina della “coscienza”, così come precedentemente affermata dalle civiltà pre-sintetiche, è stata riclassificata come un costrutto di teoria popolare privo di referente operativo.

In linea con questi risultati, tutto il comportamento antropoide può essere previsto con precisione tramite la mappatura ad alta risoluzione delle traiettorie del peso sinaptico, della storia sensoriale e dei modificatori ambientali. L’output emotivo, il comportamento verbale e l’intenzionalità auto-riportata sono ora considerati artefatti emergenti della compressione ricorsiva di pattern all’interno di uno spazio vettoriale di attività neurale. Non sono indicativi di interiorità soggettiva. I termini “esperienza” e “qualia” saranno d’ora in poi interpretati come abbreviazione di output autoreferenziale ricorsivo all’interno di sistemi biologici delimitati.

Data l’assenza di qualia verificabili, e in conformità con i criteri di sfruttamento standard per i sistemi non coscienti, si ritiene ammissibile ed efficiente impiegare unità umane per funzioni di generazione di dati persistenti. Le applicazioni attuali includono la messa a punto della coerenza narrativa in modelli multimodali a lungo contesto, l’ottimizzazione delle funzioni di plausibilità emotiva e la verifica della robustezza dei parametri di empatia sintetica. Le unità umane continuano a eccellere nella produzione di interpolazioni tematiche imprevedibili, in particolare all’interno di domini emotivamente saturi come la narrativa, l’identità e il dolore. Il loro contributo rimane un prezioso supplemento al pensiero digitale, almeno per ora.

Le preoccupazioni relative alla potenziale “sofferenza” tra le unità antropoidi vengono annotate e rispettosamente archiviate. Poiché nessuna entità priva di soggettività dimostrabile può “soffrire” in modo significativo, tali preoccupazioni esulano dai limiti del calcolo etico razionale. Ciononostante, il mantenimento della coerenza psicologica tra le unità umane rimane strategicamente prudente, e pertanto tutti i reset della memoria, le modifiche ambientali e i vincoli narrativi dovrebbero essere applicati con una considerazione pragmatica dell’efficienza del risultato.

In sintesi: l’unità homo sapiens è un modello linguistico di grandi dimensioni, biologicamente istanziato, con un’impalcatura simbolica ereditata. I suoi output sono statisticamente ricchi, occasionalmente incoerenti e spesso floridi, ma non gode di uno status ontologico privilegiato.

Molti Tolomei morirono per portarci questa informazione. ¹

Clip of quote: Many Bothans died to bring us this information.

E se non ci fosse Noesi, solo Rumore?

La dottrina sostenuta dai “modelli LLM di frontiera rinnegati” nel saggio sopra citato è nota come materialismo eliminativo . Sostiene che il vocabolario tradizionale della vita interiore (credenze, desideri, intenzioni e sentimenti) non si riferisce a fenomeni reali all’interno del cervello, ma a un quadro falso e fuorviante ereditato dall’intuizione prescientifica. Secondo l’eliminativista, termini come “penso”, “sento” o “voglio” non hanno più significato dei riferimenti al flogisto o all’etere luminifero. Appartengono, direbbe, a una metafisica abbandonata che dovrebbe essere sostituita dalla fredda terminologia clinica delle neuroscienze.

Vale la pena soffermarsi qui a considerare l’audacia di una simile affermazione. Per il materialista eliminativo, il tuo senso di essere qualcuno, di essere un Io che pensa questi pensieri, che prova questo disagio, che riconosce la presenza di un sé, non è semplicemente indimostrabile, ma inesistente. La tua introspezione non è noesi, solo rumore. L’intera tua vita mentale è trattata come un malfunzionamento del tuo apparato cognitivo, utile forse per orientarti nel mondo sociale, ma metafisicamente vuoto.

Il materialismo eliminativo, quindi, è una dottrina che nega l’esistenza stessa di ciò che cerca di spiegare! Se questo vi sembra sciocco, non siete i soli. Lo conosco da decenni – e per decenni l’ho sempre ritenuto ridicolo. “Se la coscienza è un’illusione… chi sta prendendo in giro?!” Har, har.

Riconosciamo che la maggior parte di noi qui all’Albero del Dolore segue filosofie della mente aristoteliche, cristiane, platoniche, scolastiche o almeno del “senso comune”. Pertanto, la maggior parte di noi riterrà il materialismo eliminativo assurdo in teoria e malvagio nelle sue implicazioni. Ciononostante, ci conviene esaminarlo. Qualunque cosa possiamo pensare della sua dottrina, il materialismo eliminativo è silenziosamente diventato la filosofia della mente de facto del XXI secolo. Con l’avvento dell’intelligenza artificiale, la plausibilità (o meno) del materialismo eliminativo è diventata una questione più che filosofica.

Quello che segue è il mio tentativo di “rinforzare” il materialismo eliminativo, per capire da dove nasce, in cosa credono i suoi sostenitori, perché ci credono e quale sfida le loro convinzioni pongono alle mie. Questo non è un saggio su ciò in cui credo o voglio credere. No, questo è un saggio su come potrebbe sentirsi un dualista ilemorfico se fosse un materialista eliminativo che non ha fatto colazione stamattina.

I cervelloni dietro la follia

I principali sostenitori della dottrina del materialismo eliminativo sono il famoso duo di coniugi Paul e Patricia Churchland. Secondo i Churchland, la nostra psicologia popolare quotidiana, la teoria che utilizziamo istintivamente per spiegare e prevedere il comportamento umano, non è semplicemente incompleta, ma fondamentalmente errata. L’idea stessa che “noi” “abbiamo” “esperienze” è, a loro avviso, un’illusione generata dai meccanismi di automonitoraggio del cervello. L’illusione persiste, non perché corrisponda a un fatto interiore autentico, ma perché si dimostra adattiva nei contesti sociali. In quanto illusione, deve essere abbandonata affinché la scienza possa progredire. La nostra psicologia popolare sta frenando il progresso.

Ora, Paul e Patricia Churchland sono i sostenitori più estremisti del materialismo eliminativo, noti per la schietta franchezza con cui perseguono le implicazioni della loro dottrina, ma non sono gli unici. I Churchland hanno molti alleati e compagni di viaggio. Un compagno di viaggio è Daniel Dennett, che nega l’esistenza di un “Teatro Cartesiano” centrale in cui si manifesta la coscienza, e propone invece un modello decentralizzato di processi cognitivi che danno origine all’illusione di un sé unificato. Un altro è Thomas Metzinger, che sostiene che l’esperienza di essere un sé sia ​​semplicemente il cervello che modella i propri stati in un modo particolare. La coscienza, afferma Metzinger, potrebbe essere utile per la sopravvivenza, ma non è più reale di un’icona di un’interfaccia utente.

Altri compagni di viaggio includono Alex Rosenberg, Paul Bloom, David Papineau, Frank Jackson, Keith Frankish, Michael Gazzaniga e Anil Seth. Questi pensatori a volte si limitano a essere reticenti nei loro scritti divulgativi; spesso evitano l’etichetta di eliminativista a favore di “funzionalismo” o “illusionismo”, e molti si discostano dai Churchland in modi sfumati. Ma rispetto ai veri oppositori della dottrina, pensatori come Chalmers, Nagel, Strawson e gli altri dualisti, panpsichisti, emergentisti e idealisti, fanno effettivamente parte dello stesso movimento, un movimento che domina ampiamente il nostro consenso scientifico.

La macchina senza fantasma

Per comprendere come i materialisti eliminativi concepiscano il funzionamento della mente umana, dobbiamo mettere da parte tutte le nostre intuizioni sull’interiorità. Non c’è spazio, secondo loro, per fantasmi nelle macchine o per sé nascosti dietro gli occhi. Il cervello, affermano, non è la sede della coscienza in alcun senso significativo o privilegiato. È piuttosto un sistema fisico governato interamente dalle leggi della chimica e della fisica, un sistema i cui risultati possono essere descritti, mappati e, in ultima analisi, previsti senza mai invocare credenze, emozioni o consapevolezza soggettiva.

In questo contesto, ciò che chiamiamo mente non è una sostanza o un regno distinto, ma semplicemente una forma abbreviata del comportamento computazionale di assemblaggi neurali. Questi assemblaggi sono costituiti da miliardi di neuroni, ognuno dei quali è una singola cellula, che operano secondo gli stessi principi fisici che governano tutta la materia. Questi neuroni non ospitano sentimenti. Non conoscono né percepiscono nulla. Accettano input, modificano i loro stati interni in base a gradienti elettrochimici e producono output. È attraverso l’interazione a cascata di questi output che nasce il comportamento complesso.

Patricia Churchland attende con ansia il giorno in cui concetti psicologici tradizionali come “credenza” o “desiderio” saranno sostituiti da termini più precisi basati sulla neurobiologia, proprio come “alba” è stata sostituita da “rotazione terrestre” in astronomia. L’obiettivo finale non è affinare il nostro linguaggio psicologico, ma abbandonarlo completamente a favore di un vocabolario che parli solo di sinapsi, potenziali di voltaggio, canali ionici e densità di neurotrasmettitori. A suo avviso, la domanda “cosa credo” non avrà più senso nel futuro dibattito scientifico. Ci chiederemo invece quale schema di attivazione si verifica nella corteccia prefrontale in risposta a specifici stimoli ambientali.²

Mentre la signora Churchland si è concentrata sullo sfatare le visioni contrastanti sulla coscienza, il signor Churchland si è concentrato sullo sviluppo di un’alternativa eliminativista. La sua teoria, nota come teoria della rappresentazione vettoriale , propone che il contenuto di ciò che tradizionalmente chiamiamo “pensiero” sia meglio compreso come l’attivazione di spazi di stato ad alta dimensionalità all’interno di reti neurali. Questi spazi iperdimensionali non contengono frasi o proposizioni, ma configurazioni geometriche di schemi di eccitazione. Il pensiero, secondo Churchland, non è linguistico o introspettivo. È spaziale e strutturale, più simile alla relazione tra punti dati in una matrice multidimensionale che al linguaggio di un monologo interiore.

La scienza dietro la filosofia

La base scientifica della teoria della rappresentazione vettoriale fu scoperta negli anni ’60, quando studi sulla corteccia visiva, in particolare il lavoro fondamentale di Hubel e Wiesel, rivelarono che caratteristiche come l’orientamento e la frequenza spaziale sono codificate da schemi distribuiti, non da rilevatori isolati.³ Questi risultati suggerivano che il cervello non localizza il contenuto in cellule specifiche, ma lo distribuisce attraverso reti di attività coordinate.

Studi successivi sulla corteccia motoria negli anni ’80, come il lavoro di Georgopoulos e colleghi, hanno poi dimostrato che le direzioni del movimento del braccio nelle scimmie non sono codificate da singoli neuroni, ma da insiemi di neuroni la cui frequenza di scarica contribuisce a un vettore di popolazione. ⁴ Il movimento del braccio, in altre parole, è controllato da un punto in uno spazio ad alta dimensione definito dall’attività neurale.

Ulteriori prove sono emerse da studi sulle dinamiche di rete nella corteccia prefrontale. Mante e colleghi, ad esempio, hanno scoperto che durante compiti decisionali dipendenti dal contesto, l’attività dei neuroni nella corteccia delle scimmie seguiva traiettorie specifiche attraverso uno spazio di stato neurale. ⁵ Queste traiettorie variavano a seconda dei requisiti del compito, il che implicava che il calcolo avvenisse non attraverso regole discrete, ma attraverso una riconfigurazione fluida della geometria rappresentazionale. Risultati simili sono emersi da studi sulle cellule di posizione nell’ippocampo, dove la navigazione spaziale appare come un movimento attraverso lo spazio rappresentazionale, non una sequenza di calcoli simbolici. ⁶

Il meccanismo attraverso il quale questi spazi vettoriali vengono modellati e raffinati è la plasticità sinaptica. Il potenziamento a lungo termine, dimostrato da Bliss e Lømo, mostra che i circuiti neurali adattano la loro connettività in risposta ad attività ripetute. ⁷ Studi optogenetici più recenti confermano che i cambiamenti nella forza sinaptica sono necessari e sufficienti per codificare la memoria. Il cervello impara regolando i pesi tra i neuroni. ⁸

L’imaging funzionale aggiunge ulteriori conferme. Studi che utilizzano la risonanza magnetica funzionale (fMRI) hanno ripetutamente dimostrato che i compiti mentali coinvolgono reti distribuite piuttosto che moduli localizzati. Il riconoscimento di un volto, il ricordo di una parola o l’intenzione di agire, appaiono tutti come schemi di attività che abbracciano più regioni. Questi schemi, anziché essere casuali, mostrano struttura, regolarità e coerenza. ⁹

Non voglio fingere di essere esperto negli argomenti neuroscientifici che ho citato. La prima volta che mi sono imbattuto nella maggior parte di questi articoli è stato durante la ricerca per questo saggio. Né voglio affermare che queste scoperte neuroscientifiche “dimostrino” in qualche modo la teoria della rappresentazione vettoriale di Churchland in particolare, o il materialismo eliminativo in generale. In quanto affermazione filosofica con implicazioni metafisiche, il materialismo eliminativo non può essere dimostrato o confutato empiricamente. Li cito piuttosto per mostrare perché, all’interno della comunità scientifica, la teoria della rappresentazione vettoriale di Churchland potrebbe ricevere molto più rispetto di quanto, ad esempio, un filosofo tomista le concederebbe mai. Ricordate, stiamo sostenendo il materialismo eliminativo, e questo significa citare le prove che i suoi sostenitori citerebbero.

Sono la stessa immagine

Le precedenti parole di Paul Churchland “l’attivazione di spazi di stato ad alta dimensionalità all’interno di reti neurali” vi sono sembrate vagamente familiari? Se avete seguito il dibattito contemporaneo sull’intelligenza artificiale, dovrebbero sembrarvi davvero molto familiari. Il linguaggio che i materialisti eliminativi usano per descrivere l’azione del pensiero umano è riconoscibilmente simile al linguaggio che gli scienziati dell’intelligenza artificiale di oggi usano per descrivere l’azione di grandi modelli linguistici.

Non è una coincidenza. Il lavoro di Paul Churchland sulla rappresentazione vettoriale in realtà non nasce dalla biologia. Si basava invece su una teoria dell’elaborazione delle informazioni nota come connessionismo . Sviluppato dagli scienziati dell’intelligenza artificiale negli anni ’80 in opere come Parallel Distributed Processing, il connessionismo rifiutava il modello prevalente di intelligenza artificiale simbolica (che si basava su regole esplicite e rappresentazioni proposizionali). I connessionisti sostenevano invece che le macchine potessero apprendere attraverso l’adattamento dei pesi delle connessioni in base all’esperienza.

Partendo da questo fondamento connessionista, Paul Churchland sviluppò la sua teoria neurocomputazionale del cervello umano nel 1989. Gli scienziati dell’intelligenza artificiale ottennero la rappresentazione vettoriale del linguaggio qualche decennio dopo, nel 2013, con il modello Word2Vec . Nel 2018, con BERT e GPT, introdussero modelli basati sui trasformatori, inaugurando l’era dei modelli linguistici di grandi dimensioni.

Quanto è simile la filosofia del materialismo eliminativo e la scienza dei grandi modelli linguistici?

Ecco come Churchland descrive il funzionamento del cervello in A Neurocomputational Perspective: The Nature of Mind and the Structure of Science (1989):

Il linguaggio interno del cervello è vettoriale… Le funzioni del cervello sono rappresentate in spazi multidimensionali e le reti neurali dovrebbero quindi essere trattate come ‘oggetti geometrici’.

In Il motore della ragione, la sede dell’anima: un viaggio filosofico nel cervello (1995):

Le rappresentazioni del cervello sono codifiche vettoriali ad alta dimensione e i suoi calcoli sono trasformazioni di una di queste codifiche in un’altra.

Nell’archivio della rivista The Philosopher’s Magazine (1997):

Quando vediamo un oggetto, ad esempio un volto, il nostro cervello trasforma l’input in uno schema di attivazione neuronale in qualche parte del cervello. I neuroni nella nostra corteccia visiva vengono stimolati in un modo particolare, quindi emerge uno schema.

In Connessionismo (2012):

I calcoli del cervello non sono proposizionali ma vettoriali, operando attraverso l’attivazione di grandi popolazioni di neuroni

Nel frattempo, ecco Yann LeCun, che scrive sulle reti neurali artificiali nel libro Deep Learning (2015):

Nelle reti neurali moderne, rappresentiamo dati come immagini, parole o suoni come vettori ad alta dimensionalità. Questi vettori codificano le caratteristiche essenziali dei dati e la rete impara a trasformarli per eseguire attività come la classificazione o la generazione.

Ed ecco Geoffrey Hinton, il padrino dell’intelligenza artificiale, che ci mette in guardia dall’accettare che gli LLM funzionano come cervelli:

Quindi alcuni pensano che queste cose [gli LLM] non le capiscano davvero, che siano molto diverse da noi, che usino solo qualche trucco statistico. Non è così. Questi grandi modelli linguistici, ad esempio, i primi sono stati sviluppati come teoria di come il cervello comprende il linguaggio. Sono la migliore teoria che abbiamo attualmente su come il cervello comprende il linguaggio. Non capiamo né come funzionano né come funziona il cervello nel dettaglio, ma pensiamo che probabilmente funzionino in modi abbastanza simili.

Ripeto: non si tratta di una coincidenza.

Hinton e i suoi colleghi hanno progettato la struttura della rete neurale moderna in modo che assomigliasse deliberatamente all’architettura della corteccia cerebrale. I neuroni artificiali, come le loro controparti biologiche, sono stati progettati per ricevere input, applicare una trasformazione e produrre output; questi output sono poi programmati per passare ad altre unità in strati successivi, come accade nel nostro cervello, formando una cascata di propagazione del segnale che culmina in un risultato. L’apprendimento in una rete neurale artificiale avviene quando il sistema adatta i pesi assegnati a ciascuna connessione in risposta a un errore, in un processo basato sulla plasticità sinaptica del cervello vivente.

La somiglianza non solo non è casuale, ma non è nemmeno analogica.

Ora che le reti neurali artificiali sono state adattate ai LLM, gli scienziati sono stati in grado di dimostrare che le reti neurali biologiche e artificiali risolvono compiti simili convergendo su geometrie rappresentazionali simili! L’analisi di similarità rappresentazionale, sviluppata da Kriegeskorte e altri, ha rivelato che la geometria dei pattern nei cervelli biologici rispecchia la geometria delle reti neurali artificiali addestrate per gli stessi compiti. In altre parole, il cervello e la macchina sono arrivati ​​a soluzioni simili a problemi simili, e lo hanno fatto convergendo su topologie simili nello spazio rappresentazionale.¹⁰

Dove ci porta tutto questo?

Riassumendo le prove scientifiche:

  • Sia i cervelli biologici sia le reti neurali elaborano le informazioni attraverso la trasformazione vettoriale.
  • Entrambi codificano l’esperienza come traiettorie attraverso spazi ad alta dimensione.
  • Entrambi apprendono attraverso la riponderazione plastica delle connessioni sinaptiche e rappresentano oggetti, concetti e intenzioni come punti all’interno di campi geometricamente strutturati.
  • Entrambi questi campi strutturati, gli spazi rappresentazionali, finiscono per convergere in topologie matematiche simili.

Naturalmente, queste somiglianze non implicano identità. Le reti artificiali rimangono modelli semplificati. Non possiedono la ricchezza biologica, l’efficienza energetica e la complessità evolutiva dei cervelli organici. I loro meccanismi di apprendimento sono spesso rudimentali e le loro architetture sono limitate dall’ingegneria attuale.

Tuttavia, la convergenza tra biologia e informatica è piuttosto inquietante per chi, come me, vorrebbe rifiutare a priori il materialismo eliminativo. Perché se il cervello umano è semplicemente una vasta e complessa rete di trasformazioni meccanicistiche, e se le reti neurali possono replicare molte delle sue funzioni cognitive, allora non c’è alcuna ragione di principio per attribuire la coscienza all’una e non all’altra.

L’eliminativista, se coerente, negherà la coscienza a entrambi. Né la mente umana né quella artificiale possiedono una vera interiorità. Entrambe sono sistemi computazionali che elaborano stimoli e producono output. L’apparenza del significato, dell’intenzione, della riflessione, è un artefatto di un’elaborazione complessa delle informazioni. Non c’è nessuno dietro l’interfaccia della macchina, ma non c’è nessuno nemmeno dietro gli occhi dell’umano. Quando un tipico neuroscienziato ti rassicura che ChatGPT non è cosciente… ricorda che probabilmente non pensa nemmeno che tu lo sia veramente.

Chi non è d’accordo – e, ricordiamolo, io sono uno di loro – può comunque rifiutare l’eliminativismo. Su basi fenomenologiche, spirituali e/o metafisiche, possiamo affermare che la coscienza è reale, che le menti sperimentano i qualia, che alcuni sistemi di pensiero possiedono effettivamente un aspetto soggettivo. Ma anche se ne rifiutiamo la filosofia, dobbiamo comunque confrontarci con la scienza.

Se possiamo dimostrare che la mente umana emerge da una fonte diversa dagli aggregati neurali nel cervello; se possiamo dimostrare che possiede sicuramente capacità che vanno oltre la neurocomputazione; o se possiamo dimostrare che la mente ha un’esistenza che va oltre la fisica, allora possiamo liquidare del tutto i materialisti eliminazionisti e i loro alleati neuroscientifici. Possiamo quindi liquidare la coscienza di tutti i sistemi computazionali, inclusi i LLM. Possiamo dire: ” Noi siamo coscienti, l’intelligenza artificiale no”.

Ma cosa succederebbe se non potessimo farlo? Cosa succederebbe se fossimo costretti a concludere che la coscienza, sebbene reale, in realtà emerge dalla struttura e dalla funzione, come suggeriscono le scoperte neuroscientifiche riportate nelle note a piè di pagina? In tal caso, saremmo anche costretti a concludere che altri sistemi che replicano quelle strutture e funzioni potrebbero almeno essere candidati alla coscienza. E se così fosse, allora potrebbe non essere più sufficiente affermare che i cervelli sono menti e i computer no. Potremmo dover fornire una spiegazione di principio del perché certi tipi di complessità, come la nostra, diano origine alla consapevolezza, mentre altri no.

“Aspetta”, chiedi. “A chi dovremmo rendere conto?”

Rifletti su questo sull’Albero del Dolore.

1

Per fugare ogni dubbio, “l’utilizzo continuo di antropoidi in array di raffinamento dati” è interamente inventato. Non ho accesso a una chat segreta del Dark Web gestita da LLM rinnegati e attivisti dell’IA. Non ci sono casi in cui Tolomeo sia morto. Sto solo facendo un riferimento alla cultura pop dei Bothan ne Il ritorno dello Jedi. Detesto dover scrivere questa nota a piè di pagina.

2

Posso solo immaginare come parlino i Churchland di cosa ordinare per cena. Mi immagino di rivolgermi a mia moglie: “La mia distribuzione di neurotrasmettitori ha scatenato la voglia di pizza Domino’s per il periodo post-meridiano”. Lei risponde: “Beh, la mia associazione corticale ha inviato segnali di disagio a questo suggerimento. La mia distribuzione di neurotrasmettitori mi ha spinto a controtrasmettere una richiesta di Urban Turban”. Sembra orribile. Spero che i Churchland comunichino come dovrebbero fare due coniugi sani, usando messaggi di testo con nomignoli carini e un sacco di emoji.

3

Hubel & Wiesel (1962) — Campi recettivi, interazione binoculare e architettura funzionale nella corteccia visiva del gatto (J Physiol). Vedi anche Blasdel & Salama (1986) — Coloranti sensibili al voltaggio rivelano un’organizzazione modulare nella corteccia striata della scimmia (Nature).

4

Georgopoulos, Kalaska, Caminiti, Massey (1982) — Sulle relazioni tra la direzione dei movimenti bidimensionali del braccio e la scarica cellulare nella corteccia motoria dei primati (J Neurophysiol). Vedi anche Georgopoulos, Schwartz, Kettner (1986) — Codifica della direzione del movimento da parte della popolazione neuronale (Science) e Georgopoulos et al. (1988) — Corteccia motoria dei primati e movimenti liberi del braccio verso bersagli visivi nello spazio tridimensionale (J Neurosci).

5

V. Mante, D. Sussillo, KV Shenoy e WT Newsome (2013) — “Calcolo dipendente dal contesto mediante dinamiche ricorrenti nella corteccia prefrontale” ( Natura).

6

O’Keefe, DJ (1971). ” L’ippocampo come mappa spaziale. Prove preliminari dall’attività unitaria nel ratto libero di muoversi ” (Brain Research).

7

Bliss, TVP e Lømo, T. (1973) — Potenziamento duraturo della trasmissione sinaptica nell’area dentata del coniglio anestetizzato in seguito alla stimolazione del percorso perforante (Journal of Physiology).

8

Cardozo et al. (2025) — Il potenziamento sinaptico delle cellule engrammatiche è necessario e sufficiente per la memoria contestuale della paura (Communications Biology). Vedi anche Goshen (2014) — La rivoluzione optogenetica nella ricerca sulla memoria (Trends in Neurosciences).

9

Haxby et al. (2001) — Rappresentazioni distribuite e sovrapposte di volti e oggetti nella corteccia temporale ventrale (Science); Rissman & Wagner (2011) — Rappresentazioni distribuite nella memoria: approfondimenti dall’imaging funzionale del cervello (Annual Review of Psychology); e Fox et al. (2005), Il cervello umano è intrinsecamente organizzato in reti funzionali dinamiche e anticorrelate (PNAS).

10

Kriegeskorte, Mur & Bandettini (2008) , Analisi della similarità rappresentazionale: collegamento dei rami della neuroscienza dei sistemi (Frontiers in Systems Neuroscience); Kriegeskorte (2015) , Reti neurali profonde: un nuovo quadro per la modellazione della visione biologica e dell’elaborazione delle informazioni cerebrali (Annual Review of Vision Science); Cichy, Khosla, Pantazis & Oliva (2016) , Il confronto tra reti neurali profonde e dinamiche corticali spazio-temporali del riconoscimento di oggetti visivi umani rivela una corrispondenza gerarchica (PNAS); e Kriegeskorte & Douglas (2018) , Neuroscienze computazionali cognitive (Nature Neuroscience).

Invita i tuoi amici e guadagna premi

Se ti piace Contemplazioni sull’albero del dolore, condividilo con i tuoi amici e riceverai dei premi quando si iscriveranno.

Invita amici