La mente, il cervello e il computer

Di Ugo Spezza (homepage)

“Una assunzione comune nella filosofia della mente è quella della indipendenza del substrato fisico. Ossia l'idea è che gli stati mentali possano esistere indipendentemente dal substrato fisico materiale che li genera. Un sistema che implementi il giusto tipo di calcolo delle strutture e dei processi, può essere associato a produrre esperienze coscienti. Non deve essere considerata una proprietà essenziale della coscienza il fatto di dipendere da un organismo biologico in base carbonio con miliardi di sinapsi all'interno di un cranio: un nucleo basato su processori di silicio all'interno di un computer potrebbe, in linea di principio, replicare la stessa funzione.”

La frase che avete appena letto è del famoso filosofo e futurologo Nick Bostrom, professore e direttore del Future of Humanity Institute dell’Università di Oxford. Tale frase è contenuta nell’altrettanto famoso scritto “Are you living in a Computer Simulation?” che affronta in modo rigorosamente scientifico (per quelle che sono le conoscenze attuali) la possibilità che dei computer possano emulare la mente umana o addirittura una moltitudine di menti umane ricreando una società virtuale perfettamente integrata, operante e indipendente. Sull’argomento sono stati prodotti anche film di fantascienza di successo come “Il Tredicesimo piano”, ispirato ad uno splendido racconto di Daniel F. Galouye, “Terminator” di James Cameron e per finire, “Matrix”, scritto dai fratelli Wachowsky.

Ma torniamo al discorso di Bostrom; è davvero possibile che esista una “indipendenza funzionale” tra la parte materiale (l’organo cervello) che produce il fenomeno chiamato “mente” e la mente stessa? O forse la mente è un organo trans-materiale dissociato completamente dal mondo fisico? Su questo argomento i maggiori filosofi mondiali, esperti in quella branca definita “Filosofia della mente”, dibattono aspramente da decenni. Lo scopo di questo scritto è divulgare ed illustrare, quali sono le maggiori teorie prodotte sul funzionamento della mente umana.

Si deve altresì notare che una teoria come quella del Mind Uploading (riversamento dei contenuti di una mente umana in un elaboratore elettronico), punto forte della filosofia transumanista, verrebbe totalmente invalidata nei suoi fondamenti se un giorno si scoprisse che la mente è un prodotto “etereo”, non dipendente dal substrato fisico materiale che la genera oppure se essa necessita forzatamente di un substrato fisico di tipo organico (un cervello biologico) per poter funzionare. Ne segue che la comprensione dei processi insiti nella formazione del pensiero, della coscienza e dell’Io sono di fondamentale importanza.

Nonostante ciò, questi argomenti, nella relativa bibliografia e nei forum di discussione, sono solo vagamente accennati o addirittura misconosciuti. Quasi sempre si da per scontato che il Mind Uploading debba poter essere realizzabile. Questo però, come vedremo nel seguito, diviene uno sterile “atto di fede” se non sarà altrimenti ratificato da una solida teoria scientifica che spieghi come funziona la mente.

Teoria n. 1: Il dualismo mente-corpo

Questa teoria, enunciata da Renè Descartes, prende vita nel 1645 nei “Principia philosophiae”. Descartes ritenne in questa sua opera che la materia in quanto tale fosse differenziata in modo sostanziale dalla mente. A tale scopo formulò la dizione Res-Extensa per descrivere il dominio del mondo materiale dotato delle qualità di estensione, limitazione fisica e non-consapevolezza. Con Res-Cogitans egli descrisse invece il dominio dei fenomeni mentali; questi ultimi dotati delle qualità di inestensione, libertà e consapevolezza. I due domini non possono interagire causalmente tra loro. Il dominio Res-Cogitans è esclusivamente umano, gli animali non ne fanno parte; tant’è che quando la filosofia cartesiana divulgò la scienza medica potè iniziare la vivisezione degli animali (prima vietata), la quale fu purtroppo operata anche con metodi cruenti.

La differenziazione netta tra il mondo materiale e quello mentale, secondo Descartes, discende dal fatto che si può dare la descrizione di un fenomeno fisico usando come concetti calcolabili tramite le teorie della meccanica classica come quelli di “forza” e “movimento”. Al contrario per i fenomeni mentali non esistono spiegazioni che possano relazionarli alla meccanica, quindi essi sarebbero da ricondurre a fenomeni di tipo “etereo”, disgiunti dal mondo fisico.

Questa di teoria piacque molto ai religiosi poiché con essa si poteva spiegare l’esistenza dell’anima. Per essi non solo l’anima è disgiunta dal corpo fisico ma è anche immortale, nel senso che anche se il corpo muore essa può continuare a vivere.

La mente è dunque eterna; da qui discende la venerazione che i religiosi hanno dei defunti e che può proseguire per decenni dopo la loro morte fisica. Da qui discende, nel caso dei cattolici, la loro stupefacente illogica radicalità e intransigenza nel sostenere la non distaccabilità dei sistemi di nutrimento artificiale nei pazienti in coma da anni, anche quando tali pazienti hanno il cervello danneggiato in modo irreversibile e anche quando la scienza medica dimostri che il loro corpo non è ormai più che un involucro vuoto.

Un importante vulnus nella teoria del Dualismo mente-corpo sta nel fatto che essa non spiega come una entità immateriale possa influenzare ed essere influenzata da una entità materiale, in altre parole quale è il punto di contatto tra i due domini Res-Extensa e Res-Cogitans. Descartes enunciò, in modo ingenuo, che tale contatto avvenisse a livello della ghiandola pineale: come se questa non fosse anch’essa un oggetto fisico!

Una interpretazione più credibile e più recente la si ritrova negli scritti del neurofisiologo John Eccles, premio Nobel per la medicina nel 1963, acceso sostenitore del Dualismo. Egli afferma che facoltà come la “coscienza di sé” non possono trovare spiegazione come semplice interazione tra neuroni in una corteccia cerebrale. In conseguenza di ciò ipotizza l’esistenza di una “mente autocosciente”: entità in grado di influire sui diversi blocchi funzionali formati dai neuroni, e nello stesso tempo di subire l’influenza dell’attività di questi. La “mente autocosciente” sarebbe costantemente impegnata nella lettura selettiva di ciò che avviene nei diversi centri cerebrali selezionando questi centri in base alla propria attenzione e ai propri interessi e integrando tale selezione per realizzare istante per istante l’unità dell’esperienza cosciente. La coscienza non deriverebbe dunque da una sintesi finale operata a livello di interazione tra neuroni ma dalla attività selettiva della “mente autocosciente”. Resta però il problema: ammettendo pure che questa “mente autocosciente” sia dissociata dal mondo fisico, come fa ad interagire con esso?

Secondo Eccles, le influenze della mente autocosciente sui centri cerebrali sarebbero di entità estremamente debole, tanto da non poter essere rivelate mediante gli strumenti diagnostici attuali. Tali influenze agirebbero attraverso parti submicroscopiche costituenti i neuroni nelle quali si verificherebbero fenomeni quantistici in grado di mettere in comunicazione i due domini, quello materiale e quello immateriale. Eccles però non fornisce nessuna spiegazione relativamente a questi “fenomeni” riparandosi dietro il paravento secondo il quale i fenomeni della meccanica quantistica sono difficili da indagare.

Un altro pesante vulnus nella teoria del Dualismo mente-corpo riguarda l’interazione tra il dominio immateriale e quello materiale. Al momento esatto in cui una interazione tra il mondo spirituale e quello fisico dovesse occorrere questo evento invaliderebbe il primo principio della termodinamica, conosciuto anche come principio della conservazione dell’energia, della massa e della quantità di moto. Tale principio afferma infatti che il mondo fisico è un sistema “chiuso” e nessun evento fisico può accadere se non è provocato da qualcosa che appartiene al mondo fisico medesimo.

Teoria n. 2: Il comportamentismo logico

Questa teoria è prettamente materialistica, nonché abbastanza radicale. Il comportamentismo logico afferma che tutti quanti noi siamo sostanzialmente degli automi i quali, ricevendo degli stimoli in entrata (input) dal mondo esterno, emettono delle risposte comportamentali in uscita (output). Tale teoria non solo non dà nessuna spiegazione degli stati mentali intrinseci, ma ritiene che lo studio sugli stessi debba essere ritenuto irrilevante. Ciò che conta è solo eseguire una seria catalogazione e classificazione dei comportamenti che intercorrono a seguito di determinati stimoli. Da qui la definizione di Black Box (scatola nera) per la mente: gli stati mentali, come le sensazioni o le emozioni, non rientrano nel campo della scienza perché non controllabili sperimentalmente e non osservabili direttamente, quindi non ha alcun senso scomodare la scienza per indagare su di essi.

Secondo questo punto di vista le descrizioni degli stati mentali, come “ho male ad una gamba”, non sono che disposizioni a comportarsi in un certo modo. Ad esempio, se sento dolore è perché mi sto comportando o sto per comportarmi in un certo modo (mi agito, mi lamento, zoppico…). Il fatto che ci si stia comportando in modo “volontario” (ad esempio, "ho sete, quindi prendo dell’acqua"), o “involontario” (ad esempio, l’aumento del battito cardiaco quando si avverte un pericolo o si ha paura) è irrilevante, giacché la volontarietà secondo il comportamentista logico non esiste. Ciò che si definisce “volontario” è solamente la registrazione di uno stimolo (che può essere sia ambientale che fisiologico) e la disposizione ad agire in un certo modo a seconda dello stimolo registrato. Il più importante esponente del comportamentismo logico, Gilbert Ryle (1900-1976), afferma che la mente non è un’arena interiore, un teatro in cui vengono proiettati tutti gli input sensoriali e percettivi, così come voleva Descartes, piuttosto la mente è ciò che il corpo fa, l’atto esterno come risposta o disposizione a rispondere ad uno stimolo specifico.

La psicologia, secondo il comportamentista, non dovrebbe perdere tempo ad esaminare gli irrilevanti stati mentali dell’individuo ma solo le relazioni stimolo-risposta ed il relativo comportamento che esse provocano, esaminando e catalogando anche le relative “risposte condizionate”, del tipo di quelle che si ritrovano nell’esperimento del cane di Pavlov.

Purtroppo per i comportamentisti la psicologia sembra essere andata nella direzione esattamente opposta a quella da loro suggerita: i malati mentali non si riescono a curare studiando il loro comportamento esteriore, ma solo analizzando a fondo i loro stati mentali interni e le rispettive interrelazioni.

Un vulnus in questa teoria sta nel fatto che in realtà esistono degli stati mentali non direttamente catalogabili come semplice reazione stimolo-risposta. Si pensi ad esempio a quattro soldati che devono essere sottoposti all’esperimento di un nuovo gas, non mortale, ma che provoca un dolore intenso. Uno di essi è però un berretto verde, addestrato da anni a sopportare il dolore senza mostrare alcun comportamento esteriore. Ragionando del punto di vista del comportamentista logico, rilevata la mancata risposta allo stimolo del gas, che su questo individuo non avrebbe (apparentemente) alcun effetto, esso inviterebbe i biochimici a trovare una causa biologica per spiegare la sua immunità. E’ chiaro quindi che una simile teoria la quale, tra l’altro, nega anche la fondamentale facoltà umana del “libero arbitrio”, non può essere esaustiva per la spiegazione del funzionamento della mente.

Teoria n. 3: Teoria dell’identità

Questa teoria, conosciuta anche come “fisicalismo”, si sviluppò verso la fine degli anni ‘50 e deriva dagli studi dei due psicologi e filosofi Ullin Place e John J. C. Smart. In risposta alle evidenti limitazioni della teoria del comportamentismo logico essi realizzarono una nuova concezione della mente prendendo spunto dai progressi nelle neuroscienze.

La Teoria dell'identità postula che gli stati mentali sono identici a stati neurofisiologici. Essendo dunque che gli stati mentali sono prodotti da corrispondenti stati neurofisiologici essi hanno derivazione diretta dal mondo fisico. Questa teoria materialistica della mente non solo fornisce una congrua spiegazione alternativa alla ipotesi metafisica del Dualismo, ma va anche a colmare il vulnus della teoria comportamentista in quanto può consentire l'esistenza di stati mentali interni che sono cause del comportamento. In effetti la negazione, eseguita dal comportamentismo logico, dell'esistenza degli stati mentali è in realtà poco credibile in quanto si scontra con l'esperienza che tutti hanno della propria vita interiore.

Rispetto al comportamentismo i teorici dell'identità non ritengono più che l'ammettere stati interni costituisca una minaccia per un'ontologia materialistica, a condizione che tali stati siano puramente fisici, derivanti cioè da fenomeni neurofisiologici, indagabili direttamente con opportuni metodi diagnostici. Si badi bene che l’ipotesi messa avanti dalla Teoria dell’identità è di tipo empirico, quindi l’unica autorità che possa legittimamente dimostrarne la verità o la falsità è la scienza. Ciò assurge ad una tipologia di materialismo che si astiene dal pronunciarsi sulla natura della realtà, ma si caratterizza per ritenere che reale è tutto ciò di cui la scienza ammette o ammetterà l'esistenza. Smart afferma su questo punto: “Se sosteniamo che le sensazioni, per esempio, abbiano caratteristiche mentali non riducibili a quelle fisiche, dovremmo anche ammettere l'esistenza di entità che non trovano posto in una spiegazione scientifica del mondo”.

Dopo sessanta anni questa teoria non solo sembra ancora solida, ma trova sempre più conferme dalla evoluzione dei mezzi diagnostici. La recente fMRI (Risonanza Magnetica Funzionale Neuronale) ne è un esempio concreto e tangibile. Questa tecnica è in grado di visualizzare la risposta emodinamica (cambiamenti nel contenuto di ossigeno del parenchima e dei capillari) correlata all'attività neuronale del cervello o del midollo spinale.

Il signore nell'immagine qui sotto sta leggendo un testo, nella foto di centro sta effettuando dei calcoli aritmetici mentre nella foto a destra sta sorseggiando una bevanda al cioccolato. Le zone in giallo-arancione evidenziano la parti del cervello che si attivano a seguito dello stimolo esterno e della corrispondente attività mentale.


Una recente ricerca effettuata in California (USA), e pubblicata sulla prestigiosa rivista Nature rende noto che una speciale una macchina fMRI, guidata da un sistema computerizzato, è capace di azzeccare, scandendo nell’attività cerebrale, le immagini che un individuo sta guardando con una accuratezza del 90%. Dapprima lo scanner registra l’attività del cervello mentre un individuo osserva centinaia di foto a colori e in bianco e nero rappresentanti svariate immagini. Poi esamina l’attività cerebrale, e senza sapere cosa la persona stia effettivamente guardando, il computer cercherà di individuare quale immagine vede il soggetto basandosi sui soli referti della fMRI. Su un totale di 120 immagini, la predizione è stata giusta nove volte su dieci, quindi non si può parlare di coincidenze.

La Teoria dell'identità esiste in due versioni: il “Fisicalismo delle occorrenze” e il “Fisicalismo dei tipi”. La prima è relativa ai particolari mentali: “Giovanni ha un dolore, oppure Pietro ha paura degli animali”, la seconda si riferisce invece agli universali: “Avere un dolore, oppure avere paura degli animali”.

Il Fisicalismo delle occorrenze sostiene solo che “tutti particolari mentali che esistono sono di derivazione neurofisiologica”. Al contrario il Fisicalismo dei tipi amplia questo concetto affermando che “sono di natura neurofisiologica tutti i particolari mentali che potrebbero avere esistenza”. Attenzione! La distinzione è molto sottile, però è sostanziale. La Teoria dell’identità non presenta alcun particolare vulnus ma nella versione “Fisicalismo dei tipi” ha una peculiare controindicazione: essa spiega e si riferisce esclusivamente al rapporto tra mente e cervello organico; non dà quindi nessuna indicazione sulla possibilità di realizzare una “mente artificiale” e su eventuali principi di funzionamento di quest’ultima.

Si badi bene che una conseguenza diretta della Teoria dell’identità è che una volta che il nostro cervello avesse cessato di funzionare anche tutti i relativi stati mentali cesserebbero. In altre parole, la morte cerebrale porta la morte reale e definitiva dell’individuo e del suo “Io”, anche se il resto del suo corpo funziona perfettamente ed è tenuto in vita da macchinari medici.

Teoria n. 4: Funzionalismo

Questa teoria fu enunciata per la prima volta da Hilary Putnam negli anni '50, ma il vero sviluppo della stessa fu realizzato da Jerry Fodor tra gli anni '60 e ‘80.

Il Funzionalismo postula che i processi e gli stati mentali siano indipendenti dal loro supporto  materiale; essi sono invece identificati dal loro ruolo causale. Proprio come accade per i computer, nei quali uno stesso software può essere fatto funzionare da hardware molto diversificati.

Il Funzionalismo non nega la Teoria dell’identità (ogni stato mentale è uguale ad uno stato neurofisiologico del cervello) ma nega che questa identità sia di principio. Per questo motivo un processo cognitivo non è tutt’uno col processo neurofisiologico che lo realizza nel cervello umano ma viene identificato ad un livello di astrazione più elevato: dal tipo di dati che elabora, dalla successione dei passi di elaborazione ecc. ed è quindi eseguibile (in linea di principio) anche da una macchina.

Una critica che Fodor pone alla Teoria dell'identità (nella versione “Fisicalismo dei tipi”) è proprio quella secondo cui l'associare ogni evento mentale ad un evento neurofisiologico pone delle limitazioni. Egli afferma: “Perché il filosofo dovrebbe escludere la possibilità che un marziano, dotato di un cervello di silicio, possa provare dolore, nel caso in cui il silicio di cui è costituito sia organizzato opportunamente?” E continua: “Perché si dovrebbe escludere la possibilità che macchine abbiano stati mentali e credenze, se opportunamente programmate?”

Gli stati mentali, nel Funzionalismo, sono dunque definiti in termini di funzione, ossia “in termini di relazioni causali con gli stimoli esterni, gli altri stati mentali e il comportamento esterno”.

Il Funzionalismo afferma dunque che sembra improbabile che uno stato mentale si identifichi con un unico stato neurofisiologico. I teorici dell'Identità controbattono a questa osservazione affermando che “ogni occorrenza di uno stato mentale è identica ad una occorrenza di un evento neurofisiologico corrispondente”; in questo caso però sorgerebbe un altro problema, quello di spiegare in che modo stati fisici diversi possano corrispondere allo stesso stato mentale. Il funzionalismo può ovviare a questo problema in quanto postula che due diversi stati neurofisiologici saranno occorrenze di uno stesso stato mentale se intratterranno le medesime relazioni causali con stimoli esterni ricevuti dall'organismo, altri suoi stati mentali e il comportamento esteriore in reazione a quegli stimoli.

La teoria funzionalista ha riscosso molto successo, soprattutto tra i sostenitori dell'Intelligenza Artificale (I.A.) i quali ora disponevano finalmente una base teorica alla loro ricerca. Seguendo l’ipotesi funzionalista non solo sarebbe possibile realizzare macchine ad I.A. debole come quelle attuali ma addirittura delle I.A. di tipo “forte”, ossia dei veri computer pensanti e dotati di coscienza di sé. Nick Bostrom, nel suo corsivo in apertura, si riferiva proprio all’ipotesi funzionalista. Queste macchine ad I.A. “forte” sarebbero in grado di superare il Test di Turing e quindi di dialogare alla pari con un essere umano, proporre idee, nuove invenzioni e far progredire in modo esponenziale il progresso tecnologico.

Purtroppo per il Funzionalismo 50 anni di insuccessi nel campo della Intelligenza artificiale stanno a significare che non è andata proprio così: i computer (attuali) non pensano, e non solo non pensano ma c’è chi dice che non potranno mai farlo eseguendo codice di programmi software. John Searle nel suo famoso scritto “La mente è un programma?”, divulgato nel marzo 1990, ideò l’analogia della “Stanza cinese” proponendo che una macchina che opera su simboli formali (il linguaggio macchina di un software) non potrà mai arrivare a pensare:

“Un essere umano viene posto in una stanza; esso non conosce il cinese ma solo l’inglese, e segue istruzioni date in un manuale scritto in inglese per manipolare simboli cinesi che man mano gli vengono passati dall’esterno in modo da formare parole o frasi dotate di senso. Un vero cinese posto fuori della stanza, vedendo entrare i suoi messaggi ed uscire le opportune risposte in cinese, penserà che nella stanza vi sia un altro cinese che gli risponde. Al contrario l’uomo nella stanza non comprende affatto il cinese poiché non comprende nessuno dei simboli che sta manipolando.”

Il computer, nella finzione scenica, rappresenta l’uomo nella stanza; ad esso viene dato un software (il manuale che spiega come spostare gli ideogrammi cinesi secondo la loro sintassi) attraverso il quale esso manipola tali simboli. Pur fornendo il computer delle risposte in uscita a seguito di tale manipolazione esso non ha in realtà compreso nemmeno una parola di cinese.

Searle afferma dunque che i contenuti “mentali” di un computer sono basati sulla sola sintassi mentre i contenuti del cervello umano hanno una semantica. Nelle manipolazioni che la macchina effettua non vi è quindi “nulla di specificamente mentale” mentre il cervello umano è in grado di apporvi una “intenzionalità”.

Teoria n. 5: L’eliminativismo

Questa corrente di pensiero nella filosofia della mente è stata inaugurata da Paul Churchland negli anni ’70 e sostiene che la mente è una entità fisica, proprio come lo è il nostro corpo. Proprio in base a questo assioma essa deve essere analizzata scientificamente solo attraverso lo studio del comportamento o dell’attività neuronale ed eliminando, di fatto, ogni aspetto metafisico della natura del mentale.

L'eliminativismo in questo modo ritiene di superare il problema mente-corpo, semplicemente “eliminando la mente”; essa è solo un concetto errato! Bisogna solo concentrandosi solo sullo studio del cervello e negare qualsiasi forma di dualismo.

Seguendo questa linea di pensiero gli attuali concetti usati nella psicologia sono da ritenere astrazioni erronee derivanti da una concezione che vede l’oggetto “mente” attraverso la lente della cosidetta “psicologia del senso comune” (folk psicology). Questi concetti sarebbero da ritenere fantasie ingannevoli, e, di conseguenza devono essere eliminati a favore del linguaggio puro della fisica e della neurologia.

Secondo Churchland l’attuale concezione che abbiamo degli stati mentali come i desideri, le credenze ecc. sarebbe errata e verrà abbandonata con lo sviluppo delle neuroscienze.

La psicologia tradizionale appare limitata soprattutto quando chiamata a spiegare aspetti come la natura e la dinamica delle malattie mentali, le facoltà dell'immaginazione creativa, le funzioni psicologiche del sonno, le abilità motorie come afferrare al volo una palla che ci è stata lanciata o di colpire a distanza con un sasso un oggetto in movimento.

Ma allora come spiegare i fenomeni mentali? Churchland propone un modello di mente realizzata su un sostrato fisico materiale strutturato in un sistema di connessioni, ossia per mezzo di reti neurali. In tal modo diviene possibile eliminare le ordinarie categorie psicologiche e sostituirle con categorie neuroscientifiche.

L'organizzazione a cui Churchland fa riferimento è una rete composta da almeno tre strati di unità: quelle di input, uno strato intermedio (unità nascoste) e uno strato di output.

La rappresentazione realizzata da una rete neurale viene attuata a livello subsimbolico, nel senso che essa è distribuita nel valore assunto dai diversi pesi che legano tra loro le unità della rete. Ciò che la rete "apprende" viene rappresentato subsimbolicamente come assetto globale dei pesi della rete.

La prospettiva di Churchland si contrappone nettamente alla rappresentazione di tipo "enunciativo" o proposizionale, caratteristica dei modelli tradizionali della computazione, su cui si basa, ad esempio, il Funzionalismo. Tali modelli mostrerebbero tutti i loro limiti nella povertà di prestazioni da essi fornite in compiti percettivi e motori di una certa complessità, nella debolezza quando si tratta di affrontare analogie, come pure in altri tipi di prestazioni cognitive. Dalle teorie di Churhland e altri studiosi prende vita la Psicologia “connessionista” che pretende di usare delle simulazioni al computer come basi per una nuova psicologia.

In realtà la psicologia connessionista e il suo modello “Bottom-Up” non sembrano aver convinto molto gli psicologi. La quasi totalità di questi è infatti rimasta ancorata alla classica alla teoria mentalista: affidare ad una simulazione al computer la cura di una malattia mentale di un soggetto umano non sembra portare molti frutti.

Si badi che l’Eliminativismo è sostanzialmente un riduzionismo radicale. Vien da riflettere su cosa ne penserebbe un genio come Sigmund Freud su questa teoria, poiché tutti i volumi che ha scritto sulla psicoanalisi sarebbero così da buttare al macero… Decine di milioni di malati mentali curati con la psicoanalisi non avrebbero potuto godere di tali cure poiché si sarebbe dovuto attendere il progresso delle neuroscienze. Nel frattempo era meglio fare cosa? Eliminarli?

La “mente” sarebbe dunque solo frutto di una nostra distorsione immaginativa dovuta al nostro modo errato di pensare: la “psicologia del senso comune”. E’ strano però che, Churchland, nel proporre la sua teoria al mondo la spiega facendo ricorso proprio alla “psicologia del senso comune” e idem noi nel poterla comprendere. L’eliminativismo, è una teoria fondata su un costrutto di base che è da ritenere logico, ma appare una teoria inapplicata alla realtà. Forse ciò dipende dall’attuale limitato sviluppo delle neuroscienze o dalla grossolanità delle simulazioni al computer nella psicologia connessionista?

Teoria n. 6: Il monismo anomalo

Questa teoria fu enunciata per la prima volta dal filosofo Donald Davidson negli anni ’70 e la si può considerare come una estensione della Teoria dell’identità delle occorrenze. Davidson propose una nuova concezione del rapporto materia-mente che consentiva di integrare tre principi che comunemente tutti noi accettiamo come veri ma che alcuni filosofi avevano dichiarato incompatibili tra loro:

1) Principio dell’interazione causale fra mentale e fisico: eventi mentali come credenze, desideri, speranze e paure causano le nostre azioni, le quali causeranno eventi fisici nel mondo esterno; la percezione di questi ultimi, in conseguenza, causerà altri stati mentali derivati.

2) Principio nomologico della causalità: se fra due eventi si dà una relazione causale, tra gli eventi stessi esiste una relazione di causa-effetto che può essere descritta da una legge fisica strettamente deterministica.

3) Principio dell’anomalia del mentale: non vi sono leggi strettamente deterministiche sulla base delle quali prevedere e spiegare gli eventi mentali.

In altre parole gli eventi mentali sono anomali poiché sfuggono dalla rete della catalogazione dello scienziato, il quale non può realizzare delle leggi deterministiche per la descrizione del loro divenire. Tra questi tre principi il terzo è quello che ha suscitato le discussioni più vivaci tra i filosofi del settore. Davidson tuttavia, irremovibile, affermò che non vi è contraddizione tra i tre principi e propose che i fenomeni mentali sono da ritenere “sopravvenienti” rispetto ai fenomeni fisici.

Il concetto di sopravvenienza sta a indicare che, dato un oggetto O, sia F l’insieme di tutti i predicati fisici ad esso applicabili, e sia M l’insieme dei predicati mentali che lo descrivono, allora, non è possibile togliere o aggiungere nessun predicato a M, senza togliere o aggiungere qualcosa a F, ma potrebbe invece accadere l’inverso. In altre parole, la sopravvenienza implica che ogni modificazione intervenuta a livello mentale sarà necessariamente accompagnata da modificazioni a livello del sistema nervoso, ma non viceversa. Questa tesi, se ci si riflette bene, non è affatto priva di senso e deriva da una considerazione olistica: non è detto che le proprietà di un sistema possano essere tutte spiegate tramite la descrizione delle sue singole componenti.

Il filosofo americano prospetta in questo senso il fallimento di tutte quelle teorie riduzionistiche come il comportamentismo logico, le quali predicano che i concetti mentali possano essere definiti in termini di concetti comportamentali. La discrasia in tali teorie è di tipo sistematico e lo spiega nel suo saggio Eventi Mentali egli stesso:

“Immaginiamo di provare a dire, senza far uso di concetti mentali, che cos’è per un certo uomo credere che ci sia vita su Marte. Una linea d’approccio può essere questa: quando un certo suono (“C’è vita su Marte?”) viene prodotto alla presenza dell’uomo, egli ne produce un altro (“Sì”). Ma naturalmente questo mostra che crede che ci sia vita su Marte solo se capisce l’italiano, se la sua produzione del suono è intenzionale, e se è una risposta al suono precedente in quanto esso significava qualcosa in italiano; e così via. Per ogni lacuna che scopriamo, aggiungiamo una nuova clausola. Tuttavia, non importa quanto si rappezzino e si accomodino le condizioni non mentali, ci si imbatte sempre nell’esigenza di aggiungere una condizione (purché egli si accorga, capisca, ecc.) che ha carattere mentale.”

Questo semplice esempio smonta qualsiasi teoria comportamentistica poiché essa non riesce a risalire alla causa che produce il mentale senza incorrere nell’aggiunta di una nuova condizione di carattere mentale!

Metodologie di studio

Per cercare di emulare le funzioni cognitive superiori del cervello umano la recente ricerca sulla Intelligenza Artificiale sta tentando di creare software particolari, capaci di auto-adattamento, come quelli basati sulle reti neurali artificiali: modelli di calcolo che tentano di emulare le reti neurali biologiche. Sono software realizzati come gruppi di interconnessioni di informazioni costituite da neuroni artificiali e processi che utilizzano un approccio di calcolo di tipo connessionista. Si tratta di software adattivi che possono cambiare (entro certi limiti) la loro struttura di programma basandosi su un sistema di nodi, pesi e relazioni tra le informazioni esterne o interne durante la fase di apprendimento.

Eppure, nonostante ciò, anche le migliori intelligenze artificiali attuali non arrivano mai ad ottenere quella che si può definire una reale “comprensione” del mondo reale. Sarebbe a dire che, una volta esaurite le loro routine precompilate, esse si fermano e smettono di interagire con un bel “the-program-she-ended”.

Le I.A. non riescono quindi a “ipotizzare” o a dare risposte non inserite preventivamente negli schemi di programmazione del loro software, anche se questi sono (parzialmente) retroattivi. Una descrizione accurata di questo gap tra la macchina emulatrice (il computer) ed il cervello umano è data con sufficiente chiarezza da due studiosi italiani di Intelligenza Artificiale: Gabriele Rossi e Antonella Canonico nel loro recente libro “Semi-Immortalità” ove essi descrivono cinque stadi che partono dal caos per arrivare alla conoscenza e nei quali le I.A. non riescono a superare il terzo stadio poichè mancano di auto-referenzialità.

Un altro ricercatore che ha prodotto studi interessanti in merito è Oscar Bettelli nel libro: “Sincronicità: un paradigma per la mente” dove discute brillantemente le tesi di Franz Brentano e individua che la percezione di una macchina manca di una corretta interpretazione simbolico-significativa.

Ipotesi per il futuro

L’autore di questo testo fa notare che il moderno approccio di studio per l’Intelligenza Artificiale, che prende le basi dal Funzionalismo, non tiene conto di alcuni fattori. Esso postula la mente come un software, totalmente distinto dall’hardware della materia cerebrale. In un computer però, lasciando l’hardware da parte, il suo software (ad esempio il sistema operativo) può essere profondamente diversificato. Sullo stesso computer è possibile installare Windows, Linux o Solaris, diversissimi sia come sorgenti di codice macchina e sia come funzionalità operative. Questo però non accade nel cervello, nel quale invece il software non può essere minimamente variato poiché ciò significherebbe la morte dell’Io cosciente. Ancora: in un computer il software è una “entità esterna” mentre nel cervello umano esso è “secreto” direttamente dall’hardware come funzione evolutiva del cervello stesso. E’ noto infatti che la coscienza di sé nel bambino e la capacità di elaborare significativamente le istanze del mondo esterno non si sviluppano prima dei due anni di età, si tratta a tutti gli effetti di una “auto-programmazione” che avviene in modo graduale negli anni come forma di adattamento all’ambiente.

Va anche aggiunto che l'hardware del cervello umano si modifica sia col passare del tempo (nascono e muoiono nuovi neuroni) e sia con l'utilizzo più o meno intenso di una particolare attività (es. apprendere la matematica) che crea nuovi percorsi neurali. L'hardware dei computer è invece assolutamente statico. Altra differenza: il cervello umano è un elaboratore elettrochimico a parallelismo massiccio con tempi di propagazione del segnale molto lenti mentre il computer è un elaboratore seriale molto veloce che può però solo eseguire istruzioni in sequenza ordinata. E ancora: nei computer la memoria di sistema (Ram e Cache) è totalmente disgiunta dal nucleo principale di elaborazione rappresentato dalla CPU (central processing unit), al contrario nel cervello biologico memoria e CPU sono integrate e interoperanti nello stesso sostrato fisico.

Quello che si vuole affermare è, in altre parole, che il software del cervello umano risulta “cablato” nell’hardware. Questa tesi non vuole distruggere il Funzionalismo, la cui ipotesi di base (la mente è un software) può restare vera, ma attaccare le attuali metodologie di ricerca. Forse dovremmo cambiare metodologia, forse dovremmo realizzare una vera emulazione fisica: un “simulacro elettrochimico” del cervello biologico. Per fare un (rozzo) esempio potremmo costruire un cervello di silicio con chip interconnessi che simulino i neuroni, le sinapsi e le relative macro-aree funzionali. Non importa se esso avrà la stessa miniaturizzazione del suo originale biologico: potrebbe essere grande quanto un automobile e funzionare ugualmente. E non importa se esso sarà inizialmente realizzato con cento milioni di neuroni artificiali invece dei cento miliardi del suo originale biologico. Forse questo “simulacro elettrochimico” potrebbe aiutarci a capire qualcosa del cervello organico che ancora non abbiamo compreso: il suo principio di funzionamento.


---


Bibliografia:

Donald Davidson: Azione ed eventi (1980)
Jerry Fodor - Il linguaggio del pensiero (1975) - La mente modulare (1983)
Marco Salucci: La teoria dell'identità. Alle origini della filosofia della mente (2004)
Paul M. Churchland: La natura della mente e la struttura della scienza (1992)
G. Rossi e A. Canonico: Semi-Immortalità (2006)
Oscar Bettelli: Sincronicità: un paradigma per la mente (2002) – Modelli computazionali per la mente (2002)
Piero Scaruffi: La Fabbrica del pensiero (1994)
Le Scienze: Filosofia della mente (1996)



Estropico