Può una macchina pensare?

di Paul e Patricia Churchland

(originariamente pubblicato su www.neuroingegneria.com)

Le ricerche sull'intelligenza artificiale (IA) stanno attraversando un periodo rivoluzionario. Per capire come e perché e per collocare nella giusta prospettiva le argomentazioni di John R. Searle, occorre prima di tutto fare un passo indietro.

Già nei primi anni cinquanta, la vecchia e vaga domanda "Può una macchina pensare?" era stata sostituita da un quesito più abbordabile: "Una macchina che manipoli simboli fisici secondo regole che tengano conto della struttura può pensare?" Questa nuova domanda rappresentava un progresso, perché nei 50 anni precedenti la logica formale e la teoria della computazione avevano registrato sviluppi notevoli. I teorici erano giunti a capire l'enorme potere dei sistemi astratti di simboli che subiscono trasformazioni basate su regole. Se questi sistemi avessero potuto essere automatizzati, il loro potere computazionale astratto, così pareva, si sarebbe manifestato in un sistema fisico vero e proprio. Questa intuizione diede l'avvio a un
programma di ricerca ben definito con profonde implicazioni teoriche.

Una macchina può pensare? C'erano molte ragioni per dare una risposta affermativa. Una delle prime e più profonde stava in due importanti risultati della teoria della computazione. La prima era la tesi di Church, secondo la quale ogni funzione che sia effettivamente calcolabile è ricorsivamente computabile. Effettivamente calcolabile significa che esiste una procedura "meccanica" per determinare, in un tempo finito, il valore (uscita) della funzione per un dato argomento (ingresso). Ricorsivamente computabile significa in particolare che esiste un insieme finito di operazioni aritmetiche elementari che, applicate a un argomento dato e poi ai risultati successivi di queste applicazioni, consente di ottenere il valore della funzione in un tempo finito. La nozione di procedura meccanica è informale e intuitiva, quindi la tesi di Church non ammette una dimostrazione formale; essa, però, riguarda l'essenza del calcolo ed è suffragata da argomenti diversi e convergenti.

L'altro risultato importante era la dimostrazione, a opera di Alan M. Turing, che qualsiasi funzione ricorsivamente computabile può essere calcolata in un tempo finito da un tipo estremamente semplice di macchina manipolatrice di simboli, che in seguito è stata chiamata macchina universale di Turing. Essa è governata da un insieme di regole applicabili ricorsivamente, che sono in grado di tener conto dell'identità, dell'ordine e della disposizione dei simboli elementari in ingresso via via incontrati.

Questi due risultati comportano una conseguenza notevole, cioè che un calcolatore digitale tradizionale, purché abbia il programma giusto, una memoria abbastanza grande e tempo a sufficienza, può calcolare qualsiasi funzione tra ingresso e uscita governata da regole [che siano meccaniche e deterministiche ndr]. Ovvero, può fornire in ogni caso una configurazione sistematica di risposte all'ambiente.

In particolare, questi risultati comportano che una macchina manipolatrice di simboli (che d'ora in poi chiameremo macchina MS) adeguatamente programmata dovrebbe riuscire a superare il test di Turing per l'intelligenza cosciente. Il test di Turing è puramente comportamentale, ma è comunque molto severo. (Se sia un criterio adeguato lo discuteremo in seguito, quando incontreremo un secondo "criterio", molto diverso per l'intelligenza cosciente.) Nella versione originale del test di Turing, ciò che si introduce nella macchina MS sono domande e osservazioni tipiche di una conversazione, battute su una tastiera da una persona qualsiasi, mentre le uscite sono risposte dattiloscritte, fornite dalla macchina MS. La macchina supera questo test per l'intelligenza se le sue risposte non possono essere distinte dalle risposte dattiloscritte di una persona intelligente in carne e ossa. Naturalmente, al momento, nessuno conosce la funzione che produrrebbe in uscita il comportamento di una persona pensante, ma i risultati di Church e di Turing ci garantiscono che, qualunque sia questa funzione (presumibilmente effettiva), una macchina MS adeguata potrebbe computarla. [A rigore, la tesi di Church non dice alcunché sulle funzioni "presumibilmente effettive", anzi per una funzione "presumibilmente effettiva", che in effetti poi non lo sia, la tesi asserisce proprio che una siffatta macchina MS non esiste. È possibile che gli autori vogliano con tale espressione rendere, in modo approssimativo e poco felice, il concetto di "parziale ricorsiva" ndr.]

Questa conclusione è importante, soprattutto perché l'interazione svolta solo mediante telescrivente ipotizzata da Turing è un vincolo superfluo. La stessa conclusione si ottiene anche se la macchina MS interagisce con il mondo in modi più complessi: mediante visione diretta, con dialoghi veri e propri e così via. In fin dei conti, anche una funzione ricorsiva più complessa è pur sempre calcolabile alla Turing. L'unico problema che resta è quello di identificare la funzione, indubbiamente complessa, che governa la struttura delle risposte umane all'ambiente e poi scrivere il programma (l'insieme delle regole applicabili ricorsivamente) per mezzo del quale la macchina MS la calcola. Questi obiettivi costituiscono il programma di ricerca basilare dell'intelligenza artificiale classica.

I risultati iniziali furono positivi. Le macchine MS fornite di buoni programmi svolgevano un'ampia gamma di attività evidentemente cognitive. Seguivano istruzioni complicate, risolvevano complessi problemi aritmetici, algebrici e tattici, giocavano a dama e a scacchi, dimostravano teoremi e sostenevano dialoghi semplici. Con la comparsa di memorie più grandi e di macchine più veloci e con l'impiego di programmi più lunghi e più smaliziati i risultati continuarono a migliorare. L'intelligenza artificiale classica, basata sulla stesura di programmi, rappresentò un complesso di ricerche impegnative e riuscite sotto quasi tutti i punti di vista. Pareva che solo una scarsa informazione e un difetto di ragionamento potessero ogni tanto indurre qualcuno a negare che prima o poi le macchine sarebbero state in grado di pensare. Le prove erano favorevoli a una risposta affermativa al quesito che dà il titolo all'articolo.

Naturalmente, c'erano alcuni punti oscuri. Intanto era evidente che le macchine MS non erano molto simili al cervello. Ma anche qui l'impostazione classica forniva una risposta convincente. Innanzitutto, il materiale con cui una qualsiasi macchina MS è costruita non ha essenzialmente niente a che fare con la funzione calcolata. Questa infatti è fissata dal programma. In secondo luogo, anche i particolari costruttivi dell'architettura funzionale della macchina sono irrilevanti, dal momento che architetture differenti, sfruttando programmi diversissimi, potrebbero calcolare la stessa funzione ingresso-uscita.

Di conseguenza, l'intelligenza artificiale cercò di trovare la funzione ingresso-uscita caratteristica dell'intelligenza e il programma più efficace, tra i molti possibili, per calcolarla. Si sosteneva che il modo particolarissimo in cui la funzione viene calcolata dal cervello non ha alcuna importanza. Con ciò le basi logiche dell'intelligenza artificiale nonché della risposta affermativa alla domanda del titolo sono complete.

Può una macchina pensare? Vi erano anche delle ragioni per rispondere di no, ma negli anni sessanta le argomentazioni contrarie di un certo interesse erano piuttosto rare. Talvolta veniva mossa l'obiezione che il pensiero fosse un processo non fisico entro un'anima immateriale. Ma questa resistenza dualistica non era plausibile né sotto il profilo costruttivo, né sotto quello esplicativo ed ebbe un'influenza trascurabile sulle ricerche di intelligenza artificiale.

Ben altra attenzione suscitò nella comunità degli esperti di IA una obiezione affatto diversa. Nel 1972 Hubert L. Dreyfus pubblicò un libro molto critico verso le simulazioni da vetrina dell'attività cognitiva. Sosteneva che erano simulazioni insufficienti dell'attività cognitiva genuina e imputava a questi tentativi un difetto sistematico. Ciò che mancava, a suo parere, era il vasto cumulo di conoscenze di base inarticolate che ogni persona possiede e la capacità che ha il buon senso di sfruttare gli aspetti utili di tali conoscenze al mutare delle circostanze. Egli non negava l'eventualità che un sistema fisico artificiale potesse pensare, ma era molto critico sull'idea che tale meta si potesse conseguire con la sola manipolazione di simboli mediante regole applicabili ricorsivamente.

Sia tra i ricercatori dell'intelligenza artificiale sia tra i filosofi, le osservazioni di Dreyfus furono per lo più considerate ottuse, malevole e indisponentemente puntate contro le inevitabili semplificazioni di una disciplina ai primi passi. Queste carenze, forse reali, erano senz'altro temporanee. Macchine più grandi e programmi migliori le avrebbero eliminate a tempo debito. Il tempo, si riteneva, era dalla parte dell'intelligenza artificiale. Ancora una volta le conseguenze sulla ricerca furono trascurabili.

Ma il tempo era anche dalla parte di Dreyfus: verso la fine degli anni settanta e all'inizio degli anni ottanta il tasso di rendimento cognitivo all'aumentare della velocità e della memoria cominciò a diminuire. Per esempio, si vide che per simulare il riconoscimento degli oggetti proprio del nostro sistema visivo si doveva ricorrere a una potenza di calcolo di livello inaspettato. Risultati realistici richiedevano tempi di calcolo sempre più lunghi, molto più lunghi di quelli richiesti da un sistema visivo reale. Tale relativa lentezza delle simulazioni era un fenomeno curioso e incomprensibile; in un calcolatore la propagazione dei segnali è circa un milione di volte più veloce che nel cervello e la frequenza del segnatempo che comanda l'unità di elaborazione centrale supera qualsiasi frequenza presente nel cervello di un fattore altrettanto elevato. Eppure, nei problemi reali, la tartaruga sorpassa facilmente la lepre.

Inoltre, per ottenere prestazioni realistiche, il programma doveva poter accedere a una base di conoscenze vastissima. Già costruire la base di conoscenze appropriata era una difficoltà seria, che veniva aggravata dal problema di come accedere in tempo reale proprio alle parti contestualmente significative della base. Via via che la base di conoscenze s'ingrandiva e che la sua qualità migliorava, il problema dell'accessibilità si aggravava. Una ricerca esauriente richiedeva troppo tempo e l'euristica basata sulla pertinenza serviva poco. Infine anche tra i ricercatori dell'intelligenza artificiale cominciarono a prender piede perplessità come quelle espresse da Dreyfus.

Più o meno in questo periodo (1980) John Searle concepì una critica nuova e affatto diversa, indirizzata all'assunto di fondo del programma di ricerca classico: ovvero l'idea che una manipolazione adeguata di simboli strutturali tramite l'applicazione ricorsiva di regole che tengano conto della struttura potesse produrre un'intelligenza cosciente.

L'argomento di Searle si basa su un esperimento concettuale avente due caratteristiche fondamentali. In primo luogo, egli descrive una macchina MS che attui, si deve supporre, una funzione ingresso-uscita in grado di sostenere una conversazione tutta in cinese superando il test di Turing. In secondo luogo, la struttura interna della macchina è tale che, comunque essa si comporti, un osservatore ha la certezza che né la macchina, né alcuna sua parte capisce il cinese. Tutto ciò che essa contiene è una persona che parla solo l'inglese e che seguendo una serie di istruzioni scritte manipola i simboli cinesi che entrano ed escono da un'apertura. In breve, il sistema dovrebbe superare il test di Turing, pur non comprendendo né il cinese né il vero contenuto semantico del cinese.

La conclusione generale che ne trae Searle è che un sistema che si limiti a manipolare simboli fisici secondo regole che tengano conto della struttura sarà al massimo una vuota parodia dell'autentica intelligenza cosciente, poiché è impossibile generare la "vera semantica" semplicemente macinando una "vuota sintassi". Si deve notare che qui Searle ci impone un criterio non comportamentale per l'intelligenza: gli elementi dell'intelligenza cosciente devono possedere un contenuto semantico reale.

Si può essere tentati di considerare inadeguato l'esperimento concettuale di Searle, dal momento che il suo sistema "alla Rube Goldberg" elaborerebbe i dati con una lentezza assurda. Searle tuttavia ribatte che in questo caso la lentezza è del tutto irrilevante: anche un pensatore lento dovrebbe pur sempre essere un vero pensatore. Egli afferma che, per quanto riguarda la IA classica, nella stanza cinese è presente tutto il necessario per la riproduzione del pensiero.

Quando apparve, il saggio di Searle provocò reazioni vivaci sia tra i ricercatori dell'intelligenza artificiale, sia tra gli psicologi e i filosofi e, nel complesso, egli ebbe un'accoglienza anche più ostile di quella che era stata riservata a Dreyfus. Nel suo articolo su questo stesso numero Searle elenca esplicitamente parecchie delle critiche mossegli. Riteniamo che molte di esse siano ragionevoli, specie quelle che insistono impavide sul fatto che, nonostante la sua spaventosa lentezza, il sistema complessivo stanza-più-contenuto "capisce davvero il cinese".

Riteniamo che queste risposte siano sensate, ma non perché pensiamo che la stanza capisca il cinese. Conveniamo con Searle sul fatto che essa non lo capisce. Le consideriamo invece risposte sensate in quanto contengono un rifiuto del terzo fondamentale assioma dell'argomento di Searle: "La sintassi, di per sé, non è condizione essenziale, né sufficiente, per La determinazione della semantica." Forse quest'assioma è vero, ma Searle non può pretendere a buon diritto di sapere che lo è. Inoltre dare per scontata la sua verità equivale a dare al problema una soluzione a priori contraria al programma di ricerca dell'IA classica, poiché tale programma è fondato sull'interessantissima ipotesi che, se soltanto si riesce ad avviare una danza interna di elementi sintattici, opportunamente strutturata e opportunamente collegata agli ingressi e alle uscite, essa può produrre gli stessi stati e risultati cognitivi che si trovano negli esseri umani.

Che l'assioma di Searle dia per scontato ciò che si dovrebbe dimostrare diventa chiaro quando lo si confronti direttamente con la sua conclusione 1: "I programmi non sono condizione essenziale né sufficiente perché sia data una mente." È chiaro che l'assioma 3 contiene già il 90 per cento del peso di questa conclusione, che è quasi identica. Per questo motivo l'esperimento concettuaile di Searle è volto a suffragare espressamente l'assioma 3. Questo è il succo dell'esperimento della stanza cinese.

Sebbene la storia della stanza cinese renda l'assioma 3 attraente per gli incauti, noi non crediamo che riesca a dargli una base solida; e forniamo anche un argomento parallelo che ne illustra il fallimento. Un solo esempio che contraddica in modo palese una tesi controversa spesso costituisce una dimostrazione molto più convincente di un libro pieno di argomentazioni logiche.

Il tipo di scetticismo manifestato da Searle ha numerosi precedenti nella storia della scienza. Nel Settecento il vescovo irlandese George Berkeley trovava incomprensibile che le onde di compressione dell'aria fossero, di per sé, essenziali o sufficienti per dare il suono obiettivo. Il poeta e artista inglese William Blake e il poeta e naturalista tedesco Johann Wolfgang von Goethe consideravano inconcepibile che minuscole particelle potessero, di per sé, essere essenziali o sufficienti per generare il fenomeno obiettivo della luce. Perfino in questo secolo alcuni hanno trovato inimmaginabile che la materia inanimata, per quanto ben organizzata, potesse da sola costituire una premessa essenziale o sufficiente per la vita. È evidente che spesso quanto gli uomini riescono o non riescono a immaginare non ha niente a che fare con la realtà, e questo accade anche a persone molto intelligenti.

Per vedere fino a che punto quanto si è detto possa essere applicato al caso di Searle, abbiamo costruito un argomento parallelo al suo e all'esperimento concettuale che lo suffraga.

Assioma 1. L'elettricità e il magnetismo sono forze.

Assioma 2. La proprietà essenziale della luce è la luminosità.

Assioma 3. Le forze, da sole, non sono essenziali né sufficienti per dare la luminosità.

Conclusione 1. L'elettricità e il magnetismo non sono essenziali né sufficienti per dare la luce.

Supponiamo che questo argomento fosse stato formulato poco dopo l'ipotesi, avanzata da James Clerk Maxwell nel 1864, sulla natura elettromagnetica della luce, ma prima che i parallelismi sistematici tra le proprietà della luce e quelle delle onde elettromagnetiche fossero pienamente riconosciuti. Questo argomento avrebbe potuto costituire un'obiezione validissima alla fantasiosa ipotesi di Maxwell, specialmente se gli si fosse affiancato il seguente commento a sostegno dell'assioma 3.

"Un uomo in una stanza buia tiene in mano un magnete a barra o un oggetto elettricamente carico. Secondo la teoria di Maxwell sulla luminosità artificiale, se l'uomo sposta il magnete su e giù, ne deriva un cerchio sempre più ampio di onde elettromagnetiche e pertanto il magnete diviene luminoso. Tuttavia, come ben sanno tutti coloro che hanno giocherellato con magneti o con sfere cariche, le loro forze (o, se è per questo, tutte le forze), anche se messe in movimento, non producono luminosità. È assurdo pensare di produrre luminosità semplicemente spostando delle forze!"

Come potrebbe rispondere Maxwell a questa provocazione? Potrebbe dapprima dire che l'esperimento della "stanza luminosa" è una rappresentazione fuorviante del fenomeno della luminosità, poiché la frequenza di oscillazione del magnete è di gran lunga troppo bassa, troppo bassa di un fattore 10. L'interlocutore potrebbe benissimo rispondere spazientito che la frequenza non c'entra niente, perché la stanza con il magnete oscillante contiene già tutto ciò che, proprio secondo la teoria di Maxwell, è essenziale per produrre la luce.

A questo punto Maxwell, che non si rassegna, potrebbe controbattere a ragione che la stanza in realtà è inondata di luce, ma luce di grado o qualità troppo debole per essere osservata. (Data la bassa frequenza con cui l'uomo può far oscillare il magnete, la lunghezza d'onda della radiazione elettromagnetica prodotta è troppo grande e la sua intensità è troppo debole perché l'occhio umano possa osservarla.) Ma nel clima di comprensione qui contemplato - siamo intorno al 1860 - probabilmente questa risposta susciterebbe scherno e derisione. "Altro che stanza luminosa, caro Maxwell; là dentro è buio pesto!"

Ahimé, per il povero Maxwell non è facile uscire da questo impiccio. Non può fare altro che insistere sui tre punti seguenti. Innanzitutto, l'assioma 3 dell'argomento riportato sopra è falso. Infatti, pur essendo intuitivamente plausibile, dà per scontato ciò che non lo è. In secondo luogo, l'esperimento della stanza luminosa non dimostra niente di interessante, in nessun senso, sulla natura della luce. Infine, ciò che serve per risolvere il problema della luce e della possibilita di ottenere luminosita artificiale è un programma di ricerca sistematico che consenta di stabilire se, in condizioni opportune, il comportamento delle onde elettromagnetiche rifletta perfettamente quello della luce.

Questa è anche la risposta che l'IA classica dovrebbe fornire all'argomentazione di Searle. Sebbene la stanza cinese di Searle possa apparire "semanticamente buia", non vi è nessunissima giustificazione alla sua pretesa, fondata su quest'apparenza, che la manipolazione di simboli secondo certe regole non potrà mai dar luogo a fenomeni semantici, specie se i lettori hanno soltanto una concezione vaga e basata sul buon senso dei fenomeni semantici e cognitivi di cui si cerca una spiegazione. Invece di sfruttare la comprensione che i lettori hanno di queste cose, l'argomento di Searle sfrutta senza troppi scrupoli la loro ignoranza in proposito.

Dopo aver precisato queste critiche all'argomento di Searle, torniamo a domandarci se il programma di ricerca dell'IA classica abbia qualche possibilità reale di risolvere il problema dell'intelligenza cosciente e di costruire una macchina in grado di pensare. Riteniamo che le prospettive siano scarse, ma la nostra opinione è basata su ragioni ben diverse da quelle fornite da Searle. Le nostre ragioni hanno origine nel fallimento di alcune mete specifiche del programma di ricerca classico dell'IA e in svariate cose che abbiamo appreso dal cervello biologico e da una nuova classe di modelli computazionali che si ispirano alla sua struttura. Abbiamo già indicato come l'IA classica abbia fallito in compiti che il cervello svolge in modo rapido ed efficace. L'opinione generale che emerge da questi insuccessi è che l'architettura funzionale delle macchine MS classiche semplicemente non sia quella adatta a svolgere compiti tanto impegnativi.

Ciò che dobbiamo scoprire è come fa il cervello a pensare. L'ingegneria in senso inverso è pratica comune nell'industria. Quando esce sul mercato un nuovo dispositivo, i concorrenti ne scoprono il funzionamento smontandolo e cercando di risalire alla sua logica strutturale. Nel caso del cervello tale procedimento è particolarmente arduo, perché il cervello è il sistema più complesso ed elaborato che esista al mondo. Ciononostante, la scienza ha scoperto molte cose su di esso, a svariati livelli strutturali. Sono soprattutto tre le caratteristiche anatomiche per cui il cervello si differenzia profondamente dall'architettura dei calcolatori elettronici tradizionali.

In primo luogo il sistema nervoso è una macchina parallela, nel senso che i segnali vengono elaborati simultaneamente in milioni di canali diversi. La retina, per esempio, presenta al cervello il suo complicato ingresso non in blocchi di otto, 16 o 32 elementi, come in un calcolatore da tavolo, bensì sotto forma di quasi un milione di segnali distinti che arrivano simultaneamente all'estremità del nervo ottico (il nucleo genicolato laterale), dove vengono elaborati collettivamente, simultaneamente e in un colpo solo. In secondo luogo, l'unità di elaborazione fondamentale del cervello, il neurone, è relativamente semplice, inoltre la sua risposta ai segnali in ingresso è analogica e non digitale, in quanto la frequenza degli impulsi in uscita varia con continuità in funzione dei segnali in ingresso. In terzo luogo, nel cervello, agli assoni che si proiettano da una popolazione di neuroni a un'altra sono spesso abbinati assoni che da quest'ultima vanno alla prima popolazione. Queste proiezioni discendenti o ricorrenti permettono al cervello di modulare il carattere della sua elaborazione sensoriale. Ancor più importante è che la loro esistenza rende il cervello un vero e proprio sistema dinamico, il cui comportamento continuo è allo stesso tempo molto complesso e in una certa misura indipendente dagli stimoli periferici.

Modelli a rete estremamente semplificati si sono dimostrati utili per capire come potrebbero funzionare le reti di neuroni reali e per rivelare le proprietà computazionali delle architetture parallele. Per esempio, si consideri un modello a tre strati formato da unità simili a neuroni collegate a tutte le unità dello strato successivo da connessioni simili ad assoni. Uno stimolo in ingresso produce un dato livello di attivazione in una certa unità d'ingresso, la quale mediante il suo "assone" trasmette un segnale di intensità proporzionale al livello di attivazione alle molte connessioni "sinaptiche" che collegano le unità nascoste. L'effetto complessivo è che una configurazione di attivazione nell'insieme delle unità d'ingresso produce una configurazione di attivazione distinta nell'insieme e unità nascoste.

Lo stesso vale per le unità di uscita. Anche in questo caso una configurazione di attivazione nell'insieme delle unità nascoste produce una distinta configurazione di attivazione nelle unità di uscita. In ultima analisi, questa rete è un dispositivo che permette di trasformare univocamente uno qualunque tra i moltissimi possibili vettori in ingresso (configurazioni di attivazione) in un vettore in uscita. Si tratta di un dispositivo per elaborare una specifica funzione. La configurazione complessiva dei pesi sinaptici determina con precisione quale sia la funzione calcolata dal dispositivo.

Esistono diversi procedimenti per scegliere i pesi in modo tale da ottenere una rete che sia in grado, in pratica, di calcolare qualunque funzione, cioè qualunque trasformazione vettoriale si desideri. Anzi, si può addirittura far sì che la rete calcoli una funzione che non si è in grado di specificare, purché si riesca a fornire un certo numero di coppie ingresso-uscita desiderate. Quest'operazione, chiamata "addestramento della rete", procede attraverso un aggiustamento successivo dei pesi finché la rete effettui le trasformazioni ingresso-uscita desiderate.

Per quanto semplifichi moltissimo la struttura del cervello, questo modello a rete illustra svariate idee importanti. Innanzitutto, un'architettura parallela consente un aumento radicale di velocità rispetto a un calcolatore convenzionale, perché le molte sinapsi di ciascun livello compiono molti piccoli calcoli simultanei invece che in faticosa successione. Questo vantaggio aumenta d'importanza quando il numero di neuroni di ciascuno strato aumenta. Sorprendentemente, la velocità di elaborazione è affatto indipendente tanto dal numero di unità interessate al calcolo in ciascuno strato quanto dalla complessità della funzione elaborata. Che ciascuno strato abbia quattro unità impegnate oppure cento milioni, la sua configurazione di pesi sinaptici potrebbe calcolare somme di numeri di una sola cifra o equazioni differenziali del second'ordine. Non ci sarebbe alcuna differenza. Il tempo di calcolo sarebbe esattamente lo stesso.

In secondo luogo, un elevato grado di parallelismo comporta che il sistema resista ai danni mantenendo la propria funzionalità. La perdita di alcuni collegamenti, anche di parecchi, ha un effetto trascurabile sul carattere della trasformazione complessiva operata dalla parte rimanente della rete.

In terzo luogo, un sistema parallelo immagazzina grandi quantità di informazione in modo distribuito, e il tempo di accesso a ciascuna parte è dell'ordine dei millesimi di secondo. Tali informazioni sono contenute nella specifica configurazione di intensità delle connessioni sinaptiche, generata dall'apprendimento precedente. Quando il vettore in ingresso attraversa quella configurazione di connessioni, e ne è trasformato, vengono "liberate" informazioni utili.

L'elaborazione parallela non è l'ideale per ogni tipo di calcolo. Con operazioni che richiedono soltanto un piccolo vettore in ingresso, ma molti milioni di calcoli ricorsivi in rapida iterazione, il cervello lavora molto male, mentre le macchine MS tradizionali eccellono. Dato che questa "classe computazionale" è molto ampia e importante, le macchine classiche resteranno sempre utili, addirittura vitali. Esiste tuttavia un'altrettanto estesa classe computazionale per la quale l'architettura del cervello è la tecnologia migliore. Si tratta delle elaborazioni che in genere devono affrontare gli esseri viventi: riconoscere la sagoma di un predatore in un ambiente disturbato; ricordare all'istante come evitare di essere individuato, come fuggire al suo avvicinarsi o come schivare il suo attacco; distinguere ciò che è commestibile da ciò che non lo è; distinguere gli individui con cui ci si può accoppiare da quelli con cui non si può; barcamenarsi in un ambiente fisico e sociale complesso e in continua trasformazione; e così via.

Infine è importante osservare che il sistema parallelo descritto non manipola simboli secondo regole che tengano conto della struttura. Sembra anzi che la manipolazione dei simboli sia solo una delle molte capacità cognitive che una rete può imparare a manifestare oppure no. La manipolazione di simboli governata da regole non è il suo modo fondamentale di operare. L'argomento di Searle è diretto contro le macchine MS governate da regole; i trasformatori di vettori come quelli da noi descritti non sarebbero pertanto minacciati dall'argomento della stanza cinese neanche se questo fosse corretto, cosa di cui dubitiamo per motivi indipendenti.

Searle sa che esistono gli elaboratori paralleli, ma ritiene che anch'essi saranno sprovvisti di un vero contenuto semantico. Per illustrare il loro inevitabile insuccesso, egli propone un altro esperimento concettuale, quello della "palestra cinese": una palestra piena di gente organizzata secondo una rete parallela. Poi l'argomento procede come quello della stanza cinese.

Riteniamo che questa seconda storia sia di gran lunga meno interessante e persuasiva della prima. Intanto, che nessuna unità del suo sistema capisca il cinese è irrilevante, poiché lo stesso vale per il sistema nervoso: nessun singolo neurone di un cervello capisce l'inglese, mentre il cervello intero sì. Inoltre Searle trascura di dire che la sua simulazione (che prevede una persona per ciascun neurone, più un bambino "piè veloce" per ciascuna connessione sinaptica) richiede almeno 10^14 persone, dal momento che il cervello umano contiene 10^11 neuroni, ciascuno dei quali possiede in media 10^3 connessioni. Il suo sistema, quindi, dovrebbe impiegare la popolazione di oltre 10000 pianeti come la Terra: una palestra non sarebbe neanche lontanamente sufficiente a ospitare una simulazione di qualche significato.

D'altro canto, se un sistema siffatto fosse realizzato a una scala cosmica adatta, con tutti i collegamenti che rispecchino fedelmente quelli del cervello umano, potremmo ritrovarci con un cervello enorme, lento e stravagante, ma pur sempre funzionante. In questo caso, l'ipotesi più naturale sarebbe quella di attribuire al sistema, con gli ingressi adatti, la capacità di pensare, e non il contrario. Non c'è alcuna garanzia che la sua attività costituirebbe pensiero autentico, poiché la teoria dell'elaborazione vettoriale abbozzata sopra potrebbe non rappresentare correttamente il funzionamento del cervello. Ma non c'è neppure una garanzia a priori che il sistema non penserebbe. Ancora una volta Searle confonde i limiti della sua fantasia allo stato attuale (o di quella dei suoi lettori) con i limiti della realtà oggettiva.

Il cervello è una specie di calcolatore, anche se la maggior parte delle sue proprietà deve essere ancora scoperta. Considerare il cervello una specie di calcolatore non è cosa né ovvia, né superficiale. Il cervello calcola funzioni molto complesse, non però con i metodi dell'IA classica. Quando si dice che il cervello è un calcolatore, non bisogna dedurne che sia un calcolatore seriale digitale, che sia programmato, che in esso si colga la distinzione tra hardware e software, né che debba essere un manipolatore di simboli o che segua regole formali. Il cervello è sì un calcolatore ma in un senso radicalmente diverso.

Come il cervello gestisca il significato ancora non si sa, comunque è chiaro che il problema non si limita all'uso della lingua né agli esseri umani. Una montagnola di deiezioni fresche indica a una persona, e anche ai coyote, che nelle vicinanze c'è uno scoiattolo; un'eco con un certo tipo di spettro significa, per un pipistrello, che in giro c'è una falena. Per sviluppare una teoria del significato occorrerà saperne di più sul modo in cui i neuroni codificano e trasformano i segnali sensoriali, sulla base nervosa della memoria, dell'apprendimento e delle emozioni e sulle interazioni tra queste facoltà e il sistema motorio. Una teoria del significato su basi neurologiche potrebbe portare a una revisione proprio di quelle intuizioni che ora appaiono tanto certe e che sono sfruttate tanto liberamente nelle argomentazioni di Searle. (Revisioni del genere sono comuni nella storia della scienza.)

Potrebbe la scienza costruire un'intelligenza artificiale sfruttando ciò che si sa sul sistema nervoso? A nostro parere non c'è alcuna ragione di principio per rispondere di no. Searle sembra d'accordo, anche se poi subordina la sua asserzione alla condizione che "qualunque altro sistema in grado di causare una mente dovrebbe possedere poteri causali (almeno) equivalenti a quelli del cervello." Concludiamo occupandoci di quest'affermazione. Supponiamo che non sia intenzione di Searle sostenere che una mente artificiale riuscita debba avere tutte le capacità causali del cervello, come la capacità di puzzare quando marcisce, quella di ospitare virus lenti come il kuru, quella di colorarsi di giallo con la perossidasi del rafano, e così via. Richiedere la parità assoluta sarebbe come pretendere che un dispositivo volante artificiale deponesse uova.

Presumibilmente Searle intende richiedere a una mente artificiale soltanto quei poteri causali che, come dice lui, sono pertinenti all'intelligenza cosciente. Ma quali sono esattamente questi poteri? Ci ritroviamo ad accapigliarci su cosa è e su cosa non è pertinente. Questa è una sede del tutto ragionevole per un disaccordo, ma si tratta di una questione empirica, che dev'essere sottoposta a prove e a sperimentazioni. Poiché si sa così poco circa i processi cognitivi e la semantica, è fuori luogo, per ora, voler indicare con sicurezza certe caratteristiche come essenziali. In vari passi Searle accenna al fatto che ciascun livello, compreso quello biochimico, dev'essere rappresentato in qualsiasi macchina candidata all'intelligenza artificiale. Questa richiesta è quasi sicuramente troppo categorica. Un cervello artificiale potrebbe adoperare qualcosa di diverso dalla biochimica per conseguire gli stessi fini.

Questa possibilità è illustrata dalla ricerca compiuta da Carver A. Mead presso il California Institute of Technology. Mead e colleghi hanno adoperato tecniche USI (ossia di integrazione a grandissima scala) analogiche per costruire una retina e una coclea artificiale. (Negli animali la retina e la coclea non sono dei semplici trasduttori: entrambi questi sistemi comprendono una complessa rete di elaborazione.) Non si tratta di pure e semplici simulazioni su minicalcolatore come quelle di cui si prende gioco Searle; sono vere e proprie unità di elaborazione dell'informazione, che rispondono in tempo reale alla luce reale (nel caso della retina artificiale) e al suono reale (nel caso della coclea artificiale). I loro circuiti si basano su quanto si sa dell'anatomia e della fisiologia della retina del gatto e della coclea del barbagianni e la loro uscita è incredibilmente simile, per quanto se ne sa, a quella degli organi in questione.

Questi chip non fanno uso di sostanze neurochimiche, le quali pertanto non sono evidentemente necessarie per ottenere gli innegabili risultati. Naturalmente, non si può dire che la retina artificiale veda, poiché la sua uscita non ha un talamo o una corteccia artificiale in cui sfociare. Non si sa ancora se il programma di Mead possa arrivare fino alla costruzione di un intero cervello artificiale; comunque, oggi come oggi, niente dimostra che l'assenza di sostanze biochimiche lo renda utopistico.

Noi, come Searle, non accettiamo il test di Turing come una condizione sufficiente per l'intelligenza cosciente. Sotto un certo profilo, le ragioni del nostro rifiuto sono simili alle sue: siamo d'accordo sul fatto che è molto importante anche il modo in cui la funzione ingresso-uscita viene attuata; è importante che nella macchina accadano le cose giuste. Sotto un altro profilo le nostre ragioni sono ben diverse da quelle di Searle: egli basa la sua posizione su intuizioni dettate dal buon senso riguardo la presenza o l'assenza di un contenuto semantico. La nostra posizione si basa invece sugli specifici insuccessi delle macchine MS classiche e sulle specifiche virtù delle macchine con un'architettura più simile a quella del cervello. Queste differenze dimostrano che certe strategie di elaborazione hanno, rispetto ad altre, vantaggi cospicui e decisivi quando si tratti di funzioni tipicamente cognitive, vantaggi ineludibili sotto il profilo empirico. Chiaramente il cervello sfrutta in modo sistematico i vantaggi del suo sistema di calcolo, ma non è necessariamente l'unico sistema fisico in grado di fare ciò. L'intelligenza artificiale, in una macchina non biologica ma con alto grado di parallelismo, resta perciò una prospettiva stimolante e plausibile.

References

[1] TURING ALAN M., Computing Machinery and Intelligence in "Mind", 59, pp. 433-460, 1950.
[2] DREYFUS HUBERT L., What Computers Can't Do; A Critique of Artificial Reason, Harper & Row, 1972.
[3] SMITH CHURCHLAND PATRICIA, Neurophilosophy: Toward a Unified Understanding of the Mind/Brain, The MIT Press, 1986.
[4] DENNETT D. C., Fast Thinking in The Intentional Stance, The MIT Press, 1987.
[5] CHURCHLAND PAUL M., A Neurocomputational Perspective: The Nature of Mind and the Structure of Science, The MIT Press, in stampa.


Estropico