Accogliamo il futuro a braccia aperte, invece di abbandonarlo
Una risposta a Bill Joy

Versione originale in inglese sul sito KurzweilAI.net

Quando uno scienziato pubblica un articolo, i suoi colleghi si aspettano che egli abbia letto ciò che è stato pubblicato da altri sul soggetto in questione. Si aspettano che lo scienziato abbia studiato tutto quanto sia disponibile, sopratutto se si tratta di un settore controverso. Tutto questo Bill Joy, nel suo ruolo di Direttore Scientifico della Sun Microsystems, dovrebbe saperlo. Invece, leggendo il suo articlo "Il futuro non ha bisogno di noi", quello che mi colpisce sono la sua pubblica dimostrazione di ignoranza del pensiero corrente sulle tecnologie future, le sue non-realistiche teorie sull'"abbandono" di certe tecnologie e la sua convinzione che coloro che da anni hanno preso in considerazione questi soggetti non abbiano un minimo di buon senso (apprezzo, comunque, il coraggio dimostrato nel mostrare in pubblico le proprie paure).

Come filosofo, trovo frustranti e superficiali i suoi commenti sulla nostra possibile perdita di umanità, ma mi vorrei concentrare in questo articolo sulla richiesta di Joy che la ingegneria genetica, la nanotecnologia molecolare e la robotica (e tutti i settori ad essi collegati), siano abbandonati. Avendo studiato per anni queste tematiche, è mia intenzione sfidare la politica dell'abbandono di Joy su due terreni. Primo: non può funzionare. Secondo: è moralmente sbagliata. (Esiste anche una terza ragione, cioè il fatto che per ottenere il controllo voluto da Joy su tali tecnologie sarebbe necessario un regime dittatoriale, ma ne parlerò in un'articolo a parte).

Secondo l'articolo di Joy, la sua visione apocalittica scaturì da una conversazione, a cui egli assistette, fra Ray Kurzweil e Hans Moravec. A parte una presenza ad una conferenza del Foresight Institute a cui Joy prese parte nel 1989, non sembra che Joy abbia letto alcuna pubblicazione o ascoltato alcun discorso fatto da coloro che si dedicano ad analizzare i temi da lui trattati. Nonostante la limpida chiarezza degli scritti di Kurzweil, Joy non ha ancora capito se dovremo "diventare tutti robot, o fonderci con i robot, o qualcosa del genere".  Inoltre, Joy non prende in considerazione gli anni spesi dal Foresight Institute non solo nel pubblicizzare il concetto di nanotecnologia, ma anche nel confrontare i potenziali pericoli dal punto di vista tecnico, teorico e politico. Di certo noi all'Extropy Institute (un "think-tank" multidisciplinare e organizzazione culturale specificamente impegnato a studiare il futuro dell'umanità) non siamo stati interpellati prima che Joy si rivolgesse al grande pubblico.

Una persona in una posizione di prestigio come Bill Joy ha la responsabilità di investigare a fondo questi temi prima di spaventare un'opinione pubblica già preoccupata (senza reale motivo) dell'impatto delle tecnologie avanzate, come la manipolazione genetica.

Mi pare inoltre incredibile che Joy citi Carl Sagan, una delle mie ispirazioni intellettuali, quando critica i sostenitori delle tecnologie del ventunesimo secolo e li accusa di non avere buon senso. Coloro che sostengono una politica assurda e impraticabile come quella dell'abbandono a livello mondiale, non dovrebbero proprio accusare altri di non avere buon senso… Il fatto che Joy non si sia neanche degnato di andare a vedere quale sia la nostra visione del futuro, rende il suo attacco ancora più irritante - e ormai sono dodici anni che diffondiamo le nostre idee (Nel 1988, cioè un anno prima della conferenza del Foresight Institute a cui Joy partecipò, fondammo "Extropy Magazine"  da cui poi naque l'Extropy Institute, una organizzazione transumanista dedicata all'"incubazione di un futuro migliore"). Joy ci accusa di mancanza di umiltà, solo per poi paragonarsi in un'intervista nientemeno che a Einstein, cercando di convicerci di una similitudine fra il suo articolo e la lettera di Eistein al presidente americano Roosvelt nel 1939.

Se da una parte Joy accetta che le tecnologie in questione hanno enorme potenziale, egli ritiene che siano troppo pericolose per poter essere utilizzate. L'unico approccio accettabile, secondo Joy, è quello di abbandonarle. Egli suggerisce che, a livello mondiale, "si limiti lo sviluppo delle tecnologie che sono troppo pericolose, limitando la nostra ricerca per certi tipi di conoscenza". Joy aggiunge il suo nome alla lista secolare di teocrati, autocrati e tecnocrati che hanno cercato di limitare la nostra tendenza naturale verso la conoscenza illimitata. Egli tira in ballo il mito di Pandora e già che c'era avrebbe anche potuto aggiungere i miti anti-umanisti e anti-transumanisti di Adamo ed Eva ed il frutto proibito nel giardino dell'Eden, della torre di Babele e della brutta fine di Icaro! Tornando alla realtà, avrebbe dovuto chiaramente indicare in che modo, storicamente, sono stati raggiunti i fini da lui proposti: bruciando libri, mettendo al bando idee considerate pericolose e dando allo stato il controllo totale sulla scienza.

Primo: la "politica dell'abbandono" non può funzionare

La prima della mie obiezioni è già stata ben illustrata da Ray Kurzweil. Le fantasie di Joy sull'abbandono di certe tecnologie si basano sul fatto che "noi, come specie, potremmo raggiungere un accordo" in modo di limitare lo sviluppo delle tecnologie "GNR" (Genetica, Nanotecnologia, Robotica), nonchè le tecnologie collegate. Forse l'esperienza personale di Joy (cioè l'avere un team di scienziati come dipendenti, pronti a fare esattamente quello che egli richiede), gli avrà fatto perdere di vista il fatto che ci sono sei miliardi di individui sul pianeta che non vogliono abbandonare una tecnologia che offre benefici potenziali, nonchè capacità militari, enormi. Non siamo riusciti a limitare la diffusione degli armamenti nucleari, nonostante il loro potenziale distruttivo terrificante e nonostante il fatto che siano relativamente facili da individuare. Come faremo a controllare ogni azienda, ogni governo, ogni gruppo nascosto da qualche parte sulla faccia della Terra che stia sviluppando queste tecnologie? Caro Bill, i sei miliardi di individui oggi al mondo (molti dei quali con un bisogno disperato dei benefici materiali e medici che le tecnologie GNR potrebbero offrire) non hanno nessuna intenzione di leggersi il Dalai Lama (come tu consigli) e/o di seguire il tuo piano per il pianeta. Questo "abbandono" è una fantasia utopica da vecchi hippy anni '60. Quello che la trasforma da innocua fantasia a sinistro scenario Orwelliano è l'inevitabile aggiunta della coercizione senza la quale il tuo piano è irrealizzabile.

Ray Kurzweil parla dei diversi livelli di abbandonamento che potrebbero essere utilizzati per ridurre il rischio che una tecnologia autoreplicante sfugga dal nostro controllo. Eric Drexler, il pioniere della nanotecnologia, da anni raccomanda la costruzione di nanomacchinari che possano solo funzionare se riforniti di sostanze rare e non facilmente reperibili in natura. Ralph Merkle ha proposto una "architettura a trasmissione" per il controllo dei nanorobot. Queste ed altre proposte possono ridurre il rischio di incidenti nanotecnologici. Non tutti, però, accetteranno tali, o simili, proposte: ricercatori meno etici, o con pochi scrupoli rifiuteranno di adottare persino queste forme di controllo mirato. Il rischio che ciò rappresenta è precisamente la ragione per cui dobbiamo accelerare lo sviluppo delle tecnologie GNR da parte delle società democratiche. Solo con tecnologie più avanzate a nostra disposizione avremo la possibilità di difenderci dagli attacchi e dagli incidenti che verranno da aree al di fuori della nostra sfera di influenza. Dovremmo incoraggiare lo sviluppo di difese nanotecnologiche, di sistemi per l'analisi e la disattivazione di agenti patogeni artificiali, nonchè di sistemi per limitare il rischio che una superintelligenza emersa dal settore della intelligenza artificiale si ribelli contro di noi.

Non è mia intenzione affrontare qui il tema biotecnologie, per il semplice fatto che i rischi che esse pongono sono insignificanti rispetto a quelli posti da nanotecnologia e intelligenza artificiale. I pericoli di una intelligenza artificiale impazzita hanno ricevuto meno attenzione di quelli posti dalla nanotecnologia, forse perchè il settore procede lentamente. Bill Joy sceglie di citare solo Hans Moravec su questo tema, forse perchè la visione di Moravec è la più preoccupante: macchine superintelligenti, inizialmente utilizzate a beneficio dell'umanità, si sviluppano da sole e ben presto si evolgono in qualcosa che non possiamo neanche immaginare. Nello scenario piu' pessimistico, esse decidono di eliminarci (alla Terminator). Stranamente, nonostante abbia letto il libro di Kurzweil, Joy ha deciso di non menzionarlo, forse perchè contiene scenari più realistici ed ottimisti. Nella visione di Kurzweil, gli esseri umani utilizzano le nuove tecnologie per aumentare gradualmente le proprie capacità, fino a divenire esseri dotati di un intelletto che può solo essere descritto come super-umano. La visione di Moravec in cui esseri umani e tecnologici sono tenuti separati da una specie di apartheid, è controbilanciata dalla visione di Kurzweil, in cui la biologia si integra con la tecnologia.

Con pochissimo sforzo, Bill Joy avrebbe potuto scoprire che teorici estropici e transumanisti hanno da tempo preso in considerazione i pericoli di una intelligenza artificiale capace di autoevolversi a ritmi spaventosi e che potrebbe decidere di essere nostra nemica. Questo è un soggetto che sarà necessario continuare a discutere per trovare soluzioni efficaci. Anche in questo caso, l'abbandono non è un'opzione fattibile. Invece di tentare futilmente di prevenirne lo sviluppo a livello mondiale, dovremmo concentrare i nostri sforzi nel prevenire i pericoli che potrebbero emergere all'interno della nostra area di influenza, sviluppando misure preventive contro la possibilità che un'intelligenza artificiale divenga ostile. Gli esseri umani sono la specie dominante sul pianeta. Joy vuole proteggere tale posizione di dominanza prevenendo lo sviluppo  di esseri più intelligenti e potenti. Io trovo strano questo ragionamento, sopratutto per il fatto che Joy lavora presso un'azienda come la Sun Microsystems. E' possibile che egli riesca solo a vedere questa situazione nell'ottica antiquata secondo la quale una azienda dominante debba sopprimere le innovazioni che potrebbero minare la propria posizione? Forse potrebbe imparare qualcosa dalla Cisco Systems, o dalla Microsoft, dato che entrambe hanno adottato una strategia diversa, cioè quella di accettare e sviluppare tali innovazioni a proprio vantaggio. L'umanità dovrebbe adottare la stessa strategia di queste aziende. Parliamoci chiaro: non possiamo impedire l'arrivo sulla scena dell'intelligenza non-biologica. Possiamo però accettare il fatto e sviluppare noi stessi fino ad incorporarla. Più costantemente e velocemente assorbiremo gli sviluppi telematici, più facile sarà questo processo e minori saranno i rischi di una tecnologia che si ribella contro di noi. Il processo di assorbimento e integrazione avrà risvolti economici e organizzativi, nonchè risvolti più personali, quasi intimi, quando svilupperemo interfaccia adatti a metterci in diretto contatto con sensori, computers e altri macchinari. In questo modo si evita la contrapposizione noi-loro. In questo modo, loro diventano parte di noi.

Secondo: l'abbandono è eticamente inaccettabile

Alcuni prendono decisioni di carattere etico consultando un'autorità suprema. Tale autorità dà loro delle risposte che sono accettate senza porsi domande. Coloro fra di noi che preferiscono invece un approccio razionale all'etica, preferiscono prendere decisioni sulla base dei propri valori e scelgono poi di intraprendere il cammino che meglio rispecchi tali valori. Le nostre convinzioni hanno un impatto profondo sul nostro comportamento etico e morale. Due individui possono avere in comune gli stessi valori, ma possono giungere a conclusioni diverse su un particolare tema, se hanno convinzioni diverse. Nel caso mio e di Bill Joy, il mio sospetto è che abbiamo sia valori che convinzioni diverse.

Joy pensa che la probabilità che l'umanità causi la propria estinzione sia molto alta se non metteremo al bando certe tecnologie emergenti. Tale ragionamento mi ricorda la cosiddetta "scommessa di Pascal". Non potendo trovare motivi razionali per credere o per non credere all'esistenza di Dio, Pascal decise che credere sia la scommessa migliore, dato che scegliendo di non credere i benefici sono minimi, ma il prezzo da pagare nel caso la scelta fosse quella sbagliata è molto alto (la dannazione eterna). Il credere, invece, comporta uno sforzo relativamente minimo e offre benefici potenziali immensi (la vita eterna in paradiso). Similmente, se il mettere al bando certe tecnologie può drasticamente ridurre la possibilità di gravi danni ed in più con poche perdite, questa, sostiene Bill Joy, deve per forza essere la scelta più razionale e moralmente giusta. Una soluzione chiara, semplice e facile da ottenere. Purtroppo, sia Joy che Pascal arrivano alle loro conclusioni partendo da presupposti sbagliati. Per cominciare, la probabilità di successo nel mettere al bando tali tecnologie a livello globale è praticamente zero. Come se non bastasse, se noi (le nazioni democratiche) decidessimo di rinunciare a tali tecnologie per dare un esempio al resto dell'umanità, non faremmo altro che aumentare la probabilita' di abuso di tali tecnologie da parte di individui, gruppi o nazioni spinti da odio, risentimento e ambizioni dittatoriali. In certi casi, tecnologie alternative e meno potenzialmente pericolose saranno disponibili ed in questi casi il loro uso (e l'abbandono di altre tecnologie meno sicure) è giustificato. Stiamo attenti, però: decidere di non sviluppare una certa tecnologia unilateralmente è l'equivalente del disarmamento unilaterale. Spero solo che Bill Joy non divenga il Chamberlain del ventunesimo secolo. Invece di mettere al bando l'alta tecnologia, dobbiamo incoraggiarne lo sviluppo, in particolare quegli aspetti che ci potranno dare migliore protezione dagli usi distruttivi che altri gruppi o nazioni potrebbero farne.

Sono contrario alla politica dell'abbandono anche per un'altra ragione: milioni di persone continuano a soffrire per colpa delle malattie, della fame e dei vari problemi che affliggono  l'umanità da sempre. La nanotecnologia molecolare, le biotecnologie e l'interfaccia fra il mondo biologico e quello tecnologico possono offrire soluzioni a questi problemi. Joy vorrebbe fermare il progresso della robotica, dell'intelligenza artificiale e di tutti i settori collegati. Tanto peggio per coloro che continueranno a morire, uccisi dalle molte malattie che sarebbero curabili con la manipolazione genetica o con soluzioni nanotecnologiche. Francamente, non capisco in che modo sia possibile giustificare dal punto di vista etico il permettere che tali sofferenze continuino.

Certo, anch'io, come Joy, sono preoccupato dalla possibilità dell'estinzione della razza umana. Ma non dimentichiamo che ciò sta già succedendo, giorno per giorno, uno alla volta. Questa "estinzione" al rallentatore che normalmente chiamiamo invecchiamento e morte è con noi da sempre, per cui la consideriamo inevitabile e spesso razionalizziamo questa estinzione individuale come naturale e persino desiderabile. Ci commuoviamo per la morte improvvisa di molti esseri umani, ma, a meno che si tratti di qualcuno a noi caro, non ci preoccupiamo più di tanto di questo stillicidio di singole vite che ogni giorno si perdono nel nulla. Ebbene, un giorno, in un futuro non troppo lontano, i nostri discendenti penseranno con orrore ai tempi in cui tutto ciò era accettato come parte normale della condizione umana. Si chiederanno perchè mai alcuni dei loro antenati protestassero contro la creazione di organismi modificati geneticamente,  invece che a favore della ricerca medica che avrebbe permesso di rallentare il loro invecchiamento. Cercare di rallentare lo sviluppo delle tecnologie nel mirino di Bill Joy, non solo le lascerebbe nelle mani di coloro con cattive intenzioni, ma sarebbe anche un atto di imperdonabile codardia e pigrizia di fronte alla sfida della morte e dell'entropia.

Le preoccupazioni di Joy per quanto riguarda i pericoli delle tecnologie emergenti possono apparire responsabili, ma si tratta di un tentativo di spaventare il pubblico sbandierando una visione parziale del futuro, in quanto Joy trascura di illustrare gli enormi benefici che potremmo ottenere. Tutto ciò non può che rallentare il progresso. Ignoranza e paura sono armi potenti e sono usate astutatemente da vari gruppi, motivati dai propri fini anti-progresso, nel contrastare lo sviluppo di genetica e biotecnologia. E' chiaro che bisogna portare avanti queste tecnologie in maniera responsabile, ma non dimentichiamo che potrebbero offrire trattamenti per il cancro, malattie cardiovascolari, le malattie ereditarie, il Parkinson, la schizofrenia, la depressione e persino l'invecchiamento e la morte. Sulla base di ciò che Bill Joy ha scritto di recente, non posso fare altro che non essere d'accordo con lui, non solo sui fatti menzionati, ma anche sui valori. Pare che Joy assegni più valore a sicurezza, stabilità e prudenza che a fattori come l'eliminazione della sofferenza umana, l'affrontare una sfida, la spinta verso il trascendere le nostre limitazioni attuali, biologiche, intellettuali, emotive o spirituali che siano.

Joy cita il frammentario, ma brillante, Friedrich Nietzsche per sostenere la propria richiesta che l'umanità abbandoni la propria libera ricerca di conoscenza. Nietzsche sostiene che il nostro credere nella scienza "non deve nascere da un calcolo di convenienza; deve invece esistere nonostante il fatto che la sconvenienza e la pericolosità del "desiderio di verità" o della "verità ad ogni costo" siano costantemente dimostrate". Joy ha interpretato Nietzsche così male da credere che questa citazione dia validità alla propria teoria dell'abbandono della libera ricerca di ulteriore conoscenza e a favore di sicurezza e tranquillità. Nietzsche non amava "l'utilità" e detestava i filosofi inglesi Utilitaristi per aver fatto di piacere e felicità i valori supremi. Persino una lettura superficiale di Nietzsche rivela che egli non apprezzava comodità, tranquillità e certezza. Ciò che piaceva a Nietzsche era la pericolosità stessa del desiderio di verità, il fatto che la ricerca del sapere mettesse in crisi il dogmatismo e le sue comode illusioni.

Nietzsche dice in Zarathustra: "I più prudenti oggi si chiedono: 'Come può l'Uomo essere salvato?' E continua dicendo, con una frase che potrebbe essere stata scritta a proposito di Bill Joy: "Zarathustra, invece, chiede, ed è l'unico a farlo: 'Come puo' l'Uomo essere superato?' Superate per me i signori del presente, o miei fratelli - questa gente insignificante: essi sono il pericolo più grande per il superuomo." Se interpretiamo la rudimentale nozione nitzchiana del superuomo come una visione dei transumani che emergeranno dalla fusione della biologia con le tecnologie che spaventano Joy, ci rendiamo conto della parte da cui Nietzsche si schiererebbe. Mi limito ad una sola altra citazione di Nietzsche: "E la vita stessa mi ha confidato questo segreto: 'Guardate! Io sono cio' che deve sempre superare se stesso. In verità, voi lo chiamate un desiderio di procreazione o una motivazione ad un fine, ad un qualcosa più alto, più lontano, più multiforme: ma tutto ciò è uno… Preferirei morire che rinnegare questo; e in verità, dove è il morire… lì la vita sacrifica se stessa - per [più] potere… Qualunque cosa io crei e comunque io la viva - in breve tempo io devo oppormi ad essa ed alla mia vita…'desiderio di vita': quel desiderio non esiste… non desiderio di vita ma… desiderio di potere. Ci sono molte cose che la vita valuta molto più di se stessa." Zarathustra II 12 (K:248)

Come Nietzsche, io trovo la pura sopravvivenza eticamente e spiritualmente insufficiente. Persino se, contrariamente a quanto io credo, l'abbandono di certe tecnologie aumentasse le probabilità della nostra sopravvivenza,  esso non sarebbe una scelta etica per coloro che danno valore alla ricerca libera del sapere ed al progresso intellettuale, emotivo e spirituale. Dobbiamo quindi rimanere passivi, mentre la tecnologia avanza a ritmi sempre più veloci? No. Possiamo limitare i pericoli, facilitare la transizione culturale ed accelerare l'arrivo dei benefici in due modi: possiamo sviluppare una sofisticata posizione filosofica su questi soggetti e possiamo usare tali tecnologie per il nostro sviluppo emotivo e psicologico, liberandoci delle tendenze distruttive presenti nel nostro patrimonio genetico. Dovremmo continuare lo studio scientifico delle emozioni e della motivazione, nonchè il loro background  neuronale. Esistono ora studi in questa direzione (ad esempio The Emotional Brain di Joseph LeDoux), ma sino ad oggi la ricerca scientifica ha ignorato le emozioni. Se vogliamo avvantaggiarci di nuove ed incredibili tecnologie, dobbiamo cominciare a preparare la natura umana a questo incontro. Il potere corrompe, ma la conoscenza che ci permetterà di modificarci e di raffinare il nostro profilo psicologico ci permetterà anche di prevenire corruzione e tendenze distruttive. Ho parlato molto di questi soggetti recentemente, ma ho scritto poco al proposito. Vorrei comunque sottolineare l'importanza di sviluppare la nostra capacità di raffinare le nostre emozioni.

L'accettazione, integrazione ed assorbimento delle nuove tecnologie sarà più veloce se accompagnato da una migliore comprensione filosofica del fenomeno. Se continueremo ad affrontare rapidi e profondi cambiamenti scientifico-tecnologici con le attitudini che emergono da filosofie basate su vecchi miti e storie provenienti da epoche pre-scientifiche, non potremo far altro che finire vittime delle paure da esse generate. Saremmo insomma impreparati. Quando fu annunciato che il primo mammifero era stato clonato in Scozia, il Papa rilasciò una dichiarazione contraria alla clonazione basata su fatti che non hanno nessun senso (le sue vaghe obiezioni potrebbero essere applicate anche a gemelli nati "naturalmente"!). Il presidente Clinton e altri leader mondiali, decisero, con una reazione quasi automatica, di mettere al bando la clonazione umana senza nessuna indicazione che il tema sia stato preso in considerazione sulla base di solide basi scientifiche e filosofiche.
Gli estropici ed altri transumanisti sono da anni impegnati a sviluppare una filosofia adatta alle nuove tecnologie emergenti. Nelle nostre pubblicazioni, conferenze, siti internet, etc, ne esploriamo in profondità i vari risvolti filosofici. L'anno scorso (1999), ho presentato la quarta conferenza dell'Extropy Institute: "Il Futuro Biotecnologico: la Sfida e le Scelte della Life Extension e dell'Ingegneria Genetica".  Durante la conferenza, furono delineate le strade intraprese da queste  tecnologie emergenti. Nella mia presentazione, ho analizzato gli errori filosofici da cui scaturiscono la paura e la resistenza ai cambiamenti in arrivo. Ho riassunto i nostri obiettivi in una "Lettera a Madre Natura" (Letter to Mother Nature) e quelli che sono i nostri valori  nei "Principi Estropici" (The Extropian Principles).

L'articolo di Bill Joy può solo aumentare le paure ed i malintesi del pubblico per quanto riguarda il nostro potenziale futuro. D'altra parte, però, ha attirato attenzione al soggetto, con la conseguenza che un dibattito costruttivo sugli aspetti etici, filosofici e politici potrebbe emergere. Da filosofo impegnato ad incubare un futuro migliore, sia io che i miei colleghi dell'Extropy Institute  non possiamo che accogliere positivamente futuri contributi costruttivi da Bill Joy al dibattito.

L'umanità è sull'orlo di un enorme balzo evolutivo. Non ritiriamoci impauriti da quel balzo, ma controlliamo accuratamente le nostre attrezzature mentre ci prepariamo per il volo.


L'articolo originale (in inglese) di Bill Joy ed una traduzione, pubblicati rispettivamente su Wired e Heos:


Maggio 2000


Estropico