Dinosauri, Dodi, Umani?

di Nick Bostrom

Oxford Future of Humanity Institute, Facoltà di Filosofia & James Martin 21st Century School, Università di Oxford. Pubblicato in Global Agenda, l’annuale pubblicazione del World Economic Forum, Gennaio 2006, pp. 230-231. Section headings added by the editors.

Traduzione a cura di David de Biasi - http://beyond-human.blogspot.com. La versione Pdf del documento è scaricabile qui (Beyond Human).

La versione originale inglese, sul sito di Nick Bostrom: Dinosaurs, Dodos, Humans? (Pdf)

Qualcosa come il 99,9% di tutte le specie mai vissute sono ora estinte. Faremo anche noi la fine dei dinosauri e dei dodi? Come potrebbe succedere? E che cosa possiamo fare per evitare questa fine?

Un rischio esistenziale è definito come una minaccia che annienti la vita intelligente originaria della Terra o permanentemente e drasticamente ne limiti le potenzialità. Dal momento che siamo ancora qui, sappiamo che nessun disastro esistenziale è mai accaduto. Ma mancando l'esperienza con tali calamità, è anche probabile che non abbiamo evoluto i meccanismi, biologici o culturali, necessari a gestire tali rischi.

La specie umana ha una lunga esperienza con i rischi: animali pericolosi, tribù e individui ostili, cibi velenosi, incidenti automobilistici, Chernobyl, Bhopal, eruzioni vulcaniche, terremoti, la siccità, le guerre, le epidemie di influenza, il vaiolo, la peste nera, l'AIDS. Questi tipi di disastri si sono verificati più volte nel corso della storia. Il nostro atteggiamento nei confronti del rischio è stato plasmato da tentativi ed errori nel cercare di far fronte a tali rischi. Ma, per quanto tragici siano tali eventi per le persone direttamente coinvolte, essi non hanno determinato il destino a lungo termine della nostra specie. Anche le peggiori di quelle catastrofi erano semplici increspature sulla superficie del grande mare della vita.

I rischi esistenziali sono un fenomeno relativamente nuovo. Con l'eccezione di una distruzione della specie da parte di impatto di una cometa o di un asteroide (un caso estremamente raro), probabilmente non ci sono stati significativi rischi esistenziali nella storia dell'umanità sino alla metà del ventesimo secolo, e certamente nessuno che era in nostro potere fare qualcosa in merito.

Percezione è realtà

Il primo rischio esistenziale costruito dall’uomo potrebbe essere stata la prima detonazione di una bomba atomica. A quel tempo, vi è stata una certa preoccupazione per il fatto che l'esplosione avrebbe potuto dare avvio a una reazione a catena impazzita con "l’accensione" dell'atmosfera. Anche se ora sappiamo che un tale risultato è fisicamente impossibile, un rischio esistenziale è stato comunque presente. Perche' ci sia un rischio, è sufficiente che vi sia una certa probabilità soggettiva, data la conoscenza e la comprensione disponibili, di un esito negativo, anche se in seguito risulta che, obiettivamente, non vi era alcuna possibilità di un disastro. Se non sappiamo se qualcosa è oggettivamente rischioso o no, allora è rischioso in senso soggettivo. Il senso soggettivo è quello su cui dobbiamo basare le nostre decisioni in merito.

La specie umana è sopravvissuta a rischi naturali per centinaia di migliaia di anni. È improbabile, quindi, che tale pericolo debba colpirci entro i prossimi cento anni. Per contro, l'attività della nostra stessa specie sta introducendo nuove possibilità di catastrofe. I più gravi rischi esistenziali per l'umanità nel 21 ° secolo saranno nostre creazioni. Più specificamente, essi sono legati a sviluppi tecnologici prevedibili.

Pericoli costruiti dall’uomo

In questo secolo, potremmo imparare a creare agenti patogeni che combinano un'estremamente alta virulenza con una facile trasmissibilità, e un lungo periodo di incubazione con la resistenza ai farmaci. I fisici condurranno collisioni di particelle elementari e creeranno nuovi tipi di materia e acceleratori a energie sempre più alte. Inaspettati e potenzialmente catastrofici eventi potrebbero di conseguenza verificarsi. La possibilità di una guerra nucleare rimane una seria preoccupazione. Sebbene le scorte attuali siano probabilmente insufficienti a provocare l'estinzione umana, anche in una guerra totale, future corse al riarmo potrebbero portare ad arsenali molto più grandi.

Le nanotecnologie molecolari, nella loro forma matura, daranno all'uomo capacità senza precedenti di controllare la struttura della materia e di creare nuovi e potenti sistemi di armamenti. E cosa accadrebbe se costruissimo computer più intelligenti degli esseri umani e con capacità di auto-potenziamento? Inoltre, dobbiamo tener conto della possibilità che potrebbero emergere nuovi tipi di rischi che sono oggi tanto imprevedibili quanto la bomba all'idrogeno lo era nel 1905.

Oppure,il mondo potrebbe finire non con un'esplosione, ma con un lungo gemito. In aggiunta agli improvvisi cataclismi catastrofici, esistono molti graduali e sottili modi in cui una catastrofe esistenziale potrebbe verificarsi. Uno scenario è la nascita di un governo mondiale totalitario che opprima i suoi cittadini e vieti l'uso della tecnologia per migliorare la capacità umane, privando l'umanità del suo potenziale. Un tale governo potrebbe utilizzare una sorveglianza onnipresente e nuovi tipi di tecnologie per il controllo della mente impedendo qualsiasi riforma o eventuali ribellioni.

In alternativa, gli sviluppi evolutivi potrebbero portarci in una direzione non auspicabile, eliminando tratti centrali per i valori umani, come la coscienza, l'intelligenza, o addirittura, la giocosità. Non vi è alcuna legge secondo la quale l'evoluzione biologica porti sempre ad un aumento di attributi preziosi. Mentre l'evoluzione umana opera su una lunga scala di tempo, l'evoluzione tecnologicamente assistita potrebbe essere molto più veloce, e l’evoluzione di una popolazione di macchine intelligenti o di umani "uploadati" [su substrato cibernetico] potrebbe essere estremamente rapida. In alternativa, il tipo sbagliato di "evoluzione" culturale potrebbe condurre alla stagnazione e alla degenerazione profonda della vita umana.

Il nostro pianeta è solo un breve paragrafo in un'opera potenzialmente molto più ampia. La Terra non è che un minuscolo granello in un cosmo che contiene miliardi di soli che illuminano spazi vuoti. Ogni secondo, più energia e materia vanno sprecate nella nostra galassia di quanto la specie umana abbia consumato nel corso della sua esistenza. Se le cose andranno bene, un giorno impareremo a utilizzare alcune di queste risorse per creare nuove e meravigliose civiltà e nuove forme di vita.

Invasione delle sonde robotizzate

Alcuni studi suggeriscono che una scoordinata corsa alla colonizzazione spaziale potrebbe, invece, portare all'evoluzione di sonde colonizzanti robotiche auto-replicanti che utilizzino i beni comuni cosmici per nessun altro scopo che quello di produrre ulteriori copie di se stesse. Un potenziale astronomico per uno sviluppo prezioso sarebbe perduto.

Il tema del rischio esistenziale è stato decisamente trascurato, con pochi studi sistematici. Il filosofo canadese John Leslie sostiene che il rischio di estinzione umana nel corso dei prossimi cinquecento anni superi il 30%. L’astronomo reale britannico, Sir Martin Rees, avverte che "le previsioni non sono meglio del cinquanta per cento che la nostra attuale civiltà sulla Terra sopravviva fino alla fine di questo secolo". Richard Posner, un giudice americano studioso di legge, non dà una stima numerica, ma conclude che il rischio è "superiore a quello comunemente supposto". Io stesso ho affermato, in un documento nel 2001, che sarebbe errato impostare la probabilità a meno del 25%.

I tentativi di quantificare il rischio esistenziale coinvolgono inevitabilmente una sostanziale dose di giudizio soggettivo. E, naturalmente, vi può essere una "publication bias", una distorsione causata dal fatto che chi sia convinto che il rischio sia significativo tenderà a pubblicare più libri al proposito. Tuttavia, tutti coloro che hanno studiato seriamente la questione concordano sul fatto che i rischi sono notevoli. Anche se la probabilità di estinzione fosse solo il 5%, o anche l'1%, varrebbe comunque la pena di prendere seriamente in considerazione quanto è in gioco.

E’ triste che l'umanità nel suo insieme non abbia investito almeno qualche milione di dollari per migliorare le sua comprensione di come meglio cercare di garantire la propria sopravvivenza. Alcuni rischi esistenziali sono per loro natura difficili da studiare in maniera rigorosa, ma se con condurremo degli studi, non sapremo mai cosa potremmo scoprire. Ci sono anche alcune sotto-specie di rischi che possono essere misurati scientificamente, come ad esempio il rischio di una distruzione della specie da parte di impatti di asteroidi o meteore. Questo particolare rischio risulta essere molto piccolo. Un oggetto che impattasse la Terra dovrebbe essere considerevolmente più grande di 1 km di diametro per rappresentare un rischio esistenziale. Fortunatamente, tali oggetti colpiscono la Terra, in media, meno di una volta in 500.000 anni.

L'entità dei rischi esistenziali non è una quantità fissa - diventa più grande o più piccola a seconda dell’azione umana. Possiamo prendere deliberate misure volte a ridurre molti rischi esistenziali. Per esempio, la NASA, l’agenzia spaziale americana, sta mappando con il Spaceguard Survey gli asteroidi di dimensioni superiori a 1 km. Se allertati in tempo di un impatto incombente, potrebbe essere possibile lanciare un razzo con una carica nucleare per deviare la traettoria dell’asteroide.

Alcuni degli studi e delle contromisure che potrebbero ridurre il rischio esistenziale sarebbero anche utili per mitigare rischi minori. Un rischio di catastrofe globale è un rischio che potrebbe provocare decine o centinaia di milioni di morti, pur non minacciando l'esistenza della razza umana. Lo stesso programma che controlla gli asteroidi classificabili come rischi esistenziali è in grado di rilevare anche oggetti più piccoli che rappresentino "solo" un rischio di catastrofe globale.

Le contromisure prese in previsione di futuri patogeni ingegnerizzati potrebbero essere utili anche nella lotta contro le pandemie attuali. La ricerca e le iniziative volte a ridurre la probabilità di catastrofici scenari di riscaldamento globale, sarebbero anche utili per la comprensione e gli interventi  in caso si avverassero i molto più plausibili scenari meno catastrofici.

I leader mondiali [Bostrom ha scritto questo articolo per Global Agenda, del World Economic Forum] agiscano nella consapevolezza degli megascenari e accettino la responsabilità per le conseguenze a lungo termine delle politiche da loro perseguite. Per quanto riguarda i rischi esistenziali la sfida non è quella di ignorarli, né indulgere in tetri sconforti, ma cercare di comprendere e adottare le misure più efficaci in termini di costi per rendere il mondo più sicuro.



Estropico