Benvenuti nel mondo del cambiamento esponenziale
Di Nick Bostrom

Un articolo dal rapporto "Better Humans? The politics of human enhancement and life extension" pubblicato dal think-tank britannico Demos e dedicato alle tecnologie per il potenziamento umano e alle loro conseguenze sociopolitiche.

Per la gran parte della storia della razza umana, il tasso di sviluppo tecnologico è stato talmente lento che una persona poteva nascere, vivere e morire senza percepire alcun progresso apprezzabile. A quei tempi, le vicende umane sembravano essere di natura ciclica. In cicli apparentemente senza fine di creazione e di distruzione, le tribù crescevano e declinavano, i cattivi regnanti venivano e andavano, gli imperi si espandevano e crollavano. Anche accettando l'esistenza di una direzione e di una destinazione finale per tutti questi eventi, essa era comunemente relegata al regno del mito o dell'intervento suprannaturale.

Oggi, al contrario, possiamo aspettarci di essere testimoni di significativi progressi tecnologici nell'arco di periodi brevi quanto una decade o, in determinati settori, anche meno. Tuttavia, nonostante i fattori esterni della condizione umana  siano stati profondamente trasformati e continuino a subire veloci cambiamenti, i fattori interni (cioè le nostre capacità biologiche di base) sono rimasti più o meno costanti nel corso della storia: mangiamo, dormiamo, andiamo di corpo, ci accoppiamo, vediamo, sentiamo, pensiamo ed invecchiamo praticamente nello stesso modo dei contemporanei di Sofocle. L'unica differenza è che oggi potremmo essere vicini al giorno in cui tutto ciò cambierà.

La prospettiva dell'intelligenza artificiale

Gli annali del settore dell'intelligenza artificiale sono colmi di promesse non mantenute. Mezzo secolo dopo il primo calcolatore elettronico, non abbiamo ancora nulla che assomigli ad una macchina intelligente, se per "intelligente" intendiamo che possegga quell'intelligenza generale di cui noi esseri umani siamo fieri. Non abbiamo la certezza assoluta che riusciremo a creare un'autentica intelligenza artificiale - il problema potrebbe essere semplicemente troppo complesso per il nostro cervello. Qualcuno addirittura spera che sia così, come coloro che considerano una minaccia la possibilità che le macchine possano sviluppare capacità intellettuali superiori alle nostre. Tuttavia, nè il fatto che la prospettiva di macchine intelligenti causi inquietudini, nè il fatto che alcune previsioni passate si siano poi rivelate errate, giustifica la conclusione che l'intelligenza artificiale non sarà mai creata. Anzi, supporre che sia impossibile realizzarla, o che richiederebbe migliaia di anni, sembra come minimo tanto ingiustificato quanto il contrario. Come minimo, dobbiamo riconoscere che uno scenario relativo all'anno 2050 che postuli l'assenza di sistemi di intelligenza artificiale dotati di capacità paragonabili a quelle umane, si basa su di un presupposto che potrebbe facilmente dimostrarsi errato. È quindi importante considerare la possibilità alternativa: che dei sistemi intelligenti saranno creati nel giro di 50 anni. Possiamo valutare tale possibilità prendendo in considerazione i tre fattori necessari ad ottenere sistemi di intelligenza artificiale: hardware, software e mezzi di input/output.

La tecnologia necessaria per l'input/output è già in esistenza. Videocamere, macchine fotografiche, altoparlanti, bracci robotici, etc, forniscono un'ampia varietà di sensi con cui un computer può interagire con l'ambiente circostante. Questo aspetto, quindi,  è insignificante.

Il problema dell'hardware è più complicato. La velocità, più che la memoria, sembra essere il fattore limitante. Possiamo azzardare una stima del tipo di hardware che sarà necessario, stimando la capacità di elaborazione dati del cervello umano. Otteniamo dati diversi a seconda del metodo e del grado di ottimizzazione utilizzato, ma le stime tipiche variano dai 100 milioni di MIPS ai 100 miliardi di MIPS (1 MIPS = un milione di istruzioni al secondo). Un buon PC odierno offre qualche migliaio di MIPS. Il supercomputer corrente più potente effettua 260 milioni di MIPS. Ciò significa che presto potremo avere l'hardware necessario a creare una intelligenza artificiale di livello umano. Con il senno di poi, è ovvio il motivo per cui gli sforzi iniziali nel settore dell'intelligenza artificiale, negli anni '60 e '70, non  avevano speranza di successo: l'hardware disponibile era pateticamente inadeguato. Non deve  stupire se non è stata raggiunta un'intelligenza di livello umano con sistemi meno potenti del cervello di un insetto.

Guardando in avanti, quindi, possiamo prevedere con un una certa sicurezza che hardware paragonabile a quello del cervello umano sarà disponibile nel prossimo futuro. Tale estrapolazione si basa sulla legge di Moore, che descrive il tasso di crescita storico della velocità del computer (in senso stretto, la legge di Moore come originalmente formulata riguardava la densità dei transistor su un circuito integrato, ma quest'ultima ha dimostrato una stretta correlazione con la potenza di elaborazione.) Negli ultimi cinquant'anni, la potenza di calcolo è raddoppiata ogni 18 mesi/due anni. La legge di Moore, in realtà, non è affatto una legge, ma l'osservazione di una regolarità. In linea di principio, essa potrebbe abbandonare la propria traettoria in qualsiasi momento, ma la tendenza da essa descritta prosegue ormai da decenni ed è sopravvissuta a numerose transizioni nelle tecnologie in questione (dai relè, alle valvole elettroniche, ai transistor, ai circuiti integrati, ai circuiti integrati di grandi dimensioni). I produttori di circuiti integrati ne tengono conto nella progettazione dei loro prossimi prodotti. È quindi ragionevole supporre che potrebbe continuare ancora per un certo periodo. Utilizzando una stima conservatrice del periodo necessario al  raddoppio (due anni) la legge di Moore predice che la stima più alta della capacità di calcolo del cervello umano sarà raggiunta prima del 2020. Ciò  rappresenta le prestazioni del supercomputer più potente al mondo e possiamo quindi aggiungere qualche anno a tale stima, dovuto al gap fra quella data e il momento in cui tali computer saranno disponibili per esperimenti nel settore dell'intelligenza artificiale. La data esatta non è importante - il punto è che anche se probabilmente una potenza di calcolo a livello umano non è stata ancora raggiunta, lo sarà quasi certamente ben prima del 2050.

Rimane quindi il problema del software. Una stima rigorosa di quanti anni saranno necessari per risolvere questo aspetto del problema è più difficile. Naturalmente, questo vale anche per coloro che ritengono che l'intelligenza artificiale non sarà realizzabile ancora per molto - in assenza di prove, non possiamo eliminare ne l'una ne l'altra possibilità. Affronterò la questione illustrando un solo approccio alla creazione del software necessario e presentando alcune nozioni generali circa come potrebbe funzionare. Sappiamo che il problema del software può essere risolto, in linea di principio: gli esseri umani hanno realizzato l'intelligenza a livello umano, quindi essa è evidentemente fattibile. Un approccio allo sviluppo del software necessario è quello di determinare il funzionamento del cervello, per poi imitare la soluzione trovata dalla natura. È solo in tempi relativamente recenti che abbiamo cominciato a comprendere il funzionamento dei sistemi di elaborazione dati del cervello. La neuroscienza computazionale ha circa 15 anni, come disciplina di ricerca attiva, ma nella sua breve storia, il progresso è stato notevole. Stiamo cominciando a capire le prime fasi dell'elaborazione sensoriale, abbiamo accettabili modelli di calcolo per la corteccia visiva primaria e ci stiamo avvicinando alle fasi più alte della cognizione visiva. Stiamo scoprendo gli algoritmi che governano come le sinapsi sono modificate dall'esperienza. Stiamo mappando l'architettura generale delle nostre reti neurali. Stiamo svelando i segreti  dell'interconnetività fra neuroni e come le varie aree della corteccia cerebrale interagiscono l'una con l'altra. Siamo ancora lontani dal comprendere il funzionamento del pensiero di più alto livello, ma stiamo cominciando a svelare i segreti del comportamento dei diversi componenti cerebrali e di come sono fra loro collegati.

Presupponendo il continuo e rapido progresso nelle neuroscienze, possiamo prevedere che un giorno avremo sufficiente conoscenza dei processi ai livelli più bassi e dell'architettura generale del cervello, per cominciare ad implementare gli stessi paradigmi in simulazioni su elaboratore. Oggi, tali simulazioni sono limitate a reti neurali di dimensioni relativamente piccole. Una retina e una coclea con le stesse capacità delle loro controparti biologiche sono state simulate in silico. Il "Blue Brain Project" dell'IBM  mira a generare una replica esatta del software di una colonna neocorticale entro il 2008. Naturalmente, la simulazione del cervello umano nella sua intierezza richiederà enorme potere computazionale, ma abbiamo visto che tale potere sarà disponibile nell'arco di circa vent'anni. Il risultato di questo approccio ispirato alla biologia, non sarà un'intelligenza artificiale matura esplicitamente programmata (l'obiettivo mancato della cosiddetta scuola classica dell'intelligenza artificiale). Esso sarà invece un sistema dotato di capacità di imparare tramite esperienza e di essere istruito, paragonabili a quelle di un bambino fra il primo e il secondo anno di età. Per raggiungere le abilità di un essere umano adulto, il sistema dovrà essere educato e non c'è ragione per cui gli algoritmi di calcolo utilizzati dal nostro cervello biologico non debbano funzionare altrettanto bene una volta implementati in silico.

La promessa delle nanotecnologie

Nel 2005, Europa, Stati Uniti e Giappone hanno speso ciascuno una cifra di circa un miliardo di dollari in investimenti pubblici nel settore delle nanotecnologie, decuplicando gli investimenti del 1997. [1] "Nanotecnologia" è diventata una parola magica. Basta inserirla in un'applicazione di fondi per la ricerca scientifica per aumentare la  probabilità di successo. Come ha scherzosamente affermato il professor George Smith dell'Università di Oxford, "il prefisso nano deriva da un verbo greco il cui significato è 'attrae fondi per la ricerca'".

Il termine è stato coniato da Eric Drexler, il quale lo ha poi popolarizzato nel suo Motori di creazione (Engines of creation). [2] Drexler ha in seguito pubblicato dettagliate analisi tecniche che indicano la plausibilità della realizzazione di macchine molecolari con precisione atomica. [3] Tale nanotecnologia di "fase macchina" [il termine è una parafrasi di fase liquida, fase solida o fase vapore. La definizione di Drexler è la seguente: "Un sistema in fase macchina è un sistema in cui tutti gli atomi seguono delle traettorie prefissate (all'interno di un range determinato, in parte, dal moto termico)" - NdT], una volta pienamente sviluppata, offrirà all'umanità un livello di controllo senza precedenti sulla struttura della materia. Per molti aspetti, i processi produttivi diverranno di competenza dei programmatori di software. Nella visione di Drexler, tali dispositivi nanotecnologici assemblerebbero oggetti una molecola alla volta e miliardi di dispositivi, agendo parallelamente, potrebbero costruire oggetti praticamente perfetti al livello dell'atomo e di qualsiasi dimensioni.  

Le applicazioni includerebbero:  

-computer estremamente veloci
-materiali più robusti e leggeri (fondamentali per la tecnologia spaziale)
-sistemi di produzione industriale puliti ed efficienti
-produzione di energia solare economica e la capacità di eliminare  attivamente livelli eccessivi di CO2 dall'atmosfera
-dispositivi di desktop manufacturing [sistemi manufatturieri "da scrivania" - NdT] dalle capacità praticamente universali
-microscopici robot medici in grado di infiltrarsi in singole cellule ed effettuare  riparazioni a livello molecolare, eliminando in tal modo la maggior parte delle patologie, nonchè il processo dell'invecchiamento e permettendo l'upload [o  trasferimento - NdT] di menti umane su computer (questa sarebbe, fra l'altro, una strategia alternativa per la creazione di un'intelligenza artificiale di livello umano).

Drexler fece notare che una tecnologia così potente potrebbe anche essere usata, con  risultati devastanti, a fini distruttivi. In particolare, ha espresso la propria  preoccupazione circa possibili corse agli armamenti, nuove armi di distruzione di massa che potrebbero essere usate da terroristi e "stati canaglia" e a proposito di tecnologie di controllo della mente che potrebbero essere impiegate da governi oppressivi sui propri cittadini. Tuttavia, Drexler sostiene anche che ogni tentativo di rallentare lo sviluppo delle nanotecnologie non potrebbero che fallire e, nell'insieme, non farebbero altro che aumentare i rischi. Nonostante Drexler abbia contribuito a creare l'entusiasmo iniziale per il settore nanotecnologico, che ha portato all'attuale boom di finanziamenti, egli è stato successivamamente emarginato dalla comunità di ricerca nanotecnologica, perché la sua visione si spinge troppo oltre gli studi sperimenali attualmente in corso e le applicazioni più vicine. Un altro motivo dietro l'emarginazione di Drexler è il timore di alcuni ricercatori che i pericoli futuri a cui ha attirato l'attenzione potrebbero causare l'opposizione del pubblico alle nanotecnologie, con conseguente perdita di investimenti. Il premio Nobel Richard Smalley ha dichiarato, senza però fornire dettagli tecnici, che la visione di Drexler è fisicamente impossibile e ha continuato ad accusare Drexler "di spaventare i nostri figli".[4] Più recentemente, la visione di Drexler della nanotecnologia sembra essere in fase di riabilitazione, grazie ai rapidi sviluppi scientifici nel settore e a nuove simulazioni che sembrano confermare la fattibilità di sistemi molecolari meccanici. I politici hanno cominciato ad esaminare le implicazioni etiche e sociali che le nanotecnologie avranno, una volta pienamente sviluppate. Per esempio, un decreto firmato dal presidente Bush verso la fine del 2003 richiede che il programma [di ricerca e sviluppo nanotecnologico USA, NdT] si accerti…

...che gli aspetti sociali, etici, legali, ambientali e altri necessari, compreso il potenziale impiego di  nanotecnologie per l'incremento dell'intelligenza umana e per lo sviluppo di intelligenze artificiali che eccedano le capacità umane, siano presi in considerazione nel corso dello sviluppo delle nanotecnologie.[5]

Circa il 3% dei fondi del Progetto Genoma Umano furono dedicati allo studio degli aspetti etici, legali e sociali sollevati dalla disponibilità di informazioni genetiche. Anche le nanotecnologie sembrano destinate a seguire la tendenza di coinvolgere studiosi delle scienze sociali e umanistiche nei programmi di ricerca considerati fondamentali. Tale sforzo preventivo sugli aspetti etici, legali e sociali è un fenomeno nuovo, il cui impatto sul lungo termine deve ancora essere verificato.

Convergenza e la singolarità

Il concetto di "tecnologie convergenti" proviene da un rapporto del 2002 promosso dalla National Science Foundation negli Stati Uniti e pubblicato da Mihail Roco e William Bainbridge:  

Nelle prime decadi del ventunesimo secolo sarà possibile integrare fra loro le scienze, in maniera simile a come è integrato il mondo naturale stesso, incoraggiando così il mergersi di nanotecnologie, biotecnologie, informatica e nuove tecnologie basate sulla scienza cognitiva. Con adeguata attenzione agli aspetti etici ed ai bisogni sociali, tali  tecnologie convergenti potrebbero offrire enormi miglioramenti delle capacità umane, delle condizioni sociali, della produttività nazionale e della qualità della vita.[6]

L'espressione "tecnologie convergenti" si riferisce alla combinazione sinergica di quattro importanti aree tecnoscientiche, conosciute in breve come "NBIC". Questi sono (a) nanoscienze e nanotecnologie;  (b) biotecnologie e biomedicina, ingegneria genetica compresa;  (c) tecnologia dell'informazione, advanced computing and communication compresi; (d) scienza cognitiva, neuroscienza conoscitiva compresa. L'idea è che, nel corso del loro sviluppo, questi quattro settori si fonderanno dando vita ad un approccio integrato a scienza e tecnologia, abbattendo così le barriere fra, per esempio, biotecnologie e nanotecnologie. Il rapporto della National Science Foundation descrive inoltre come tali nuove e significative possibilità potrebbero emergere e come potrebbero essere utilizzate per il potenziamento delle capacità umane.  

E' stato fatto osservare che la maggior parte della gente tende a sopravvalutare il  progresso tecnologico sul breve termine e a sottovalutarlo sul lungo termine. Inoltre, è stata osservata l'esistenza di un gap, in genere piuttosto lungo, fra la "prova di concetto" di una nuova tecnologia in laboratorio e il suo impatto sul mercato con prodotti commerciali. Molte idea apparentemente valide si dimostrano poi irrealizzabili e i settori tecnologici più in fermento tendono solitamente a generare non poca iperbole.

Nonostante ciò, l'economia mondiale sta raddoppiando ogni 15 anni e alcuni particolari settori tecnologici sono anche più dinamici. L'americano Ray Kurzweil, inventore e scenarista specializzato in previsioni tecnologiche, ha documentato i progressi di svariati settori tecnologici che dimostrano crescita esponenziale, come quelli del computer, del data storage, della mappatura genetica, del brain mapping ["mappatura del cervello" NdT] ed altri. Lo sviluppo esponenziale è un fenomeno inizialmente lento, che in seguito però accelera velocemente. Quello che segue ne è un classico esempio:

Le ninfee in uno stagno raddoppiano ogni giorno. Nel giro di due settimane ricoprono lo stagno intero. Di quanti giorni hanno bisogno per ricoprire la metà dello stagno?

La risposta, naturalmente, è che questa popolazione di ninfee in crescita esponenziale occuperebbe la metà dello stagno il tredicesimo giorno, cioè il giorno prima di raddoppiare nuovamente, coprendo così lo stagno intero. Kurzweil sostiene che noi intuitivamente vediamo il progresso come lineare, mentre in realtà esso è esponenziale. Saranno in molti, quindi, ad essere sorpresi dalla velocità del progresso nelle prossime decadi. Sempre secondo Kurzweil, non avremo 100 anni di progresso nel ventunesimo secolo, ma 20.000 (al tasso di crescita di oggi) [7] grazie al fatto che la nostra capacità innovativa sta aumentando essa stessa, spinta dal progresso nella  strumentazione, nelle metodologie e nel settore del computer.

La "singolarità" è un ipotetico momento futuro, caratterizzato da un tasso di progresso tecnologico talmente rapido da causare radicali trasformazioni a livello gloable,   virtualmente da un giorno all'altro. L'unico scenario plausibile in cui tale "singolarità" potrebbe verificarsi presuppone lo sviluppo dell'intelligenza artificiale. Si potrebbe supporre che le macchine, ad un certo punto, potrebbero surclassare gli esseri umani biologici in termini di intelligenza generale e che potrebbero applicare la loro superiore intelligenza a programmi di rapida auto-ottimizzazione. In tal modo, esse otterrebbero in breve tempo livelli di super-intelligenza. Tali macchine super-intelligenti potrebbero quindi catalizzare rapidi progressi in tutti i settori tecnoscientifici. Le svariate possibilità che si aprirebbero a quel punto includono l'"uploading" di menti umane su computer e la modifica, o sostanziale incremento, delle capacità degli esseri umani che rimarranno biologici.

Se una singolarità di questo tipo si verificherà mai, naturalmente, rimane per ora una domanda senza risposta. È possibile che il progresso tecnologico non raggiunga mai la velocità postulata nell'ipotesi della singolarità. Anche se una singolarità dovesse verificarsi, nel nostro futuro, è estremamente difficile predire quando - anche se alcuni esperti sostengono che probabilmente avremo macchine super-intelligenti prima di raggiungere la metà del ventunesimo secolo.[8]

Cosa può fare la classe politica alla luce di tali possibilità? Una priorità deve essere l'abbandono della premessa che la natura e la condizione umana rimarranno fondamentalmente immutati nel corso del secolo corrente. Sarà poi necessario dotarsi di tecniche di pianificazione e di scenarizzazione a lungo termine più accurate. Tali tecniche già sono impiegate nel prendere in considerazione alcune decisioni politiche, come per esempio l'importanza di ridurre il riscaldamento globale. Tuttavia, una volta presi in considerazione gli scenari qui illustrati, ci rendiamo conto che i rischi del  riscaldamento globale sono poca cosa rispetto ai rischi creati dal progresso tecnologico nelle prossime decadi.[9] Forse dovremmo investire una frazione dei fondi e degli sforzi oggi dedicati al problema del cambiamento climatico per affrontare questi rischi.

Oltre ai rischi, però, ci aspettano anche opportunità enormi. Ripeto, solo prendendo in considerazione il lungo periodo potremo identificare quelle opportunità per migliorare le condizioni di vita e per salvare vite umane che passerebbero altrimenti inosservate. Un forte aumento dei fondi per la ricerca sulle cause biologiche dell'invecchiamento potrebbe dimostrari un ottimo investimento, se portasse a trattamenti per gli aspetti negativi della terza età, permettendo a uomini e donne di rimanere in buona salute ed economicamente attivi più a lungo di quanto oggi possibile.

Non c'è dubbio che ci troveremo di fronte a profonde trasformazioni, ma la natura di queste trasformazioni dipenderà in una certa misura dalle nostre scelte. Questo potrebbe essere il secolo in cui, grazie alla nostra creatività tecnologica, libereremo il nostro potenziale in direzioni che, in passato, erano semplicemente inimmaginabili.  

---

Nick Bostrom è direttore del Future of Humanity Institute presso l'Università di Oxford e presidente e co-fondatore della World Transhumanist Association. La sezione di questo articolo dedicata all'intelligenza artificiale è basata su "When machines outsmart humans" di Nick Bostrom, in Futures 35, no 7 (2003).

---

L'articolo originale, "Welcome to a world of exponential change", sul sito Demos.co.uk (formato PDF)

---

Note Bibliografiche

[1] M Roco and WS Bainbridge (eds), Nanotechnology: Societal implications maximizing benefits for humanity. Report of the National Nanotechnology Initiative Workshop (Arlington,VA, 2003).

[2] KE Drexler, Engines of Creation: The coming era of nanotechnology (London:Fourth Estate, 1986).

[3] KE Drexler, Nanosystems: Molecular machinery, manufacturing, and computation (New York: John Wiley & Sons, Inc., 1992).

[4] E Drexler and R Smalley (2003). 'Nanotechnology: Drexler and Smalley make the case for and against "molecular assemblers"', Chemical & Engineering News 81, no 48 (2003).

[5] '21st Century Nanotechnology Research and Development Act' (passed 3 Dec 2003) (1, section 2.B.10); see: www.nano.gov/html/news/ PresSignsNanoBill.htm (accessed 17 Jan 06).

[6] MC Roco and WS Bainbridge (eds), Converging Technologies for Improving Human Performance (Arlington,VA: National Science Foundation/Department of Commerce-sponsored report, 2002).

[7] R Kurzweil, 'The law of accelerating returns', KurzweilAI.net, 2001. Available at: www.kurzweilai.net/articles/art0134.html?printable=1 (accessed 7 Jan 2006).

[8] See N Bostrom, 'How long before superintelligence?', International Journal of Futures Studies 2 (1998), and H Moravec, Robot: Mere machine to transcendent mind (New York: Oxford University Press, 1999).

[9] N Bostrom, 'Existential risks: analyzing human extinction scenarios and related hazards', Journal of Evolution and Technology 9 (2002). Better Humans?




Estropico