Società Italiana per la Crionica
Nella foto: un cryostat della Alcor.

Crionica-ibernazione: la lista della Società Italiana per la Crionica. Notizie, segnalazioni, commenti e discussioni crioniche.

Contatti &
Contatti per la stampa

Organizzazioni crioniche:

Alcor: l'organizzazione crionica con il più alto numero di iscritti e di "pazienti".

Cryonics Institute: la creazione di Robert Ettinger, il "padre" della crionica.

CryoRus: nata nel 2006 in Russia offre sospensioni crioniche in Russia ed Europa.

Suspended Animation: offre servizi di stand-by a coloro iscritti ad organizzazioni crioniche

Reti di supporto europee:

Cryonics Europe: rete di supporto europea per iscritti ad organizzazioni crioniche (Gran Bretagna).

Alcor UK: la rete di supporto inglese/europea per gli iscritti alla Alcor.

Albin & Son: agenzia di pompe funebri inglese che offre servizi crionici in Europa.

Spagna: Instituto de Criónica

Belgio: Cryonics Belgium

Danimarca: Danish Cryonics Support Group

Vari:

Cryonet: mailing list storica della crionica.

Cryonics Society: organizzazione non-profit dedicata a promuovere l'idea della crionica.

21st Century Medicine: sviluppa tecnologie e materiali per la criopreservazione

Immortali (2007): Cortometraggio sulla crionica (con trailer on-line)


COMUNICATO IMPORTANTE. Nel corso del 2008 la Società Italiana per la Crionica è diventata la Associazione Italiana per la Crionica (AIC) e il 9 gennaio 2009 è stato ufficialmente lanciato il nuovo sito. Estropico è fiero di aver fatto da "incubatore" alla AIC su queste pagine e sulla lista di discussione Crionica-ibernazione e seguirà da vicino gli sviluppi della nuova associazione. La mailing-list Crionica-ibernazione resta in funzione ed è ora anche la lista ufficiale della AIC. Gli articoli contenuti in questa sezione sono ora disponibili anche sul sito AIC.

La riparazione a livello molecolare del cervello
di
Ralph C. Merkle
Xerox PARC
3333 Coyote Hill Road
Palo Alto, CA 94304
merkle@parc.xerox.com

Traduzione di Mirco Romanato

Questo articolo è stato pubblicato in due parti nella rivista Cryonics,Vol. 15 No 1 & 2, di Gennaio e Aprile del 1994. Cryonics è una pubblicazione della Alcor Life Extension Foundation, Scottsdale AZ, info@alcor.org, telefono: +1 800-367-2228. L'URL per la versione originale di questo articolo è: http://www.merkle.com/cryo/techFeas.html. Una versione breve di questo articolo, intitolata "The Technical Feasibility of Cryonics" è apparso in Medical Hypotheses Vol. 39, 1992; 6-16.

Informazioni più recenti sia sulla nanotecnologia che sulle potenziali applicazioni mediche della nanotecnologia sono disponibili, insieme ad una pagina sulla crionica.

CONTENUTI

ABSTRACT
INTRODUZIONE
NANOTECNOLOGIA
DESCRIVERE IL CERVELLO A LIVELLO MOLECOLARE
CRITERI DI MORTE
DANNO DA CONGELAMENTO
FERITE ISCHEMICHE E DA PRESOSPENSIONE
MEMORIA
PANORAMICA TECNICA
IL PROCESSO DI RIPARAZIONE
ALTERNATIVE ALLA RIPARAZIONE
GUARIGIONE
CONCLUSIONI
APPENDICE
RICONOSCIMENTI
RIFERIMENTI BIBLIOGRAFICI
NOTE

ABSTRACT

La sospensione crionica è un metodo per stabilizzare le condizioni dei malati terminali, così che possano avere accesso alle strutture mediche che saranno disponibili nel tardo 21° o 22° secolo. Il fatto che le condizioni di una persona conservata alla temperatura dell'azoto liquido siano stabili non è controverso, ma il processo di sospensione crionica infligge una quantità di danno tale da  non poter essere riparato dalla tecnologia medica corrente. Il fatto che non sia possibile riparare i danni dovuti alla sospensione crionica con i metodi oggi disponibili, non significa che ciò non possa essere possibile in futuro, proprio come l'impossibilità di costruire un computer nel 1890 non implicava che tali macchine non sarebbero mai state costruite. Questo articolo prende in considerazione i limiti raggiungibili dalla scienza medica (in base alle nostre conoscenze attuali delle leggi della chimica e della fisica) e il genere di danno causato dai metodi attuali di sospensione crionica. L'articolo prende poi in considerazione quali metodi saranno verosimilmente disponibili in futuro per riparare questo tipo di danno.

INTRODUZIONE

I tessuti conservati nell'azoto liquido possono conservarsi per secoli senza deterioramento [nota 1]. Questo semplice fatto fornisce una imperfetta macchina del tempo che ci può trasportare, quasi senza cambiamento, dal presente al futuro: dobbiamo solo refrigerarci nell'azoto liquido [al momento della morte - NdT]. Se il danno da sospensione crionica potrà un giorno essere curato, sarà allora come intraprendere una specie di viaggio nel tempo fino ad un'era in cui la cura per la malattia che ci ha uccisi sia disponibile. Sebbene questa prospettiva non sia attraente per chi sia sano, essa potrebbe però essere più attraente per i malati terminali, le cui opzioni sono molto più limitate. Lungi dall'essere una fantasia oziosa, questa opzione è disponibile per chiunque la voglia. Proposta seriamente per la prima volta nel 1960 da Ettinger [80] siamo ora arrivati ad avere tre organizzazioni, negli Stati Uniti, che forniscono servizi di sospensione crionica.

La domanda più importante che dobbiamo porci nel valutare questa opzione è la sua fattibilità tecnica: funzionerà o no?

Non è facile respingere la crionica se consideriamo il progresso della scienza negli ultimi secoli. La struttura del DNA era sconosciuta prima del 1953; la natura chimica (piuttosto che "vitalistica") degli esseri viventi non era conosciuta fino all'inizio del 20° secolo; la generazione spontanea non fu messa da parte fino al 1864 da Luis Pasteur, che dimostrò che nessun organismo emerge da un substrato sterilizzato con il calore e tenuto sigillato all'interno di un contenitore; i Principi di Sir Isaac Newton stabilirono le leggi del moto nel 1687, solo 300 anni fa. Se accettiamo che nei prossimi secoli assisteremo a sviluppi della stessa magnitudine, è difficile sostenere che la riparazione di tessuti congelati sia intrinsicamente e per sempre al di là delle nostre capacità.

Una certa esitazione nel respingere la crionica non è però una chiara dichiarazione di sostegno e lascia spazio a considerevoli dubbi sulla domanda principale. Forse un esame più stringente di come le tecnologie future potrebbero essere applicate alla riparazione di tessuti congelati, ci permetterà di trarre delle conclusioni più valide - in una direzione o nell'altra. Alla fine, la crionica o (a) funzionerà, oppure (b) fallirà. Chiaramente, sarebbe utile sapere in anticipo quale di questi due avvenimenti aspettarsi! Se possiamo escludere che sia fattibile, allora non c'è bisogno di sprecare altro tempo su questo argomento. Se invece la fattibilità tecnica della crionica apparisse probabile, allora una serie di problemi di carattere non tecnico dovrebbero essere risolti per garantire una buona probabilità di successo.

Il lettore interessato ad una introduzione generica alla crionica viene rimandato ad altre fonti [23, 24, 80]. Qui, ci soffermeremo specificamente sulla fattibilità tecnica.

Mentre molti tessuti isolati (e alcuni organi particolarmente resistenti) sono stati portati con successo alla temperatura dell'azoto liquido e successivamente riscaldati [59], ulteriori passi avanti si sono rivelati più difficili. Sebbene non ci sia nessuna particolare ragione per credere che una cura per il danno da congelamento violi una qualsiasi legge fisica (o che sia chiaramente irrealizzabile), è probabile che il danno causato dalla sospensione crionica sia superiore alle capacità di recupero ed auto-riparazione del tessuto stesso. Questo non implica che il danno non possa essere riparato, ma solo che una parte significativa del processo di riparazione deve essere fornita da una fonte esterna. Nel decidere se fornire questa riparazione dall'esterno sia (o no)  fattibile in futuro,  dobbiamo tenere in mente che tali tecniche di riparazione possono avvantaggiarsi enormemente dei progressi scientifici che saranno fatti nei prossimi secoli. La previsione delle capacità delle tecnologie future è quindi una componente fondamentale nel determinare la fattibilità della crionica. Tale previsione dovrebbe essere possibile, dato che le leggi della fisica e della chimica sono ben comprese e ben definite, così come la loro applicazione alle strutture biologiche. Se la riparazione di tessuti congelati sarà (o non sarà) provata possibile entro la struttura definita da queste leggi è una domanda a cui dovremmo essere in grado di rispondere basandoci su quelle che sono le nostre conoscenze attuali.

La ricerca corrente (delineata sotto) supporta l'idea che eventualmente saremo in grado di esaminare e manipolare la materia una molecola alla volta e persino atomo per atomo. Tali capacità tecniche hanno chiare implicazioni per il genere di danno che può (o non può) essere riparato. Le più potenti capacità di riparazione  possibili, possono essere definite con precisione. La domanda a cui desideriamo rispondere è concettualmente semplice: sarà possibile riparare tessuti congelati utilizzando i metodi più avanzati che è probabile siano sviluppati a lungo termine? (cioè nel corso di un periodo che potrebbe persino essere di qualche secolo?) [nota 2] Eigler e Schweizer [49] hanno già sviluppato la capacità "...di fabbricare rudimentali strutture, da noi stessi progettate, atomo per atomo." Eigler disse [129], "...quando io sarò pronto per il cimitero, dovrebbe essere possibile immagazzinare abbastanza informazioni sulla mia esatta composizione fisica che un giorno sarà possibile riassemblarmi, atomo per atomo."

La capacità di manipolare strutture con precisione atomica e a basso costo viene spesso chiamata nanotecnologia (a volte chiamata ingegneria molecolare, manifattura molecolare o nanotecnologia molecolare, etc.). Esiste un ampio consenso che tali capacità saranno infine sviluppate [1, 2, 3, 4, 7, 8, 10, 19, 41, 47, 49, 83, 84, 85, 106, 107, 108, 116, 117,  118, 119, 121, 122] sebbene non sia ancora chiaro esattamente quanti anni saranno necessari. I lunghi tempi di immagazzinamento resi possibili dalla crionica, fanno si che ciò non sia un problema fondamentale. Tale sviluppo, quand'unque arrivasse durante i prossimi secoli, sarebbe sufficiente a salvare le vite di coloro sospesi con l'attuale tecnologia.

In questo articolo, daremo una breve introduzione alla nanotecnologia e quindi chiariremo i problemi tecnici connessi nell'applicarla nel modo concettualmente più semplice ed efficace alla riparazione dei tessuti congelati.

NANOTECNOLOGIA

Parlando in generale, la tesi centrale della nanotecnologia è che quasi ogni struttura consistente con le leggi della chimica e della fisica che può essere specificata, può di fatto essere costruita. Questa possibilità venne proposta per la prima volta da Richard Feynman nel 1959 [4] quando disse: "I principi della fisica, a mio avviso, non negano la possibilità di manovrare oggetti atomo per atomo." (Feyman vinse il Premio Nobel per la fisica nel 1965).

Questo concetto sta ricevendo una crescente attenzione dalla comunità della ricerca scientifica. Ci sono state due conferenze internazionali completamente dedicate alla manifattura molecolare [83, 84, 116, 121] [questo è stato scritto alcuni anni fa. Il Foresight Institute ha continuato a sponsorizzare questa serie di conferenze, vedi: http://www.foresight.org/Conferences/ -NdT] oltre a numerose conferenze dedicate ad argomenti correlati. Science [47, pag.26] disse "L'abilità di progettare e produrre dispositivi con dimensioni che sono solo di decine o centinaia di atomi, promette ricche ricompense in elettronica, catalisi e materiali. Le ricompense scientifiche dovrebbero crescere in proporzione a quanto i ricercatori si avvicinano al livello di controllo finale: assemblare la materia un atomo alla volta." "Entro il decennio, è probabile che [John] Foster [della IBM, in Almaden], o qualche altro scienziato, impari a mettere insieme atomi e molecole uno per volta usando l'STM [Scanning Tunnel Microscope]."

Eigler and Schweizer [49] dell'IBM, riportarono "...l'uso dell'STM a basse temperature (4 K) per posizionare singoli atomi di xeno su una superficie formata da un singolo cristallo di nichel con precisione atomica. Questa capacità ci ha permesso di creare delle rudimentali strutture, da noi stessi progettate, atomo per atomo. I processi da noi descritti sono applicabili, in principio, anche alle molecole. Considerando che il  comportamento dei singoli atomi su superfici [riferimenti omessi] è simile a quello dei dispositivi, è evidente la possibilità di ottenere la massima miniaturizzazione di dispositivi."

J. A. Armstrong, Vice Presidente per la Scienza e la Tecnologia dell'IBM [106] disse "Credo che la nanoscienza e la nanotecnologia saranno centrali nella prossima era dell'età dell'informazione, e saranno tanto rivoluzionarie quanto la scienza e la tecnologia della scala del micron lo sono state dall'inizio degli anni '70... Avremo l'abilità di creare dispositivi elettronici e meccanici atomo per atomo, quando ciò sarà appropriato per il lavoro da svolgere."

Da un articolo del New York Times [107]: "Gli scienziati stanno iniziando ad ottenere l'abilità di manipolare la materia al livello dei suoi componenti di base - molecola per molecola e atomo per atomo." "Questa abilità, sebbene per ora piuttosto grezza, potrebbe un giorno permettere la costruzione di circuiti elettronici e macchinari di dimensioni oggi inimmaginabili, producendo, per esempio, un supercomputer invisibile a occhio nudo. Alcuni futurologi immaginano anche di costruire minuscoli robot che possano passare attraverso il corpo eseguendo interventi chirurgici sulle cellule danneggiate."

Drexler [1,10,19,41, 85] ha proposto l'assemblatore, un piccolo dispositivo che assomiglia ad un robot industriale, dotato dell'abilità di trattenere e posizionare composti reattivi in modo di controllare il punto preciso in cui una reazione chimica avviene. Questo approccio generico dovrebbe permettere la costruzione, con precisione atomica, di oggetti di grandi dimensioni attraverso una sequenza di reazioni chimiche controllate.

La migliore presentazione degli aspetti tecnici della nanotecnologia è stata fornita da Drexler [ 85].

Ribosomi

La plausibilità di questo approccio può essere illustrata con l'esempio dei ribosomi. I ribosomi producono tutte le proteine presenti negli esseri viventi del pianeta. Un ribosoma tipico è relativamente piccolo (poche migliaia di nanometri cubi) e può costruire praticamente ogni proteina attaccando uno all'altro vari amminoacidi (i mattoni con cui le proteine sono costruite) in una precisa sequenza lineare. Per far questo, il ribosoma ha un mezzo per afferrare uno specifico amminoacido (più precisamente, ha il modo di afferrare in modo selettivo un preciso pezzo di RNA transfer (tRNA), il quale è chimicamente legato ad uno specifico amminoacido da un enzima). Il ribosoma può, inoltre, afferrare il polipeptide in costruzione e far si che l'amminoacido specifico reagisca e sia legato all'estremità del polipeptide [14].

Le istruzioni seguite dai i ribosomi nella costruzione delle proteine sono fornite dal mRNA (RNA messaggero). Questo è un polimero formato da quattro basi (adenina, citosina, guanina e uracile). Una sequenza che va dalle poche centinaia alle molte migliaia di basi codifica una specifica proteina: il ribosoma "legge" questo "nastro di controllo" in modo sequenziale e ne segue le istruzioni.

Assemblatori

In un modo analogo, un assemblatore costruirà una molecola con una struttura arbitraria seguendo una sequenza di istruzioni. L'assemblatore, però, permetterà il controllo completo sulla posizione tridimensionale e sull'orientamento del componente molecolare ( in modo analogo al singolo amminoacido) che viene aggiunto ad una complessa struttura molecolare tridimensionale (in modo analogo al peptide in crescita). Inoltre, l'assemblatore sarà capace di formare una serie di legami chimici diversi e non uno solo (il legame peptidico) come nel caso del ribosoma.

E' stato calcolato che un assemblatore non deve necessariamente essere di grandi dimensioni. Gli enzimi pesano "tipicamente" circa 10^5 amu (unità di massa atomica [nota 3]), mentre il ribosoma stesso pesa circa 3 x 10^6 amu [14]. Il più piccolo assemblatore possibile potrebbe essere più grande di un ribosoma di un fattore intorno al 10. Gli attuali progetti per un assemblatore sono leggermente più grandi: "braccia" cilindriche di circa 100 nanometri di lunghezza e 30 nanometri di diametro, giunture ruotanti per permettere un posizionamento arbitrario della punta del braccio e una accuratezza di posizionamento della punta che nel peggior caso sia fra 0.1 e 0.2 nanometri, anche in presenza di rumore termico [85]. Un blocco solido di diamante grande quanto un componente del genere, peserebbe solo sedici milioni di amu, di conseguenza,  possiamo concludere con sicurezza che un braccio cavo di tali dimensioni peserebbe meno. Sei di tali braccia peserebbero meno di 10^8 amu.

Computer molecolari

L'assemblatore richiede una dettagliata sequenza di segnali di controllo, proprio come il ribosoma richiede mRNA per controllare le proprie azioni. Questi dettagliati segnali di controllo possono essere forniti da un computer. Un progetto realistico di computer molecolare è stato presentato da Drexler [2, 19, 85]. Questo progetto è di natura meccanica, e si basa su barre che si spostano bloccando o sbloccando altre barre come in una "serratura" [nota 4]. Il computer progettato avrebbe dimensioni di circa 5 nanometri cubi per "serratura" (ognuna all'incirca equivalente a una porta logica). Quadruplicando questa grandezza a 20 nanometri cubici (per fornire energia, interfacce e simili) e assumendo che avremo bisogno di un minimo di 10^4 "serrature" per fornire un minimo controllo risulta un volume di 2 x 10^5 nanometri cubi (0,0002 micron cubici) per la computazione. Un simile numero di gate è sufficiente a costruire un semplice computer per usi generici a 4 o 8 bit. Per esempio, il microprocessore 6502 a 8-bit può essere fatto implementando circa 10.000 gate (porte logiche - NdT), mentre un singolo processore ad 1 bit nella Connection Machine ne ha circa 3.000. Assumendo che ogni nanometro cubico sia occupato da 100 atomi di carbonio, questo computer di 2 x 10^5 nanometri cubi avrà una massa di circa 2 x 10^8 amu.

Un assemblatore potrebbe avere un kilobyte di RAM ad alta velocità (basata sulla logica a barre), (simile alla quantità utilizzata nei moderni computer su singolo chip) e 100 kilobyte di più lenta, ma più densa, memoria a "nastro" - questa memoria a nastro avrebbe una massa di 10^8 amu o meno (circa 10 atomi per bit - vedi sotto). Della massa ulteriore sarà necessaria per comunicazioni (invio e ricezione di segnali da altri computer) e energia. Inoltre, sarà probabilmente aggiunta una serie di punte intercambiabili (una specie di cassetta degli attrezzi) per le estremità delle braccia dell'assemblatore. Una volta montato, un piccolo assemblatore, con braccia, computer, "cassetta degli attrezzi", etc. non dovrebbe pesare più di 10^9 amu.

E. coli (un comune batterio) pesa circa 10^12 amu [14, page 123]. Quindi, un assemblatore dovrebbe essere molto più grande di un ribosoma, ma molto più piccolo di un batterio.

Sistemi autoreplicanti

E' anche interessante comparare la struttura di un assemblatore di Drexler con quella di un dispositivo autoreplicante di Von Neumann's. "L'automa di costruzione universale" di Von Neumann's [45] comporta sia una macchina universale di Turing per il controllo delle funzioni e un "braccio costruente" per costruire l'"automa secondario". Il braccio costruente può essere posizionato su un piano bidimensionale e la "testa" all'estremità del braccio costruente viene usata per costruire la struttura desiderata. Nonostante il fatto che la costruzione di von Neumann fosse teoretica (essendo proiettata in un universo bidimensionale di automi cellulari), essa incorpora molti degli elementi critici che oggi possiamo osservare  nell'assemblatore.

Precedenti studi su sistemi capaci di autoreplicazione vennero fatti dalla NASA nel 1980 in un rapporto che considerava la fattibilità della costruzione, con tecnologie convenzionali, di una struttura di produzione  autoreplicante sulla luna [48]. Una delle conclusioni era che "Il concetto teorico di duplicazione meccanica è ben sviluppato. Esistono varie strategie alternative attraverso le quali l'autoreplicazione di macchinari può essere messa in pratica". La Nasa stimò che sarebbero stati necessari 20 anni (e molti miliardi di dollari) per sviluppare un sistema del genere. Nonostante il progetto di sistema autoreplicante considerato dalla Nasa fosse macroscopico (il "seme" proposto era di 100 tonnellate), molti dei concetti e problemi implicati in tali sistemi sono simili qualunque sia la loro dimensione.

Chimica posizionale

I chimici hanno avuto eccezionali successi nel sintetizzare una vasta gamma di composti con precisione atomica. I loro successi, però, sono di norma di piccole dimensioni (con l'eccezione dei vari polimeri). Sappiamo, quindi, che è possibile assemblare una ampia gamma di strutture atomicamente precise, formate da alcune centinaia di atomi. Si possono poi ottenere strutture atomicamente precise di dimensioni più grandi e con complesse forme tridimensionali, collegando una serie di piccole strutture atomicamente precise. Sebbene i chimici possano già scolpire piccoli gruppi di atomi, lo stesso non è oggi possibile per strutture di dimensioni maggiori. Una struttura di considerevole interesse economico e scientifico è il computer. L'abilità di costruire un computer con elementi logici atomicamente precisi e di dimensioni molecolari, posizionati in  uno spazio tridimensionale con una precisa ed intricata struttura di interconnessioni, avrebbe conseguenze rivoluzionarie per l'industria dei computer.

Una struttura atomicamente precisa di grandi dimensioni, può essere considerata semplicemente una raccolta di piccoli oggetti atomicamente precisi che sono stati collegati. Per costruire una ampia gamma di oggetti di grandi dimensioni atomicamente precisi, servirà l'abilità di creare legami altamente specifici e  posizionabili. Una varietà di tecniche altamente flessibili è stata considerata da Drexler [85]. Ci occuperemo ora di due di tali metodi per dare al lettore un'idea del tipo di metodi che alla fine saranno disponibili.

Presumiamo che il controllo posizionale sia possibile e che tutte le reazioni prendano luogo nel vuoto assoluto. L'uso del vuoto assoluto permette di utilizzare strutture intermedie altamente reattive, e.g., una varietà di radicali con uno o più legami liberi. Siccome i composti intermedi sono nel vuoto e la loro posizione è controllata (al contrario che nelle soluzioni, dove la posizione e l'orientamento di una molecola è ampiamente casuale), tali radicali non reagiranno con l'oggetto sbagliato per la semplice ragione che non verranno in contatto con tale oggetto.

E' difficile mantenere strutture biologiche nel vuoto assoluto a temperatura ambiente a causa del vapore acqueo e del vapore di altri composti leggeri. Abbassando a sufficienza la temperatura, comunque, è possibile ridurre la pressione di vapore ad un valore praticamente pari a zero.

La chimica condotta in soluzione offre meno possibilità di controllo durante la sintesi. Per esempio, composti altamente reattivi in soluzione reagiranno immediatamente con la soluzione stessa. Inoltre, l'assenza di  controllo posizionale permette ai composti di reagire fra di loro in maniera casuale. Ogni composto reattivo reagirà casualmente con tutto quanto sia disponibile (incluso se stesso). La chimica condotta in  soluzione richiede una selezione estremamente attenta dei composti utilizzati. Questi devono essere  sufficientemente attivi da partecipare alle reazioni desiderate, ma anche sufficientemente inattivi da non partecipare alle reazioni collaterali non desiderate. La sintesi in queste condizioni è come mettere in una scatola le parti di una radio, scuotere il tutto e tirarne fuori una radio perfettamente montata. L'abilità dei chimici nel sintetizzare quello che desiderano in queste condizioni è incredibile.

Molte delle sintesi chimiche basate su soluzioni sono dedicate a prevenire reazioni non volute. Con la sintesi basata su assemblatori, tale prevenzione è fornita virtualmente gratis come sottoprodotto del controllo posizionale.

Per illustrare la sintesi posizionale nel vuoto in un modo più concreto, supponiamo di voler legare due composti, A e B. Come primo passo, possiamo utilizzare il controllo posizionale per estrarre un singolo atomo di idrogeno dal composto A. Per fare questo dobbiamo impiegare un radicale che abbia due regioni spazialmente distinte: una regione dovrebbe avere una alta affinità con l'idrogeno mentre l'altra regione potrebbe essere costruita su una struttura a "punta" più grande che sarebbe soggetta al controllo posizionale. Un semplice esempio sarebbe il radicale 1-propinile, che consiste in tre atomi di carbonio co-lineari e tre atomi di idrogeno legati al terzo atomo di carbonio alla estremità di "base". Il radicale di carbonio all'estremità radicale è legato da tre legami al carbonio di mezzo, che a sua volta è legato da un singolo legame al carbonio della base. In uno strumento di estrazione reale, il carbonio della base sarebbe legato ad altri atomi di carbonio in una più grande struttura diamondoide che fornirebbe il controllo posizionale, e la punta potrebbe essere  ulteriormente stabilizzata da un "collare" che la circondi, formato da atomi non reattivi posti vicino alla base che limiterebbero il movimento laterale della punta reattiva.

L'affinità di questa struttura con l'idrogeno è abbastanza alta. Il propile (la stessa struttura, ma con un atomo di idrogeno legato al "radicale" carbonio) ha una energia di dissociazione del legame idrogeno-carbonio nelle vicinanze di 132 kcalorie per mole. Di conseguenza, un atomo di idrogeno preferirà essere legato allo strumento di estrazione 1-propinile rispetto a quasi qualsiasi altra struttura. Posizionando lo strumento di estrazione dell'idrogeno su uno specifico atomo di idrogeno in un composto A, possiamo eseguire una reazione di estrazione dell'idrogeno specifico di quel punto. Questo richiede un posizionamento di una accuratezza pari a circa la lunghezza di un legame (per prevenire l'estrazione di un idrogeno adiacente). L'analisi chimica quantica di questa reazione da parte di Musgrave et. al. [108] mostra che l'energia di attivazione di questa reazione è bassa e che per l'estrazione di idrogeno da una superficie di diamondoide idrogenato (111) (modellata dall'isobutano) la barriera è molto vicina allo zero.

Avendo estratto uno specifico atomo di idrogeno dal composto A, possiamo ripetere il processo per il composto B. Poi, possiamo unire il composto A e il composto B posizionando i due composti così che i due legami liberi siano adiacenti l'uno all'altro e permettendo loro di legarsi.

Questo illustra una reazione che usa un singolo radicale. Con il controllo posizionale, possiamo usare anche due radicali simultaneamente per ottenere uno specifico obiettivo. Supponiamo, per esempio, che due atomi, A1 e A2, che sono parte di una molecola più grande, siano legati l'uno all'altro. Posizionando i due radicali X1 e X2 vicino a A1 e A2 rispettivamente, si formerebbe una struttura di legami con una energia libera molto più bassa, cioè una struttura nella quale il legame A1-A2 è spezzato e due nuovi legami, A1-X1 e A2-X2, vengono formati. Dato che questa reazione implica la rottura di un legame e il formarsi di due legami (i.e., la reazione non produce un radicale ed è chimicamente stabile) il tipo di radicali usati non è critico. Spezzare un legame per formarne due è una reazione tipica in un'ampia varietà di casi. Quindi, il controllo posizionale di due radicali può essere usato per rompere singoli legami in una vasta gamma di casi.

Una serie di reazioni che coinvolgono una varietà di composti reattivi intermedi (i carbeni sono tra i più interessanti) sono forniti in [85], insieme ai risultati dei calcoli quantici iniziali e semi-empirici e alle prove sperimentali disponibili.

Un altro principio generale che può essere impiegato con la sintesi posizionale è l'uso controllato della pressione. L'energia di attivazione, normalmente fornita dall'energia termica nella chimica convenzionale, può anche essere fornita con mezzi meccanici. La pressione di 1,7 MegaBar è stata ottenuta sperimentalmente in sistemi macroscopici [30]. A livello molecolare, tale pressione corrisponde a forze che sono una considerevole frazione della forza richiesta per spezzare un legame chimico. Una morsa molecolare, fatta di materiale duro come il diamante con una cavità progettata con la stessa precisione del sito reattivo di un enzima, può fornire energia di attivazione attraverso l'applicazione estremamente precisa di pressione, in modo di causare una reazione altamente specifica tra due composti.

Ottenere la bassa energia di attivazione necessaria per le reazioni che coinvolgono radicali richiede poco  sforzo, il che permette la produzione di un'ampia gamma di reazioni attraverso dispositivi molto più semplici (e.g., dispositivi che sono in grado di generare solo piccole forze). Una ulteriore analisi è fornita in [85].

Secondo Feynman: "[La soluzione de]i problemi della chimica e della biologia può essere enormemente facilitata se la nostra abilità di fare e di vedere cosa stiamo facendo a livello atomico, viene sviluppata al massimo - uno sviluppo che io penso non possa essere evitato." Drexler ha fornito l'analisi sostantiva necessaria  perchè questo obiettivo possa divenire realtà. Siamo vicini ad un'era nella quale saremo in grado di costruire virtualmente ogni struttura che non contraddica le leggi della fisica e della chimica, con precisione a livello del singolo atomo. Ciò comporta fondamentali implicazioni per le tecnologie e le capacità mediche del futuro.

Dispositivi di riparazione

Un dispositivo di riparazione è un assemblatore specializzato nella riparazione di tessuti in generale e tessuti congelati in particolare. Presumiamo che il dispositivo di riparazione abbia una massa compresa tra 10^9 e 10^10 amu (e.g., presumiamo che un dispositivo di riparazione possa essere 10 volte più complesso di un semplice assemblatore). In questo modo avremo un ampio margine per aumentare le capacità del dispositivo di riparazione, in caso fosse necessario.

Un singolo dispositivo di riparazione del genere non avrà, di per sé, la memoria sufficiente per immagazzinare il programma richiesto per eseguire tutte le riparazioni. Però, se connesso ad una rete (nello stesso modo in cui gli attuali computer sono connessi ad una rete locale) allora un singolo grande "file server" può fornire le informazioni necessarie per tutti i dispositivi nella rete. Il file server può essere dedicato ad immagazzinare informazioni, cioè  tutto il software e i dati necessari al dispositivo di riparazione. Quasi l'intera massa del file server può essere dedicata a tale immagazzinamento.  Esso può gestire molti dispositivi di riparazione e avere dimensioni di molte volte superiori a quelle di un singolo dispositivo di riparazione, senza che ciò aumenti di molto le dimensioni del sistema. La combinazione di questi vantaggi implica che il file server avrà un'ampia memoria per immagazzinare qualsiasi programma che possa essere richiesto durante il corso della riparazione. In modo simile, se altre risorse computazionali sono richieste, esse possono essere fornite da "grandi" server di calcolo posizionati nella rete.

Costo

Una conseguenza dell'esistenza stessa degli assemblatori è che essi sono poco costosi. Dato che un assemblatore può essere programmato per costruire quasi ogni struttura, esso può essere programmato in particolare per costruire un'altro assemblatore. Quindi, assemblatori che si autoriproducano dovrebbero essere realizzabili e di conseguenza il loro costo di produzione dovrebbe essere principalmente il costo dei materiali grezzi e dell'energia richiesti nella loro costruzione. Alla fine (dopo aver ammortizzato i costi di sviluppo, che saranno probabilmente alti), il prezzo degli assemblatori (e degli oggetti che questi costruiranno) non dovrebbe essere più alto del prezzo di altre strutture complesse prodotte da sistemi autoreplicanti. Una patata, per esempio, possiede una complessità progettuale incredibile che comprende decine di migliaia di geni e di proteine differenti, il tutto controllato da svariati megabit di informazione genetica… e costa molto meno di un dollaro per libbra.

DESCRIVERE IL CERVELLO A LIVELLO MOLECOLARE

In teoria, dobbiamo riparare solo il cervello congelato, perchè il cervello è la struttura del corpo più  importante e critica. Riparare fedelmente il fegato (e ogni altro tessuto secondario) molecola per molecola (o forse atomo per atomo), non sembra offrire nessun vantaggio rispetto a tecniche più semplici,  come la sostituzione. I calcoli e le discussioni che seguono sono quindi basate sulle dimensioni e composizione del cervello. Chiaramente, se sarà possibile riparare il tessuto cerebrale, i metodi impiegati potrebbero (se lo desiderassimo) essere facilmente applicati anche al resto del corpo.

Il cervello, come tutta la materia nel mondo intorno a noi, è fatto di atomi. E' il posizionamento spaziale di questi atomi che distingue un braccio da una gamba, la testa dal cuore e la malattia dalla salute. Questa visione del cervello è il fulcro del nostro ragionamento. Il problema, per metterla brutalmente, è che gli atomi di un cervello congelato sono nel posto sbagliato. Dobbiamo rimetterli al  loro posto (forse con qualche piccola  aggiunta o sottrazione, o con qualche semplice riposizionamento) se vogliamo restaurare le funzioni naturali di questo organo meraviglioso.

In teoria, il massimo livello di informazioni che potremmo ottenere su di un cervello ghiacciato sono le  coordinate di ogni singolo atomo al suo interno (tuttavia concediamo che: nota 5). Questa conoscenza ci metterebbe nella migliore posizione possibile per determinare dove ogni singolo atomo dovrebbe essere. Questa conoscenza, combinata con una tecnologia che ci permetta di riposizionare la struttura atomica in quasi ogni modo permesso dalle leggi della fisica e della chimica, chiaramente ci permetterebbe di riportare la struttura congelata ad uno stato completamente sano e funzionale.

In breve, dobbiamo poter rispondere a tre domande:

Dove sono gli atomi?

Dove dovrebbero essere?

Come possiamo portali dalla loro posizione attuale a quella in cui dovrebbero essere?

Indipendentemente dagli specifici dettagli tecnici, qualsiasi metodo di resurrezione di una persona in sospensione crionica deve poter dare risposta a queste tre domande, anche solo implicitamente. Gli attuali sforzi per congelare e scongelare i tessuti (e.g., lavori sperimentali mirati a congelare e rivitalizzare lo sperma, i reni, etc.) rispondono a queste tre domande indirettamente ed in modo implicito. Alla fine, i progressi tecnologici dovrebbero permetterci di rispondere a queste domande in modo diretto ed esplicito.

Invece di considerare queste domande tutte insieme, considereremo prima un problema più semplice: come potremmo descrivere la posizione di ogni atomo se in qualche modo ottenessimo tale informazione? La risposta a questa domanda ci permetterà una migliore comprensione delle domande più difficili.
Altri studi che considerano l'informazione necessaria per descrivere un essere umano sono disponibili [127, 128].

Quanti bit per descrivere un atomo

Ogni atomo ha una posizione che può essere rappresentata con tre coordinate: X, Y, e Z. Gli atomi sono, di norma, distanti qualche decina di nanometri l'uno dall'altro. Se potessimo registrare la posizione di ogni atomo con un errore di 0.01 nanometri, avremmo la sua posizione con sufficiente accuratezza a poter stabilire di quale elemento esso faccia parte, quali legami abbia formato e così via. Il cervello è circa 0,1 m di diametro, quindi 0,01 nanometri sono circa 1 parte su 10^10. Questo significa che dovremmo stabilire  la posizione dell'atomo in ognuna delle tre coordinate menzionate, con una accuratezza di una parte su  10^10. Un numero di questa grandezza può essere rappresentato con circa 33 bit. Abbiamo quindi tre coordinate, X, Y, e Z, ognuna delle quali richiede 33 bit per essere rappresentata. La posizione di un atomo può dunque essere rappresentata da 99 bit. Un altro po' di bit sono necessari per memorizzare il tipo di atomo (se idrogeno, ossigeno, carbonio, etc.), portando il totale appena sopra i 100 bit [nota 5]. Quindi, se potessimo memorizzare 100 bit di informazione per ogni atomo del cervello, potremmo descrivere completamente la sua struttura in un modo esatto e sufficientemente preciso per i nostri scopi. (Dancoff e Quastler [128], usando uno schema di codifica migliore, sostengono che 24,5 bit per atomo sarebbero sufficienti).

Un dispositivo di memorizzazione con questa capacità sembra essere realizzabile. Citando Feynman [4]: "Supponiamo, per essere prudenti, che un bit di informazione richieda un piccolo cubo di 5 x 5 x 5 atomi - quindi 125 atomi." Questa è una stima molto prudente. Un filamento singolo di DNA immagazzina un singolo bit in circa 16 atomi (escludendo l'acqua in cui si trova). Sembra probabile che sarebbe possibile ridurre questa stima fino a solo pochi atomi [1]. Studi condotti presso la IBM [49] suggeriscono un ovvio metodo per codificare un singolo bit di informazione con la presenza o l'assenza di un singolo atomo (sebbene una qualche struttura di sostegno per l'atomo e qualche metodo per rilevarne la presenza o assenza saranno necessari, per cui potremmo aver bisogno di più di un atomo per bit in questo caso). Partendo dal cauto presupposto che le leggi della chimica richiedano 10 atomi per la memorizzazione di un singolo bit di informazione, notiamo che circa 1.000 atomi possono rappresentare 100 bit. In altre parole, la posizione di ogni atomo all'interno di una struttura congelata è (in un certo senso) già codificata nella struttura stessa, in un formato analogico. Se convertiamo questa codifica da analogica a digitale, aumentiamo lo spazio richiesto per immagazzinare le stesse informazioni. Questo significa che un atomo in uno spazio tridimensionale codifica la propria posizione nel valore analogico delle sue tre coordinate spaziali. Se convertiamo queste informazioni spaziali dal loro formato analogico ad un formato digitale, aumentiamo il numero di atomi necessari di circa 1.000 volte. La rappresentazione digitale della posizione di ogni atomo del cervello, richiederà un numero di atomi di circa 1.000 volte superiore a quello degli atomi del cervello. Questo significa che avremo anche bisogno di un volume circa 1.000 volte superiore. Il cervello ha un volume di poco superiore a un decimetro cubo, quindi servirebbe poco più di un metro cubo di materiale per codificare la posizione di ogni singolo atomo del cervello in un formato digitale adatto ad essere esaminato e modificato da un computer.

Sebbene una memoria simile sia notevole per gli standard attuali, la sua costruzione non violerebbe nessuna legge della chimica o della fisica. Sembra quindi che dovrebbe essere possibile immagazzinare una descrizione digitale di ogni singolo atomo del cervello in un dispositivo di memorizzazione che un giorno saremo in grado di costruire.

Quanti bit per descrivere una molecola

Una impresa del genere sarebbe notevole, ma è anche molto più di quanto sia necessario, dato che i chimici normalmente pensano agli atomi in gruppi, cioè le molecole. Per esempio, l'acqua è una molecola fatta di tre atomi: un ossigeno e due idrogeni. Se noi descriviamo ogni atomo separatamente, avremo bisogno di 100 bit per atomo, per un totale di 300 bit. Se però, viene data la posizione dell'atomo di ossigeno e l'orientamento della molecola, avremo bisogno di: 99 bit per localizzare l'atomo di ossigieno + 20 bit per descrivere la molecola ("acqua", in questo caso) e forse altri 30 bit per dare l'orientamento della molecola d'acqua (10 bit per ognuno dei tre assi di rotazione). Questo significa che possiamo immagazzinare la descrizione di una molecola di acqua in solo 150 bit, invece che nei 300 bit necessari per descrivere i tre atomi separatamente. (I 20 bit necessari per descrivere il tipo di molecola possono descrivere fino a 1.000.000 di molecole differenti - molte più di quelle presenti nel cervello).

Molecole più grandi permetteranno un risparmio di spazio ancora più grande. Una proteina intera potrebbe richiedere solo 150 bit, sebbene sia fatta di migliaia di atomi. La posizione canonica di ogni atomo in una molecola è implicita nel tipo di molecola di cui si tratta (e questa informazione occupa solo 20 bit). Una molecola di grandi dimensioni potrebbe adottare più di una configurazione, il che potrebbe farci erroneamente pensare che avremo bisogno di molti più bit. Va notato, però, che le macromolecole biologiche tipicamente assumono una configurazione preferita piuttosto che una casuale, ed è questa configurazione preferita che sarà descritta [nota 6].

Possiamo fare anche di meglio: le molecole del cervello sono immagazzinate l'una vicina all'altra. Una volta descritta la posizione di una molecola, possiamo descrivere la posizione della molecola successiva sulla base della sua distanza dalla prima. Assumendo che due molecole adiacenti siano entro i 10 nanometri l'una dall'altra (una assunzione ragionevole), abbiamo allora bisogno di immagazzinare solo 10 bit di "delta X," 10 bit di "delta Y," e 10 bit di "delta Z" piuttosto che 33 bit di X, 33 bit di Y, e 33 bit di Z. Questo significa che una molecola può essere descritta con solo 10+10+10+20+30 o 80 bit. Possiamo comprimere ulteriormente questo valore usando altri stratagemmi (potremmo probabilmente raggiungere 50 bit o meno), ma il punto dovrebbe essere chiaro: siamo interessati alle molecole, e descrivere una molecola richiede molti meno bit che descrivere un atomo.

Abbiamo realmente bisogno di descrivere ogni molecola?

Un altro fatto sarà chiaro ad ogni biologo. Descrivere l'esatta posizione e orientamento di una molecola di emoglobina all'interno di un globulo rosso è completamente inutile. Ogni molecola di emoglobina rimbalza all'interno del globulo rosso in modo casuale e non ha importanza dove si trovi esattamente, né dove stia puntando con esattezza. Tutto quello di cui abbiamo bisogno è di poter dire: "E' in quel globulo rosso!"  Lo stesso dicasi per ogni molecola che fluttui casualmente all'interno di un "compartimento cellulare": abbiamo solamente bisogno di sapere all'interno di quale tipo compartimento si trovi. Molte altre molecole, sebbene non si diffondano liberamente all'interno di un compartimento cellulare, possono diffondersi abbastanza liberamente all'interno di un'area di dimensioni significative. La descrizione della loro posizione può quindi essere compressa in modo adeguato.

Sebbene questo riduca in parte lo spazio di cui abbiamo bisogno, potremmo ottenere molto di più. Invece di descrivere le molecole, potremmo descrivere interi organelli sub-cellulari. Sembra eccessivo descrivere un mitocondrio descrivendo ogni singola molecola al suo interno. Potrebbe essere sufficiente memorizzare la posizione e forse le dimensioni del mitocondrio, dato che tutti i mitocondri eseguono la stessa funzione: la  produzione di energia per la cellula. Sebbene esistano delle minori differenze tra mitocondri, queste differenze non hanno un'importanza significativa e potrebbero ragionevolmente essere ignorate.

Potremmo proseguire in questa direzione e descrivere una intera cellula solo con una descrizione generale della sua funzione: questa cellula nervosa ha una sinapsi di un certo tipo con quest'altra cellula, ha una certa forma, e così via. Potremmo anche descrivere gruppi di cellule in base alla loro funzione: questo gruppo di cellule nella retina esegue un potenziamento periferico, mentre quest'altro gruppo esegue un'altra funzione. Secondo Cherniak [115]: "Partendo dal comunemente accettato presupposto che la sinapsi sia il substrato necessario per la memoria e supponendo, molto approssimativamente, che (dato il "rumore" anatomico e fisiologico) ogni sinapsi codifichi un bit di informazione binaria e che siano disponibili un migliaio di sinapsi per neurone per questo scopo, otteniamo: 10^10 neuroni corticali x 10^3 sinapsi = 10^13 bit di informazioni arbitrarie (1,25 Terabytes) che potrebbero essere immagazzinati nella corteccia cerebrale."

Di quanti bit abbiamo realmente bisogno?

Potremmo proseguire all'infinito, seguendo questa logica, ma ad un certo punto sarà meglio fermarsi. Quale è la descrizione più compatta possibile che possa contenere tutte le informazioni essenziali? Sebbene molti dei dettagli minori della struttura neurale siano irrilevanti, la nostra memoria è chiaramente importante. Ogni metodo di descrizione del cervello umano che finisca con il far perdere la memoria a lungo termine si è chiaramente spinto troppo lontano. Quantitativamente, la preservazione delle nostre memorie a lungo termine potrebbe richiedere l'equivalente di appena 10^9 bit (poco più di 100 Megabyte) [37]. Possiamo quindi dire con una certa sicurezza che sarnno necessarie almeno altrettante informazioni per descrivere in modo adeguato il cervello di un individuo. Lo spazio tra questo limite inferiore e il limite superiore, cioè quello di una descrizione molecola per molecola, è piuttosto ampio e non è immediatamente chiaro dove, all'interno di questo spazio, si trovi la risposta giusta. Non tenterò di trovare una risposta a questa domanda. Suggerisco invece  (prudentemente), che dovremo semplicemente adottare il limite superiore.

CRITERI DI MORTE

Morte: una permanente cessazione di tutte le funzioni vitali; la fine della vita.

Determinare quando "una permanente cessazione di tutte le funzioni vitali" sia avvenuta, non è facile. Storicamente, premature dichiarazioni di morte e successive sepolture di persone ancora vive sono stati un grosso problema. Nel settimo secolo, Celso scrisse "... Democrito, un uomo di ben meritata celebrità, ha dichiarto che, in realtà, non c'è nessuna sufficientemente certa caratteristica della morte su cui il medico possa basarsi."[87, page 166]. Montgomery, facendo rapporto sull'evacuazione del Cimitero di Fort Randall, dichiara che quasi il due percento dei cadaveri esumati erano stati sepolti vivi [87]. Molta gente nel diciannovesimo secolo, allarmata dalla frequenza dei casi di sepolture premature, richiese, come parte delle ultime cerimonie, che fossero praticate ferite o mutilazioni per assicurarsi che non si sarebbero svegliati ... e l'imbalsamazione ricevette un considerevole impeto a causa della paura di una sepoltura prematura.

Nuovi criteri

Gli attuali criteri di "morte" sono sufficienti ad assicurare che la ripresa spontanea all'obitorio sia un avvenimento raro. Un esame attento di tali criteri, però, rivela che si tratta semplicemente di un insieme  codificato di sintomi che si sono dimostrati impervi alla cura, con le tecniche attuali. Storicamente, tali criteri derivano dal timore che il paziente si riprenda spontaneamente all'obitorio o in una cripta. Non c'è una struttura teoretica sottostante che li supporti, solo una continua accumulazione di procedure ad hoc supportate da evidenza empirica. Per quotare Robert Veach [15]: "Possiamo solo ottenere risultati insoddisfacenti. La maggior parte delle informazioni ottenibili non dimostrano che la persona in questione abbia irreversibilmente perso le proprie funzioni cerebrali. Esse dimostrano solo che i pazienti perdono rapidamente la funzione cardiaca o che non si "ristabiliscono."  L'autopsia fornisce, probabilmente, le informazioni più convincenti. Ancora più convincente, comunque, è il fatto che nel corso degli anni non è mai stato documentato il caso di un paziente che abbia dimostrato i vari criteri di morte e che abbia poi recuperato le funzioni cerebrali. Sebbene questo non sia un argomento elegante, è una rassicurazione."

In breve, i criteri correnti sono adeguati a determinare quando l'attuale tecnologia medica fallirà di rianimare un paziente, ma non ci dicono nulla sulle capacità della tecnologia medica futura.

Ogni nuovo progresso medico ci obbliga ad un riesame dei criteri esistenti. I criteri usati oggi negli ospedali per determinare la "morte" sono profondamente differenti dai criteri usati 100 anni fa e sono certamente cambiati, anche se più sottilmente, anche nell'ultimo decennio [nota 7]. Sembra praticamente inevitabile che i criteri usati tra 200 anni differiranno profondamente dai criteri comunemente usati oggi.

Questi criteri di "morte" ed i loro continui aggiornamenti, fanno sorgere una domanda: esiste una definizione che resterà immutata nonostante il progresso tecnologico? Una definizione che ha una base teoretica solida e che non dipenda dalle tecnologie del momento?

La risposta emerge dalla confluenza di molte aree di ricerca, che includono la teoria dell'informazione, le neuroscienze, la fisica, la biochimica e la telematica, passando per la filosofia della mente e per i criteri, in continua evoluzione, che sono stati storicamente usati per definire la morte. Quando qualcuno ha sofferto di una perdita di memoria o di una funzione mentale, spesso diciamo che tale persona "non è più la stessa." Mano a mano che la perdita diventa più seria e tutte le funzioni mentali superiori vengono perse, iniziamo a usare termini come "stato vegetativo persistente". Sebbene spesso ci tratteniamo dal definire tale individuo "morto", tale esitazione non è normalmente dovuta al fatto che consideriamo il suo stato attuale come "vivo", ma perché abbiamo ancora una speranza che il paziente si riprenda, con memoria e personalità intatte. Da un punto di vista fisico, crediamo che ci sia la possibilità che le sue memorie e personalità siano ancora presenti all'interno della struttura fisica del cervello, sebbene il comportamento non fornisca una prova diretta di ciò. Se potessimo determinare in modo affidabile che la struttura fisica che codifica la memoria e la personalità sia stata distrutta, a quel punto abbandoneremmo la speranza e dichiareremmo la persona morta.

Il criterio di morte secondo la teoria dell'informazione

Chiaramente, se conoscessimo le coordinate di tutti i singoli atomi del cervello di una persona saremmo (almeno in principio) in grado di determinare con assoluta precisione se la memoria o la personalità siano state distrutte, nel senso della teoria dell'informazione, o se  siano conservate ma non possano, per qualche ragione, essere espresse. Nel primo caso, ci sarebbero pochi motivi per avere speranza. Se tale distruzione non avesse invece avuto luogo, allora in principio sarebbe possibile per una tecnologia sufficientemente avanzata riportare le persone in uno stato di piena salute e di completa funzionalità con le loro memorie e personalità intatte.

Considerazioni simili a questa portano al criterio di morte secondo la teoria dell'informazione [nota 8]. Una  persona è morta, secondo il criterio della teoria dell'informazione, se le sue memorie, personalità, speranze, sogni, etc. sono state distrutte nel senso della teoria dell'informazione. Questo significa che se le strutture del cervello che codificano la memoria e la personalità sono state danneggiate al punto che non sia possibile riportarle al corretto stato funzionale, allora la persona è morta. Se le strutture che codificano la memoria e la personalità sono invece sufficientemente intatte ed è possibile fare delle deduzioni sulla memoria e sulla personalità in esse codificate, allora il recupero di un appropriato stato funzionale è possibile, almeno in principio e la persona in questione non è morta.  

Un semplice esempio dalla tecnologia del computer. Se un computer è pienamente funzionante allora la sua memoria e la sua "personalità" sono completamente intatte. Se questo cadesse da una finestra del settimo piano, esso cesserebbe di funzionare. Però, la sua memoria e la sua "personalità" sarebbero ancora presenti nelle tracce magnetizzate sul disco. Con uno sforzo sufficiente, potremmo riparare completamente il computer con la sua memoria e la sua "personalità" intatta [nota 9]. In modo simile, finché la struttura che codifica la memoria e la personalità di un essere umano non sono state irrimediabilmente "cancellate" (per usare il gergo dei computer) allora la ripresa di uno stato funzionale completo di memoria e personalità intatte è, in principio, possibile. In questo caso, ogni definizione di "morte", indipendentemente dalla tecnologia disponibile, dovrebbe concludere che tale persona non è morta, in quanto una tecnologia sufficientemente avanzata potrebbe riportare la persona in uno stato di completa salute.

L'altro lato della medaglia è che se le strutture che codificano memoria e personalità hanno subito un danno sufficiente a renderle irriconoscibili, allora la morte, secondo i criteri della teoria dell'informazione, è avvenuta. Un metodo efficace per assicurare tale distruzione è quello di bruciare tali strutture e di spargerne le ceneri. Questo metodo viene comunemente impiegato per distruggere i documenti classificati. Comunemente conosciuto come "cremazione" questo metodo viene usato anche sugli esseri umani ed è sufficiente ad assicurare che la morte sia avvenuta, anche secondo i criteri della teoria dell'informazione.

Approcci più esotici

Non è chiaro se la preservazione della vita richieda la riparazione fisica o anche la preservazione del cervello [11,12]. Sebbene il cervello sia fatto di neuroni, sinapsi, protoplasma, DNA e così via, la maggior parte dei moderni filosofi della coscienza vede questi dettagli come non più significativi del colore dei capelli o dello stile dell'abbigliamento. Eccone tre esempi.

Lo studioso di etica e prolifico autore Robert Veatch disse, in "Death, Dying, and the Biological Revolution", "Un 'cervello artificiale' non è possibile attualmente, ma un individuo che camminasse, pensasse e parlasse e che ne avesse uno, sarebbe certamente considerato un essere vivente."[15, pagina 23].

Il noto filosofo della coscienza Paul Churchland disse, in "Matter and Consciousness": "Se le macchine arrivavassero a simulare tutte le nostre attività cognitive interne, fino al più piccolo dettaglio computazionale, negar loro lo status di persone reali sarebbe nient'altro che una nuova forma di razzismo." [12, pagina 120].

Hans Moravec, rinomato studioso di robotica e direttore del Mobile Robot Lab alla Carnegie Mellon disse, "L'identità corporea presume che una persona sia definita dalla materia di cui un corpo umano è fatto. Solo mantenendo la continuità della materia del corpo noi possiamo conservare quell'individuo come persona. L'identità strutturale, al contrario, definisce l'essenza di una persona, me stesso, per esempio, come la struttura e i processi che avvengono nella mia testa e nel mio corpo, non dei macchinari che supportano questo processo. Se il processo viene preservato, io sono preservato. Il resto è solo gelatina." [50, page 117].

Noi useremo un approccio prudente

La ricostruzione di una struttura esistente sarà molto più difficile della costruzione di un cervello artificiale (in particolare se la ricostruzione deve avvenire a livello molecolare). Ciò nonostante , esamineremo il problema tecnicamente più complesso della ricostruzione in quanto è generalmente più accettabile (la maggior parte delle persone considera l'idea di riportare il cervello in salute in un corpo sano un obiettivo desiderabile). Una gamma di obiettivi  meno restrittivi (come descritto) sono possibili. Se dei criteri più ampi divenissero accettabili, i problemi tecnici diverrebbero meno complessi. Adottando deliberatamente una approccio così prudente, ci esponiamo alla critica che i metodi qui descritti si riveleranno probabilmente non necessari. Tecniche più semplici che riducano, anche se parzialmente, le limitazioni filosofiche che abbiamo imposto potrebbero essere adottati. In questo articolo eviteremo le possibilità più esotiche (senza, comunque, adottare una qualsiasi posizione sulla loro desiderabilità).

Un'altro fattore da considerare non è tanto filosofico, quanto emotivo. Un drastico intervento chirurgico non è certo una bella prospettiva. Ci sono poche persone che possono guardare impassivamente un chirurgo mentre taglia un  tessuto vivente. In un trapianto di cuore, per esempio, il chirurgo pratica un'incisione per aprire il petto di un paziente morente per toglerli il cuore morente, apre un cadavere fresco per prendere un cuore che batte ancora, e quindi mette il cuore del cadavere nel petto del paziente morente. Nonostante tutto ciò (che sarebbe stato condannato nel medio evo come la più oscura delle magie nere), ci rallegriamo del ritorno alla salute del paziente e siamo contenti di vivere in un'era in cui la medicina può salvare delle vite che prima sarebbero state perse.

I metodi per esaminare e riparare il cervello umano, possibilmente fino al livello della singola molecola, non sono soggetti raccomandati per una conversazione a pranzo. Sebbene i dettagli varieranno a seconda degli specifici metodi usati, le immagini certamente impressionanti che tale discussione evocherebbe offuscherebbero l'obiettivo dell'operazione, cioè il riportare in piena salute un essere umano.

Un ulteriore problema di cui dovremo parlare, sono i cambiamenti introdotti dal processo di rianimazione stesso. L'esatta natura ed estensione di questi cambiamenti varierà a seconda dei metodi specifici. Le tecniche chirurgiche attuali, per esempio, provocano un cambiamento sostanziale dei tessuti. Cicatrici, impianti permanenti, protesi, etc.sono tra le conseguenze più benigne. In generale, i metodi basati sulla sofisticata abilità di rimodellare la struttura atomica dovrebbero mantenere le alterazioni indesiderate dei tessuti a livelli  minimi.

"Cambiamenti minimi" non significa "nessun cambiamento." Un modesto cambiamento della struttura molecolare, quale che sia la tecnica usata, è sia inevitabile che insignificante. La struttura molecolare del cervello umano è in uno stato di cambiamento costante durante la vita - le molecole sono sintetizzate, utilizzate e catabolizzate in un ciclo continuo. Le cellule sono sottoposte ad un continuo lieve cambiamento della loro morfologia. Le cellule commettono anche qualche errore nel costruire le proprie stesse parti. Per esempio, i ribosomi commettono errori nel costruire proteine. Circa un aminoacido su 10.000 di quelli  aggiunti ad una catena di peptidi in crescita è errato [14, paginae 383]. Cambiamenti ed errori ad un simile livello, commessi durante il processo di rianimazione, possono essere tranquillamente ignorati.

Che importanza hanno i criteri della teoria dell'informazione?

Normalmente, ha poca importanza preoccuparsi se un medico del 2190 sia o non sia d'accordo con la diagnosi di "morte" di un medico contemporaneo fatta ad uno specifico paziente del 1990. Un medico di oggi che si trovasse nel 1790 sarebbe in grado di fare ben poco per un paziente il cui cuore si fosse fermato, anche se conscio che una unità di cura intensiva probabilmente sarebbe in grado di salvare la vita del paziente. Le unità di cura intensiva semplicemente non erano disponibili nel 1790, indipendentemente dalle conoscenze del medico. Lo stesso vale per un medico di oggi che si renda conto che un medico fra 200 anni nel futuro  potrebbe salvare la vita del paziente che lui ha appena dichiarato "morto". Non c'è nulla che lui possa fare, in quanto può solo utilizzare la tecnologia odierna - eccetto nel caso della sospensione crionica.

Nel caso della crionica, noi non dobbiamo chiederci se la persona sia morta secondo i criteri odierni (chiaramente dipendenti dalla tecnologia), ma se la persona è morta per tutti i criteri futuri. In breve, dobbiamo chiederci se la morte sia avvenuta secondo i criteri della teoria dell'informazione. Se non lo è, allora la sospensione crionica è una azione ragionevole (che quindi può salvare una vita).

Conferme e smentite sperimentali della crionica

Viene spesso detto che "la crionica è congelare i morti." E' più accurato dire che "la crionica è congelare i malati terminali. Che essi siano o no morti rimane da vedere."

L'esperimento scientificamente corretto per verificare se la crionica funziona o  non funziona è piuttosto semplice:

- Si selezionano N soggetti su cui sperimentare.
- Si congelano.
- Si aspetta 100 anni.
- Si osserva se la tecnologia disponibile tra 100 anni può (o non può) curarli.

Le limitazioni di questo protocollo sperimentale sono chiare: non possiamo ottenere i risultati prima di 100 anni. Questo problema è fondamentale. L'utilizzo di tecnologia futura è una parte fondamentale della crionica. Le critiche sulla crionica basate sull'osservazione che congelare e scongelare mammiferi con l'attuale tecnologia non funziona, non sono rilevanti, per la semplice ragione che non è questa l'idea.

Questo tipo di problema non è limitato  alla crionica. Una nuova cura per l'AIDS potrebbe sottostare a test clinici per anni. Il dilemma etico posto da un paziente malato terminale di AIDS che potrebbe essere assistito da un trattamento sperimentale è ben conosciuto. Se al paziente con l'AIDS viene data la cura prima del completamento delle prove cliniche, è possibile che la sua situazione possa essere fatta peggiorare significativamente. D'altro canto, negare una cura che potrebbe salvare la vita a qualcuno che comunque presto morirà, è eticamente insostenibile. Nel caso della crionica questo non è un dilemma irrisolvibile fino al  completamento delle prove cliniche, ma è un dilemma intrinseco alla natura stessa della crionica. Le prove cliniche, il baluardo della pratica medica moderna, sono inutili nel decidere in tempo utile se la crionica sia fattibile.

Inoltre, la crionica (per definizione) è una procedura usata solo quando il paziente ha esaurito tutte le altre opzioni disponibili. Nella pratica corrente il paziente viene sospeso dopo la morte legale: non esiste il timore che la cura si riveli peggiore della malattia. Naturalmente, la sospensione di un paziente malato terminale prima della morte legale avrebbe dei significativi vantaggi . Un paziente che soffra di un tumore al cervello potrebbe considerare una sospensione che avvenga dopo la distruzione del suo cervello  molto meno desiderabile di una sospensione che avvenga prima di tale distruzione, anche se la sospensione avvenisse quando il paziente fosse ancora legalmente "vivo". In tal caso, è fuori luogo ignorare i desideri del paziente. Quotando l'American College of Physicians Ethics Manual, "Ogni paziente è un libero agente che ha il diritto a una completa spiegazione e ad una completa autorità sulle decisioni da prendere a proposito delle sue cure mediche". John Stuart Mill lo ha detto in questo modo: `Su se stesso, la sua propria mente e il suo proprio corpo, l'individuo è sovrano.' La controparte legale all'autonomia del paziente è l'autodeterminazione. Entrambi i principi negano la legittimità del paternalismo dichiarando inequivocabilmente che, in ultima analisi, il paziente decide che cosa è meglio per sé." "Se il paziente [malato in modo terminale] è un adulto mentalmente completo, egli ha il diritto di accettare o rifiutare qualsiasi forma di cura e i suoi desideri devono essere riconosciuti e onorati da ogni medico."[92]

Se le prove cliniche non possono fornirci una risposta, esistono altri metodi di valutazione della proposta della crionica? E' possibile andare oltre l'affermare che (a) la sospensione crionica non può arrecare danni (in accordo con il giuramento di Ippocrate) e che (b) ha qualche possibilità, difficile da valutare, di portare dei benefici?

Criteri dell'insuccesso della crionica

Cercare di dimostrare che qualche cosa sia falso è spesso il modo più semplice per chiarire esattamente cosa sia necessario perché questo qualche cosa sia vero. Una considerazione sui criteri di morte secondo la  teoria dell'informazione renderà chiaro che, da un punto di vista tecnico (e ignorando vari problemi non-tecnici), esistono solamente due modi nei quali la crionica può fallire [nota 10].

La crionica fallirà se:

La morte secondo la teoria dell'informazione avviene prima di raggiungere la temperatura dell'azoto liquido [nota 11].

La tecnologia per la riparazione del cervello, che in principio è fattibile, non verrà mai sviluppata,  anche dopo il passaggio di secoli.

Il primo criterio di insuccesso può essere considerato sulla base dell'attuale comprensione del danno da  sospensione crionica, del danno ischemico e dei meccanismi della memoria e della adattabilità sinaptica. Che la memoria e la personalità siano o no distrutte, nel senso della teoria dell'informazione, dalla  sospensione crionica e dal danno ischemico che potrebbe precederlo si può solo sapere considerando sia la natura fisica della memoria che la natura del danno al quale il cervello è sottoposto prima di raggiungere la stabilità fornita dalla conservazione nell' azoto liquido. Le sezioni che seguono forniranno quindi una breve panoramica di questi argomenti.

Il secondo criterio di fallimento viene considerato nella sezione successiva, dedicata ai problemi tecnici, in cui si discute, con più dettagli, come le future tecnologie potrebbero essere utilizzate nella riparazione dei tessuti congelati.

Come il lettore potrà notare, le seguenti panoramiche considerano solo i punti più salienti e di maggiore importanza nel determinare la generale fattibilità di tale processo di riparazione. Esse sono troppo brevi per dare i dettagli completi, ma forniscono sufficienti informazioni per dare al lettore una panoramica dei problemi più importanti. Riferimenti ad altro materiale sono forniti nel testo [nota12].

DANNO DA CONGELAMENTO

C'è un'intera letteratura sul danno causato sia dal raffreddamento che dal congelamento alle temperature dell'azoto liquido. Alcuni articoli: [5, 6, 68, 70]. Scientific American ha un articolo recente ed abbastanza aceessibile [57]. In questa sezione, rivedremo brevemente la natura di tale danno e valuteremo se è probabile causare la morte secondo la teoria dell'informazione. Il danno, di per se, non ha importanza tanne quando cancella o nasconde la natura della struttura originale.

Portare dei tessuti viventi ad una temperatura intorno a 0 gradi centigradi crea un certo numero di problemi. E' però possibile, con i metodi attuali, portare  un mammifero a questa temperatura o anche lievemente sotto (senza la formazione di ghiaccio) ed è poi possibile riportare il soggetto ad un completo recupero [61, 62]. Questo mostra che i  problemi possone essere controllati e che è improbabile che il trattamento causi causi la morte secondo la teoria dell'informazione. Noi, quindi, ignoreremo i problemi causati da tale raffreddamento. Questo problema è discusso in [5] e in altre pubblicazioni. Inoltre, alcuni danni da "congelamento" in realtà avvengono al momento del riscaldamento. La ricerca attuale supporta questa idea, dato che il metodo utilizzato per riscaldare i tessuti ha un profondo impatto sul  successo o il fallimento di un esperimento, anche quando le condizioni di congelamento sono identiche [5, 6]. Supponendo che i metodi di riparazione futuri evitino il riscaldamento dei tessuti prima dell'analisi e invece analizzino i tessuti direttamente allo stato congelato, allora questa sorgente di danno sarà eliminata. Parecchi dei metodi attuali possono essere usati per distinguere tra danno che avviene durante il congelamento e danno che avviene durante lo scongelamento. Ad oggi, sembra probabile che dei danni siano causati durante entrambi i processi. Sebbene un danno significativo avvenga durante il congelamento lento, esso non induce danni strutturali che distruggano le cellule.

Successi fino ad oggi

Molti tipi di tessuti, inclusi embrioni umani, sperma, pelle, ossa, globuli rossi e globuli bianchi, midollo osseo e altri [5, 6, 59] sono stai congelati nell'azoto liquido, sono stati poi scongelati e sono tornati funzionali. Questo non è il caso, però, per mammiferi interi [nota 13]. Il cervello sembra più resistente di altri organi al danno da congelamento [58, 79]. Il recupero della completa funzionalità cerebrale dopo il congelamento alle temperature dell'azoto liquido non è stato dimostrato, ma è stato dimostrato il recupero dell'attività elettrica a livello di unità dopo il congelamento a -60 gradi C [79].

Fratture

Forse la ferità più spettacolare prodotta dal congelamento è la frattura macroscopica [56]. I tessuti diventano estremamente fragili intorno alla "temperatura di transizione del vetro", cioè a circa 140K. Un raffreddamento continuo fino a 77K (la temperatura dell'azoto liquido) crea uno stress tensile nel materiale vetroso. Questo è esacerbato dalla presenza del cranio, che inibisce la riduzione del suo contenuto. Questo stress provoca fratture macroscopiche nel tessuto che sono subito evidenti. Fratture che si verificano al di sotto della  "temperatura di transizione del vetro", causano una perdita di informazioni alquanto minuta. Sebbene spettacolare, questo tipo di danno ha poche probabilità di causare o di contribuire alla morte seconda la teoria dell'informazione.

Ghiaccio

Il danno più comunemente associato con il congelamento è quello causato dal ghiaccio. Al contrario di quello che si crede comunemente, il congelamento non fa si che le cellule scoppino come i tubi dell'acqua in un freddo giorno d'inverno, anzi, si verifica esattamente il contrario, cioè la formazione di ghiaccio avviene all'esterno delle cellule, nella regione extracellulare. Questo è dovuto in gran parte alla presenza di agenti extracellulari che agiscono come nuclei sui quali il ghiaccio si può formare, e alla assenza, in confronto, di agenti che agiscano da nuclei per i cristalli di ghiacci all'interno della cellula. Di conseguenza il liquido intracellulare raggiunge uno stato di surraffreddamento.

La formazione di ghiaccio extracellulare produce un aumento nella concentrazione della soluzione extracellulare, e.g. le sostanze chimiche nel liquido extracellulare aumentano la propria concentrazione a causa della diminuzione dell'acqua disponibile. L'effetto immediato di questo aumento della concentrazione extracellulare è di estrarre acqua dalle cellule attraverso l'osmosi. Quindi il congelamento disidrata le cellule.

Il danno può essere provocato da ghiaccio extracellulare, dall'aumentata concentrazione del soluto o dalla stessa bassa temperatura. Tutti e tre i meccanismi possono giocare un ruolo nelle condizioni appropriate.

Il danno prodotto dalla formazione di ghiaccio extracellulare dipende in gran parte dalla frazione del volume del liquido iniziale che viene convertito in ghiaccio [6, 57]. (Il volume del liquido iniziale potrebbe includere una significativa quantità di crioprotettore insieme all'acqua). Quando la frazione di volume del liquido che viene convertito in ghiaccio è piccola, il danno è spesso reversibile anche dalle tecniche attuali. In molti casi, la conversione di un volume di liquido significativamente superiore al 40% è dannosa [70, pagina 134; 71]. Il cervello è più resistente a tale danno: nel cervello la conversione in ghiaccio di un volume di liquido fino al 60% è associata con il recupero della funzionalità neuronale [58, 62, 66, 82]. Storey e Storey dicono "Se il volume cellulare cade al di sotto di un minimo critico, allora il doppio film di molecole di fosfolipidi nella membrana viene compresso al punto che la struttura di spezza. Le funzioni di trasporto della membrana non possono essere mantenute e le brecce nella membrana fanno uscire il contenuto della cellula e forniscono un punto di ingresso per la propagazione del ghiaccio all'interno della cellula. La maggior parte degli animali che tollerano il congelamento raggiungono il volume minimo critico per la cellula quando circa il 65 percento dell'acqua totale del corpo è sequestrata sotto forma di ghiaccio."[57].

Glicerolo

Un adeguato trattamento con dei crioprotettivi (in particolore il glicerolo) prima del congelamento impedirà al 40% o più del volume del liquido di essere convertito in ghiaccio anche alla temperatura dell'azoto liquido.

Fahy ha detto "Tutti i problemi postulati in criobiologia - compattamento cellulare [riferimenti omessi], limiti alla grandezza dei canali [riferimenti omessi], differenze tra la velocità di congelamento ottimale tra popolazioni cellulari mescolate [riferimenti omessi], danni prodotti dall'osmosi [riferimenti omessi], e il resto - possono essere risolti, in principio, selezionando una concentrazione sufficientemente alta di crioprotettivo prima del congelamento. In casi estremi, la formazione di tutto il ghiaccio potrebbe essere soppressa completamente usando una concenteazione sufficiente di un agente che assicuri la vitrificazione del sistema biologico in questione [riferimenti omessi]"[73]. Sfortunatamente, una concentrazione di crioprotettivo sufficientemente alta da proteggere il sistema da tutto il danno da congelamento sarebbe di per se dannosa [73]. Dovrebbe essere possibile scambiare il danno meccanico causato dalla formazione di ghiaccio con il danno biochimico prodotto dal crioprotettivo, il che sarebbe probabilmente un vantaggio. Gli attuali protocolli di sospensione della Alcor richiedono una introduzione di glicerolo ad un livello superiore al 6 molare. La concentrazione venosa e arteriosa di glicerolo ha ecceduto le 6 moli in parecchie delle recenti sospensioni. Se questa concentrazione di crioprotettivo viene raggiunta anche nei tessuti, essa dovrebbe impedire ad oltre il 60% del volume di liquido iniziale di essere convertito in ghiaccio alla temperatura dell'azoto liquido [4" nota 14].

Effetti della concentrazione

"La disidratazione e la concentrazione dei soluti oltre un livello critico può interrompere il metabolismo e denaturare le proteine cellulari e i complessi macromolecolari" [70, pagina 125]. Sembra improbabile che le perdite funzionali prodotte da questo meccanismo provochino una significativa perdita di informazioni. Una motivazione per questa conclusione è che le membrane cellulari appaiono essere indebolite dall'aumentata concentrazine del soluto [5, pagina 92]. La vulnerabilità della cellula al danno strutturale è aumentata dal fatto che gli elementi strutturali sono indeboliti dall'aumento della concentrazione dei soluti.

Denaturazione

Infine, a basse temperature potrebbe avvenire la denaturazione delle proteine. In questo processo, la struttura terziaria e forse anche quella secondaria delle proteine potrebbe essere distrutta producendo una significativa perdita della funzionalità delle proteine. Comunque, la struttura primaria delle proteine (la sequenza lineare di aminoacidi) è ancora intatta, quindi dedurre lo stato funzionale corretto della proteina è, in principio, semplice. Inoltre, il livello di denaturazione delle proteine prodotta dal congelamento deve essere necessariamente limitato dato la relativamente ampia gamma di tessuti che sono stati congelati e scongelati con successo.

Congelamento intracellulare

Il congelamento intracellulare è un'altro dannoso fattore da considerare [6]. Se il congelamento è lento al punto di permettere la rimozione della maggior parte dell'acqua dall'interno della cellula attraverso l'osmosi, allora l'alta concentrazione di soluti impedirà alla piccola quantità di acqua rimanente di congelare. Se il congelamento è invece troppo rapido, l'acqua all'interno della cellula potrebbe sfuggire prima di congelare. In quest'ultimo caso, i contenuti intracellulari vengono surraffreddati e il congelamento è improvviso (la cellula "sbava"). Sebbene questo sia correlato con il fallimento nel recuperare la funzionalità [5, 6, 68, 70] è difficile  credere che un congelamento rapido provochi una significativa perdita di informazioni.

Il congelamento intracellulare è ampiamente irrilevante nella sospensione crionica, in quanto la bassa velocità di raffreddamento è dettata dalla grande massa di tessuto che deve essere congelato. Tale velocità di congelamento è troppo lenta per causare il congelamento intracellulare, eccetto quando la rottura della membrana permette al ghiaccio extracellulare di penetrare nella regione intracellulare. Se la membrana si rompe, ci si può aspettare che l'interno della cellula "sbavi".

Perdita di informazioni contro perdita di funzioni

Il recupero spontaneo delle funzioni in seguito al congelamento alla temperatura dell'azoto liquido, usando le migliori tecniche attualmente disponibili, è improbabile per gli organi di mammiferi, cervello incluso. Nonostante questo, il livello di conservazione della struttura può essere abbastanza buono. La complessità dei sistemi che sono stati congelati ed in seguito riscaldati con successo, è notevole e supporta l'affermazione che una buona conservazione strutturale viene spesso ottenuta. I meccanismi di danno postulati nella letteratura sono tali da giustificare solo una piccola perdita di informazioni; il che significa che è improbabile che sia avvenuta la morte secondo il criterio della teroria dell'informazione. Ulteriori ricerche che puntino a risolvere questo problema sono necessarie.

FERITE ISCHEMICHE E FERITE DA PRE-SOSPENSIONE

Sebbene la moderna sospensione crionica può essere praticata con un ritardo minimo [nota 15] e sospensioni future potrebbero completamente evitare tale ritardo [nota 16], a volte un ritardo è a volte inevitabile [nota 17]. Il tipo di danno più significativo causato da tali ritardi è quello da ischemia. Semplificando, la struttura del cervello umano rimane intatta per parecchie ore e più dopo la cessazione del flusso sanguigno, o ischemia. Le modificazioni del tessuto che avvengono successivamente all'ischemia sono stati ben studiati. Sono state anche studiati i cambiamenti "postmortem" che avvengono nel tessuto. Forse i più interessanti tra questi studi sono stati condotti da Kalimo et. al.[65].

Modificazioni "postmortem" nel cervello umano

Molti ricercatori hanno osservato i cambiamenti "postmortem" nei tessuti neuronali . In "A Comparison of Methodologies for the Study of Functional Transmitter Neurochemistry in Human Brain" Dodd et al.[124] dicono:

"Effetti nel periodo postmortem. Alcune funzioni cerebrali vengono danneggiate in modo irreversibile dopo pochi minuti dalla cessazione del flusso sanguigno nei tessuti. Questo fa si che in molti credano che sarebbe impossibile isolare sostanze medicinali metabolicamente attive e funziananti molto dopo la morte ed usarle per studiare le neurotrasmissioni. Questo, però, è un errore; molti gruppi hanno ottenuto con successo sostanze da tessuti cerebrali umani normali (Tabella 1) [non presente in questo articolo] e patologici (Tabella 2) [non presente in questo articolo] provenineti da autopsie eseguite fino a 24 ore o più dopo la morte. Questo sorprende meno quando si tiene conto della stabilità di enzimi, recettori e acidi nucleici (vedi Hardy e Dodd, 1983 [riferimento 123 in questo articolo]). Con poche eccezioni, il cervello mantiene gli strumenti metabolici per ricostruire i metaboliti dei tessuti e la riserva di neurotrasmettitori. Appare anche che venga mantenuta una integrità strutturale sufficiente a permettere ai vari compartimenti tissutali di rimanere relativamente intatti e distinti."

Esperimenti sia con cervelli umani che animali hanno dimostrato che un preparato utilizzabile può essere isolato normalmente fino ad almeno 24 ore dopo la morte, una scala di tempi entro la quale viene eseguito un numero di autopsie sufficiente a permettere studii neurochimici estesi. Quando il soggetto umano è morto improvvisamente (vedi sotto) [non in questo articolo], tali preparati esibiscono lo stesso genere di caratteristiche presenti in preparati fatti da tessuti animali freschi, o da tessuti umani freschi ottenuti da biopsie o da interventi neurochirurgici. Tali sinaptosomi incubati e tali sezioni di cervello provenienti da cervelli di umani morti respirano, accumulano potassio tessutale, mantengono i potenziali di membrana, rilasciano neurotrasmettitori in modalità dipendente dal calcio, e posseggono sistemi di trasporto attivo sodio dipendenti (vedi Tabella 1 per i riferimenti) [non in questo articolo]. L'esame al microscopio elettronico dei preparati di sinaptosomi da cervelli umani provenienti da cadaveri mostrano essere solo lievemente meno puri che i preparati provenienti da tessuti freschi, sebbene alcuni gradi di danno siano evidenti (Hardy et al., 1982 [non in questo articolo]).

Per studiare i cambiamenti immediati successivi alla "morte", Kalimo et. al. Perfusero il cervello di 5 pazienti con aldeidi entro mezz'ora dalla "morte clinica". Le successive osservazioni del tessuto cerebrale conservato, sia con microscopi ottici che elettronici, mostrarono il livello di conservazione strutturale. In due casi, i cambiamenti descritti erano compatibili con una o due ore di danno ischemico. (Il danno ischemico spesso inizia prima della dichiarazone di "morte clinica", da questo deriva l'apparentemente maggior periodo di danno ischemico comparato con l'intervallo tra la dichiarazione di morte e l'inizio della perfusione con l'agente conservante). La preservazione fisica della struttura cellulare e dell'ultrastruttura era eccellente. E' difficile evitare la conclusione che la perdita di informazione era trascurabile in questi casi. In altri due casi, l'elevata pressione intraparenchimale impedì la perfusione con il conservante, quindi impedì l'esame dei tessuti. Senza tali esami, è difficile trarre conclusioni circa l'estensione della perdita di informazioni. Nel caso finale, "...la più chiara anomalia era la sostituzione di approssimativamente i quattro quinti del parenchima del cervello da parte di una cavità, contenente un fluido, che era segnata da quelli che sembravano i finissimi resti della corteccia cerebrale." La sospensione crionica in quest'ultimo caso non sarebbe stata produttiva.

Come digressione, va notato che la perfusione vascolare di conservanti chimici per migliorare la stabilità delle strutture dei tessuti prima della perfusione con crioprotettivi e la successiva conservazione in azoto liquido sembra offrire dei vantaggi significativi. Il problema principale che richiede una soluzione prima di tale uso è il rischio che il fissagio potrebbe ostruire la circolazione, impedendo quindi la successiva perfusione con i crioprotettivi. A parte questo rischio, l'uso di fissatori chimici (come le aldeidi ed in particolare la glutaraldeide) migliorerebbe la conservazione strutturale in modo affidabile e sarebbe efficace nel fermare quasi completamente il deterioramento nel giro di pochi minuti dall'inizio della perfusione [67]. L'utilità della conservazione chimica è stata discussa da Drexler [1] e da Olson [90], tra gli altri.

Ischemia

Gli avvenimenti successivi ad una ischemia sono stati ragionevolmente ben caratterizzati. Seguendo l'induzione di ischemia in modo sperimentale nei gatti, Kalimo et. al.[74] trovarono "Le alterazioni cellulari derivanti erano omogenee ed uniformi in tutto il cervello: esse includevano una precoce agglutinazione della cromatina, il graduale aumento della lucentezza elettronica del proptoplasma cellulare, distensione del reticolo endoplasmatico e delle cisterne del Golgi, una transitoria condensazione mitocondriale seguita da una distensione e dall'apparire di opacità flocculente, e dispersione delle rosette ribosomiali." I livelli di energia all'interno della cellula scesero velocemente entro pochi minuti dalla cessazione del flusso sanguigno. L'agglutinazione della cromatina è uno dei primi cambiamenti ed è reversibile. La perdita di energia risulta abbastanza velocemente in una incapacità nel mantenere i gradienti di concentrazione attraverso la membrana (per esempio la pompa Na+K+ smette di funzionare, producendo un aumento del Na+ intracellulare e un aumento del K+ extracellulare). L'irregolare equilibrio dei gradienti di concentrazione provoca cambiamenti della pressione osmotica con il conseguente movimento di acqua. Si verifica quindi un rigonfiamento dei mitocondri e di altre strutture. L'apparizione di "opacità flocculente" nei mitocondri si pensa indichi gravi danni interni alla membrana che sono "irreversibili." [nota 18]

Le modificazioni ischemiche non sembrano provocare nessun danno che impedisca la riparazione (e.g., cambiamenti che comportino una significativa perdita di informazioni sulla struttura) per almeno un po' di ore. Un temporaneo recupero funzionale è stato dimostrato in situazioni ottimali dopo anche 60 minuti di ischemia totale [93, 94, 95]. Hossmann, per esempio, riportò i risultati su 143 gatti soggetti ad un'ora di ischemia cerebrale totale normotermica [97]. "La temperatura corporea era mantenuta tra i 36 e i 37 gradi C con un tappetino riscaldante. ... La totale ischemia era testata iniettando Xeno 133 nell'arteria innominta subito prima dell'occlusione vascolare e monitorando l'assenza di decadimento radioattivo dalla testa durante l'ischemia, usando sensori esterni di scintillazione. ... Nel 50% degli animali, dopo l'ischemia fu osservato un ritorno spontaneo ad una attività EEG di livello superiore.... Un gatto sopravvisse per un anno dopo un'ora di arresto della circolazione cerebrale normotermica senza deficit elettrofisiologici e con solo lievi disturbi neurologici e morfologici." Il recupero funzionale è un criterio più ristretto, rispetto al più ampio criterio della teoria dell'informazione, che richiede semplicemente una adeguata conservazione strutturale per permettere la ricostruzione della struttura precedente. Una affidabile identificazione delle varie strutture cellulari è possibile dopo un intervallo di ore e, a volte, giorni. Dettagliate descrizioni dell'ischemia e del suo decorso nel tempo [72, pagina 209 et sequitur] mostrano chiaramente che il raffreddamento rallenta in modo sostanziale la velocità di deterioramento. Quindi, anche un moderato raffreddamento "postmortem" rallenta il deterioramento in modo significativo.

Lisosomi

La teoria secondo la quale i lisosomi ("le sacche del suicidio") si rompano e rilascino enzimi digestivi nella cellula  provocando un rapido deterioramento della struttura chimica, sembra non essere corretta. Più in generale, esiste una quantità di studi che suggeriscono che il deterioramento strutturale non avviene rapidamente.

Kalimo et. al.[74] dissero: "Vale notare che dopo 120 minuti di completa privazione sanguigna non abbiamo visto segni di rottura delle membrane lisosomiali, una osservazione che è stata fatta anche in studi in vitro sul danno cellulare letale [riferimenti omessi], e nell'ischemia cerebrale regionale [riferimenti omessi]."

Secondo Hawkins et. al.[75]: "...i lisosomi non si rompono per circa 4 ore e di fatto non rilasciano il pigmento fluorescente fino a che non sia stata raggiunta la fase del danno necrotico postmortem. ... Il meccanismo di danno cellulare delle sacche suicide, quindi, non sembra essere operativo nei sistemi studiati. I lisosomi appaiono essere degli organelli relativamente stabili...."

RNA messaggero e proteine

Morrison e Griffin [76] dissero "Troviamo che l'mRNA cerebellare del ratto e quello umano sono sorprendentemente stabili in presenza di una varietà di condizioni postmortem e che mRNA ad alto peso molecolare, biologicamente attivo, può essere isolato da tessuti postmortem. ... Una comparazione dell'RNA recuperato dal cervello fresco di ratti e dal cervello esposto a differenti trattamenti postmortem mostra che l'83% dell'RNA citoplasmatico totale presente immediatamente dopo la morte era recuperato anche quando il cervello dei ratti era lasciato a temperatura ambiente per 16 ore dopo la morte e che il 90% era recuperato quando il cervello era lasciato a 4 gradi C per questa lunghezza di tempo .... In nessuno dei casi il recupero dell'RNA era ridotto dall'immagazzinazione del cervello nell'azoto liquido prima delle analisi. ... Studi di controllo sulla stabilità delle proteine nel cervello di ratti dopo la morte, mostra che lo spettro delle proteine più abbondanti non è cambiato dopo 16 ore a temperatura ambiente...." Johnson et. al. [125] in "Extensive Postmortem Stability of RNA From Rat and Human Brain" trovarono che ritardi postmortem fino a 48 ore "...non dimostrarono una degradazione del mRNA specifico del cervello durante il periodo postmortem." Essi dissero anche "Non trovammo effetti da ritardi postmortem sulla qualità dell'mRNA sia di topi che di umani."

La sopravvivenza del DNA per 20 milioni di anni

L'abilità del DNA di spravvivere per lunghi periodi di tempo è stata dimostrata in modo spettacolare dal suo recupero e dalla sua sequenziazione da una foglia di magnolia vecchia tra i 17 e i 20 milioni di anni [81]. "Sedimenti e fossili sembrano essersi accumulati nell'ambiente povero di ossigeno del fondo di un lago; essi sono rimasti non ossidati e saturi di acqua fino ai nostri gironi." "La maggior parte delle foglie sono conservate come fossili compressi, comunemente mantengono i tessuti cellulari intatti con una notevole conservazione ultrastrutturale, comprendendo pareti cellulari, i fitoliti delle foglie, e gli organelli intracellulari, così come molti componenti organici come flavonoidi e steroidi [riferimenti omessi]. Ci sono poche prove di modificazioni successive al deposito (diagenetiche) in molte delle foglie fossili."

ADDENDUM: Un articolo del 1997 [130] critico del precedente lavoro che tentò di recuperare DNA da sorgenti antiche disse "La dove le sequenze di DNA antico proveniente da campioni più giovani di 100.000 anni sono state fino ad ora replicate indipendentemente (Hagelberg et al. 1994; Hoss et al. 1994; Taylor 1996), abbiamo fallito nel recuperare DNA antico autentico da fossili preservati nell'ambra." Per i nostri scopi la distinzione tra 100.000 anni e 100.000.000 di anni non è critica: entrambe le cifre sono sostanzialmente più lunghe del tempo che una persona potrebbe ragionevolmente aspettarsi di rimanere in sospensione crionica.

Culture cellulari prese dopo la "morte"

Gilden et. al. [77] riportano che "...quasi due terzi di tutti i tessuti acquisiti entro sei ore dopo la morte venivano cresciuti con successo, la dove solo un terzo dei tessuti acquisiti dopo sei ore dalla morte veniva cresciuto con successo in colture cellulari." Sebbene sarebbe scorretto concludere che ci sia un'ampia sopravvivenza cellulare in base a questi risultati, essi mostrano che il deterioramento strutturale è insufficiente a distruggere il funzionamento in almeno alcune cellule. Questo supporta l'idea che il deterioramento strutturale in moltre altre cellule non dovrebbe essere esteso.

Perdita di informazioni e ischemia

Attualmente è possibile iniziare una sospensione immediatamente dopo la morte legale. In circostanze favorevoli la morte legale può essere dichiarata nel momento della cessazione del battito cardiaco in un malato terminale rianimabile in altre circostanze che desidera una morte naturale e che ha rifiutato i metodi artificiali di prolungamento del processo di morte. In tali casi, l'intervallo ischemico può essere breve (due o tre minuti). Non è plausibile che il danno ischemico provochi la morte secondo la teoria dell'informazione in un caso simile. Se l'intervallo ischemico aumenta, il livello del danno cresce. Non è chiaro quando esattamente inizi la perdita di informazioni o quando avvenga la morte secondo la teoria dell'informazione. Le prove attuali supportano, ma non provano, l'ipotesi che la morte secondo la teoria dell'informazione non avvenga fino ad alcune ore dopo l'inizio dell'ischemia. E' abbastanza realistico che molte ore di ischemia possano essere tollerate. Il congelamento dei tessuti in questo arco di tempo e la successiva conservazione in azoto liquido dovrebbe permettere una conservazione della struttura adeguata a permettere la riparazione [nota 19].

MEMORIA

E' essenziale domandarsi se è verosimile che gli elementi strutturali sottostanti la "plasticità comportamentale" (memoria e personalità umana) siano preservati attraverso la sospensione crionica. Chiaramente, se la memoria umana è immagazzinata in una forma fisica che viene cancellata dal congelamento, allora la sospensione crionica non funziona. In questa sezione considereremo brevemente alcuni degli aspetti più importanti delle nostre conoscenze attuali sulla memoria a lungo termine e se sia verosimile che i suoi meccanismi conosciuti o probabilmente esistenti, possano essere conservati attraverso il congelamento.

Sembra essere probabile che la memoria a breve termine, che può essere distrutta da un trauma o da un certo numero di altri processi, non sarà preservata attraverso la sospensione crionica. Il consolidamento della memoria a breve termine in memoria a lungo termine è un processo che richiede parecchie ore. Focalizzeremo la nostra attenzione esclusivamente sulla memoria a lungo termine, in quanto questa è molto più stabile. Mentre la conservazione della memoria a breve termine non può essere esclusa (in particolare se una conservazione chimica viene utilizzata per fornire un fissaggio rapido iniziale), la sua maggiore fragilità rende la sua preservazione significativamente meno probabile.

Vedere le Cascate del Niagara o la Monna Lisa ci cambia, così come vedere il nostro show preferito alla tv o leggere un buon libro. Questi cambiamenti sono sia figurativi che letterali ed è a tale letteralità (o neuroscientificità) che siamo interessati: quali sono le alterazioni fisiche su cui si basa la memoria?

Brevemente, le prove disponibili supportano l'idea che la memoria e la personalità siano immagazzinate in modificazioni fisiche rilevabili nelle cellule nervose e che le alterazioni nelle sinapsi tra le cellule nervose giocano un ruolo fondamentale.

Shepherd in "Neurobiology" [38, pagina 547] disse: "Il concetto che le funzioni del cervello siano mediate da gruppi di cellule e circuiti neuronali è ormai ampiamente accettato, come sarà chiaro al lettore di questo libro, e la maggior parte dei neurologi credono che modificazioni plastiche delle sinapsi siano i meccanismi sottostanti all'apprendimento e alla memoria."

Secondo Kupfermann in "Principles of Neural Science"[13, pagina 1005]: "Data la natura durevole della memoria, appare ragionevole postulare che in qualche modo i cambiamenti devono essere riflessi in alterazioni a lungo termine delle connessioni tra i neuroni."

Eric R. Kandel in "Principles of Neural Science" [13, pagina 1016] disse: "Cambiamenti morfologici sembrano essere la firma dei processi a lungo termine. Questi cambiamenti non avvengono con la memoria a breve termine (Figure 65-6 [non riprodotte qui]). Inoltre, i cambiamenti strutturali che avvengono con il processo a lungo termine non sono ristretti alla [sic] crescita. Adattamenti a lungo termine portano al cambiamento opposto, una regressione e una potatura delle connessioni sinaptiche. Con adattamenti a lungo termine, dove le connessioni funzionali tra neuroni sensoriali e moto neuroni sono disattivate (Figure 65- 2 [non riprodotte qui]), il numero di terminali per neurone viene ridotto in modo corrispondente di un terzo (Figure 65-6 [non riprodotte]) e la proporzione delle terminazioni con zone attive viene ridotta dal 40% al 10%."

Squire in "Memory and Brain" [109, pagina 10] disse: "La visione prevalente è stata che la specificità delle informazioni immagazzinate è determinata dalla localizzazione dei cambiamenti sinaptici nel sistema nervoso e dal tracciato di interazioni neuronali alterate che questi cambiamenti producono. Questa idea attualmente è ampiamente accettata, e sarà esplorata ancora in questo e nei capitoli successivi alla luce delle attuali evidenze."

Lynch, in "Synapses, Circuits, and the Beginnings of Memory" [34, pagina 3] disse: "La domanda di quali componenti del neurone siano responsabili per la conservazione è vitale per tentare di sviluppare ipotesi generalizzate su come il cervello codifica e utilizza la memoria. Dato che i singoli neuroni ricevono e generano migliaia di connessioni e quindi partecipano in quello che deve essere un vasto insieme di circuiti potenziali, la maggior parte dei teorici ha postulato un ruolo centrale delle modificazioni della sinapsi nella formazione della memoria."

Turner e Greenough dissero "Due meccanismi che non si escludono a vicenda di immagazzinamento delle informazioni nel cervello sono rimasti le teorie guida dalla loro introduzione da parte di Ramon y Cajal [riferimento omesso] e Tanzi [riferimento omesso]. La prima ipotesi è che la formazione di nuove sinapsi, o il mantenimento di sinapsi selezionate, produca una circuiteria cerebrale alterata che codifica nuove informazioni. La seconda è che una alterata efficacia sinaptica produca gli stessi cambiamenti [sic] ."[22].

Greenough e Bailey in "The anatomy of a memory: convergence of results across a diversity of tests"[39] dicono: "Più recentemente è diventato chiaro che l'ordine delle connessioni sinaptiche nel sistema nervoso maturo può subire cambiamenti importanti anche durante il normale funzionamento. Con l'aumentare del numero di specie e di processi plastici osservati per cambiamenti morfologici, ha comiciato ad emergere una convergenza su una serie di fenomeni strutturali individuabili. Sebbene parecchi aspetti della struttura sinaptica sembrino cambiare con l'esperienza, il più consistente substrato potenziale per l'immagazzinamento della memoria durante le modifiche comportamentali è l'alterazione del numero e/o della disposizione delle connessioni sinaptiche."

Sembra probabile, quindi, che la memoria umana a lungo termine sia codificata da modificazioni fisiche individuabili nella struttura della cellula e in particolare nella struttura sinaptica.

Modifiche plastiche in sistemi modello

Quale forma potrebbero prendere, esattamente, questi cambiamenti? "Sistemi modello" semplici ci danno chiare risposte. Bailey e Chen, per esempio, identificarono parecchi cambiamenti specifici nella struttura sinaptica che codifica le memorie apprese da lumache di mare (Aplysia californica) attraverso l'esame diretto della sinpasi modificata, con microscopio elettronico [36].

"Usando perossidase di barbaforte (HRP) per etichettare le terminazioni presinaptiche (varicositi) dei neuroni sensoriali e la ricostruzione seriale per analizzare i contatti sinaptici, possiamo comparare la struttura fine di sinapsi identificate di neuroni sensoriali in animali di controllo e in animali comportamentalmente modificati. I nostri risultati indicano che l'apprendimento può modulare l'efficenza sinaptica a lungo termine alterando il numero, la grandezza e il complemento vescicolare delle zone sinaptiche attive."

Gli esami attraverso microscopi elettronici a trasmissione, in condizioni di vuoto, di sezioni dello spessore di 100 nm (parecchie centinaia di diametri atomici), riportano poche, se non nessuna, informazione chimica. La risoluzione laterale è al più di pochi nanometri (decine di diametri atomici), e l'informazione sulla profondità (all'interno dello spessore della sezione di 100 nanometri) è completamente persa. La preparazione dei  campioni include la rimozione e lo "sgusciamento" dei gangli addominali che quindi erano bagnati in acqua di mare per 30 minuti prima di essere infilzati ed iniettati con una iniezione a pressione intrasomatica di HRP. Due ore dopo i gangli erano fissati chimicamente, trattati istochimicamente, ed immersi. Dopo questo trattamento, Bailey e Chen conclusero che "...chiari cambiamenti strutturali accompagnavano modificazioni comportamentali, e questi cambiamenti possono essere individuati al livello delle sinapsi identificate come  critiche nell'apprendimento."

Sono ora necessarie alcune osservazioni su questo esperimento. Primo, svariati tipi di cambiamenti sono stati rilevati. Ciò prova chiaramente che le sinapsi furono modificat. L'inabilità di rilevare un tipo di cambiamento o l'obliterazione di un tipo specifico di cambiamento non sarebbe sufficiente a prevenire il recupero dello "stato" della sinapse. Secondo, l'esame con microscopio elettronico è molto meno preciso di altre tecniche qui considerate, dato che queste ultime analizzerebbero letteralmente ogni molecola facente parte della struttura. Analizzando le sinapsi fossero studiate a livello molecolare, ulteriori alterazioni nella chimica delle sinapsi sarebbero rilevabili. Terzo, non c'è ragione di credere che il congelamento oblitererebbe la struttura al punto da renderla irriconoscibile.

Implicazioni per la memoria umana

Questa dimostrazione, per quanto rassicurante, è attualmente confinata ai "sistemi modello"; che cosa possiamo concludere circa sistemi più complessi, e.g., umani? Certamente, possiamo dire che le alterazioni sinaptiche sono usate anche nel sistema della memoria umana, che i cambiamenti sinaptici di vario tipo avvengono quando la sinapse "ricorda" qualche cosa e che i cambiamenti implicano alterazioni in svariate  migliaia di molecole e probabilmente implicano meccanismi simili a quelli usati in organismi inferiori (l'evoluzione è notoriamente conservativa).

Sembra quindi verosimile che la conoscenza della morfologia e della connettività delle cellule del sistema nervoso, insieme ad una specifica conoscenza dello stato biochimico delle cellule in questione, dovrebbe essere sufficiente a determinare memoria e personalità. E' possibile che negli esseri umani esistano meccanismi fondamentalmente diversi? Anche se ciò fosse dimostrato, tale sistema sarebbe pur sempre limitato da altri fattori di cui siamo ampiamente a conoscenza. Esso dovrebbe quindi persistere durante l'arco di vita di un essere umano e di conseguenza dovrebbe essere abbastanza stabile. Dovrebbe essere in grado di tollerare le condizioni naturali incontrate dagli esseri umani e le condizioni sperimentali alle quali i primati sono stati soggetti senza perdita di memoria e di personalità (presumendo che il cervello di un primate sia simile al cervello umano). Ed infine, dovrebbe molto probabilmente necessitare cambiamenti di decine di migliaia di molecole per immagazzinare ogni bit di informazione. Studi funzionali della memoria umana a lungo termine suggeriscono che essa abbia una capacità di solo 10^9 bit (un po' di più di 100 megabyte) [37] (sebbene questo non consideri la memoria motoria, e.g., lo spazio di memoria necessario quando si impara ad andare in bicicletta). Una tale capacità di memoria suggerisce che, indipendentemente dal meccanismo specifico, una grande quantità di molecole sono necessarie per ricordare ogni bit. Questo suggerisce anche che molte sinapsi siano utilizzate per immagazzinare ogni bit (non dimentichiamo che ci sono all'incirca  10^15 sinapsi - il che implica qualche cosa come 10^6 sinapsi per bit di informazione immagazzinata nella memoria a lungo termine).

Dato che la tecnologia futura permetterà l'analisi molecola per molecola delle strutture che conservano la memoria, e dato che tali strutture sono grandi su scala molecolare (ognuna coinvolge come minimo decine di migliaia di molecole) appare quindi improbabile che tali strutture sopravvivano per tutta la durata della vita umana, solo per essere cancellate dal congelamento, aldilà di ogni capacità di ricostruzione. E' inverosimile che la  sospensione crionica causi la morte secondo la teoria dell'informazione.

PANORAMICA TECNICA

Anche se la morte secondo i criteri della teoria dell'informazione non è avvenuta, un cervello congelato non è  certo una struttura sana. Sebbene la riparazione sembra essere fattibile in teoria, sarebbe incoraggiante avere almeno qualche idea su come tale riparazione potrebbe avvenire in pratica. Possiamo trarre delle conclusioni ben fondate sui limiti e sulle capacità di qualsiasi tecnologia riparativa di questo tipo partendo dal presupposto che le leggi della fisica, della chimica e della biochimica oggi conosciute formeranno la struttura di base all'interno della quale, in futuro, avverrà la riparazione.

La natura di questa proposta

Per decidere se perseguire la sospensione crionica o meno dobbiamo rispondere ad una domanda: sarà mai possibile riportare un tessuto congelato ad uno stato funzionale e sano? Se la risposta è "si" allora la crionica salverà delle vite. Se la rispoosta è "no", possiamo tranquillamente ignorarla. Come discusso in precedenza, il massimo livello di informazioni che possiamo ottenere su di un tessuto congelato include il tipo, la posizione e l'orientamento di ogni sua molecola. Se questa informazione è sufficiente a permettere di stimare quale sia lo stato di salute di tale tessuto, con memoria e personalità mantenute intatte, allora la riparazione è fattibile in teoria. Il massimo che la tecnologia del futuro potrebbe offrire, quindi, è l'abilità di restaurare la struttura in ogni situazione in cui tale restauro è teoricamente possibile. Noi proponiamo che ci si avvicinerà a questo limite attraverso i futuri progresssi tecnologici.

Non è ragionevole pensare che l'attuale proposta formerà, di fatto, la base dei futuri metodi di riparazione per due ragioni:

Primo, è verosimile che approcci e metodi migliori saranno sviluppati. Chiaramente, noi dobbiamo limitarci alle tecniche e ai metodi che possono essere analizzati e compresi usando le leggi della fisica e della chimica conosciute al giorno d'oggi. I progressi scientifici futuri, non previsti in questo momento, probabilmente  risulteranno in metodi più semplici, più affidabili e meno costosi. La storia della scienza e della tecnologia dimostra che la probabilità che emergano futuri sviluppi oggi non immaginabili, è elevata.

Secondo, questa proposta è stata selezionata sulla base della sua semplicità concettuale e della sua chiara capacità di riparare virtualmente ogni struttura la cui riparazione è possibile in linea di principio. Tutto ciò, comunque, probabilmente non sarà un problema in sistemi futuri. Infatti, la semplicità concettuale è utile  quando le risorse disponibili per la progettazione sono limitate. Ci si può ragionevolmente aspettare che le future capacità progettuali supereranno ampiamente quelle attuali e che gruppi di ricerca di grandi dimensioni possano intraprendere proposte molto più complesse di quella qui presentata.Inoltre, i sistemi futuri saranno progettati per guarire specifici individui che hanno subito specifici tipi di danno, e potranno quindi usare metodi specifici, cioè metodi meno generici, più efficienti o meno costosi per un particolare tipo di danno. Una sistema di utilizzo generico come quello qui proposto è costretto ad affidarsi a metodi relativamente semplici, ma potenti, anche se questi metodi sono meno efficienti.

Perché, allora, prendere in considerazione un metodo che, sebbene potente e di uso generico, è però inefficiente, non può sfruttare le specificità dei ripari da portare a termine e che quasi certamente sarà surclassato dalla tecnologia futura?

Lo scopo di questo articolo non è quello di gettare le basi di sistemi futuri, ma di ripondere ad una domanda: la crionica funzionerà? Chiaramente, il valore della crionica si basa su capacità tecniche che non saranno sviluppate per decenni a venire (o più a lungo). Se una proposta relativamente semplice si dimostra possibile, allora il valore della crionica è stabilito. Che questa semplice proposta sia realmente utilizzata o no, è irrilevante. Il fatto stesso che potrebbe essere utilizzata, nel caso improbabile che tutti gli altri progressi tecnici e tutti gli altri approcci falliscano, ci permette di decidere, oggi, se valga la pena di prendere in considerazione la sospensione crionica oppure no.

I problemi filosofici impliciti in questo tipo di previsioni tecnologiche a lungo termine e le metodologie appropriate a ciò area sono affrontate nel campdo della "ingegneria esplorativa".[1, 85] Lo scopo dell'ingegneria esplorativa è di fornire i limiti minimi delle future capacità tecniche basandosi sui principi scientifici oggi accettati. Un esempio, sono le previsioni di Konstantin Tsiolkovsky's all'inizio del secolo [il ventesimo - NdT] che missili a più stadi avrebbero potuto raggiungere la Luna. La sua previsione era basata sui ben conosciuti principi della meccanica Newtoniana. Sebbene non avesse previsto quando sarebbero stati realizzati, né chi avrebbe sviluppato tale tecnologia, né tantomeno i dettagli del booster del Saturno V, predisse che le capacità tecniche erano realizzabili e che sarebbero state sviluppate. Similmente, noi discuteremo delle capacità tecniche che dovrebbero essere realizzabili e che cosa queste capacità dovrebbero rendere possibile.

Concettualmente, l'approccio che seguiremo è semplice:

Determina le coordinate e l'orientamento di tutte le molecole più grandi, e immagazzina queste informazioni in un database.

Analizza le informazioni immagazzinate nel database con un software che determini quali cambiamenti nella struttura esistente dovrebbero essere fatti per ripararla e riportarla in uno stato sano e funzionale.

Prendi le molecole originali e riportale, una alla volta, nella loro posizione corretta.

Il lettore senza dubbio concorderà che questa proposta è concettualmente semplice, ma potrebbe essere preoccupato da un certo numero di problemi tecnici. I problemi più importanti sono discussi nell'analisi che segue.

Una evidente inefficienza di questo approccio è il fatto che si smontano e si ri-assemblano strutture ed intere regioni che di fatto sono funzionali o solo lievemente danneggiate. Sarebbe più veloce e meno costoso ignorare le regioni funzionanti, o utilzzare dei sistemi di riparazione relativamente semplici per specifici danni minori. Nonostante queste debolezze, l'approccio generico qui illustrato è utile per dimostrare i principi coinvolti. In altre parole, questo approccio è più facile da valutare, a meno che tale inefficienza non divenga così grave da rendere l'approccio irrealizzabile, o economicamente irrealistico.

Panoramica del cervello

Il cervello ha un volume di 1350 centimetri cubici (circa un quarto e mezzo di gallone) e un peso lievemente superiore ai 1400 grammi (circa tre libbre). Il più piccolo, normale, cervello umano misurato, pesava 1100 grammi, mentre il più grande pesava 2050 grammi [30, pagina 24]. Il cervello è composto per quasi l'80% del suo peso da acqua. Il rimanente 20% è formato per poco meno del 40% da proteine, per poco più del 50% da lipidi, e per una piccola percentuale da altre sostanze [16, pagina 419]. Quindi, un cervello medio ha poco più di 100 grammi di proteine, circa 175 grammi di lipidi, e tra i 30 e i 40 grammi di "altra roba".

Quante molecole

Se stiamo considerando una riparazione a livello molecolare, una domanda ovvia è: quante molecole ci sono? Possiamo facilmente approssimare la risposta, iniziando con le proteine. Una proteina "media" ha un peso molecolare di circa 50.000 amu. Una mole di proteine "medie" pesa 50.000 grammi (per definizione), quindi i 100 grammi di proteine nel cervello sono 100/50.000 oppure .002 moli. Una mole è 6.02 x 10^23 molecole, così .002 moli sono 1.2 x 10^21 molecole.

Procedendo nello stesso modo per i lipidi (i lipidi sono usati più frequentemente per costituire le membrane cellulari) un "tipico" lipide potrebbe avere un peso molecolare di 500 amu, che è 100 volte inferiore al peso mlecolare di una proteina. Questo implica che il cervello ha circa 175/500 x 6.02 x 10^23 o circa 2 x 10^23 molecole di lipidi.

Infine, l'acqua ha un peso molecolare di 18, così che vi saranno circa 1400 x 0.8/18 x 6.02 x 10^23 o circa 4 x 10^25 molecole d'acqua nel cervello. In molti casi una percentuale sostanziale di acqua sarà stata sostituita dal crioprotettivo durante il processo di sospensione; il glicerolo ad una concentrazione 4 molare o superiore, per esempio. Sia l'acqua che il glicerolo saranno trattati all'ingrosso, e così lo scambio tra molecole di acqua e glicerolo (o un'altro crioprotettivo) non dovrebbe avere un impatto significativo sui calcoli che seguono.Questi numeri sono fondamentali. La riparazione del cervello a livello molecolare richiederà che li confrontiamo.

Quanto tempo

Un'altro parametro di cui dobbiamo decidere il valore è il tempo di riparazione necessario per molecola. Partiamo dal presupposto che la durata della riparazione includa il tempo richiesto per determinare la posizione della molecola nel tessuto congelato e il tempo richiesto per riportarla nella sua corretta posizione, nonché il tempo necessario per diagnosticare e riparare ogni difetto strutturale nella molecola. La capacità computazionale necessaria per analizzare danni strutturali su vasta scala - e.g., questo mitocondrio ha sofferto dei danni alla struttura interna della sua membrana (le cosidette "densità flocculente") - dovrebbe essere inferiore alla capacità richiesta per analizzare ogni singola molecola. Un'analisi a livello degli organelli sub-cellulari implica un numero di componenti di diversi ordini di magnitudine inferiore e quindi richiederà una corrispondente inferiore capacità elaborativa. L'analisi a livello cellulare implica anche meno componenti. Possiamo quindi trascurare il tempo richiesto da questi ulteriori carichi elaborativi. Il tempo totale richiesto per la riparazione è esattamente la somma, per tutte le molecole, del tempo richiesto da un dispositivo di riparazione per riparare una molecola diviso per il numero di dispositivi di riparazione. Più dispositivi di riparazione ci sono, più veloce sarà la riparazione. Più molecole ci sono e più tempo è necessario per riparare una molecola e più lenta sarà la riparazione.

Il tempo richiesto da un ribosoma per produrre una proteina composta da 400 aminoacidi è di circa 10 secondi [14, pagina 393], o circa 25 millisecondi per ogni aminoacido. Il DNA polimerase III può aggiungere una base addizionale ad una stringa di DNA che si sta replicando in circa 7 millisecondi [14, pagina 289]. In entrambi i casi, la sintesi avviene in soluzione è un significativo ritardo è dovuto al fatto che i componenti necessari raggiungono i siti reattivi per diffusione. E' logico quindi aspettarsi che la velocità delle reazioni controllate da un assemblatore sarà più alta di quella degli attuali sistemi biologici. Il braccio di un assemblatore dovrebbe essere capace di compiere un movimento completo e causare una singola trasformazione chimica in circa un microsecondo [85]. Comunque, per essere prudenti, baseremo i nostri calcoli sulla velocità di sintesi già dimostrata dai sistemi biologici, ed in particolare la (piuttosto bassa)  velocità di sintesi delle proteine.

Non è sufficiente, però, sintetizzare la molecola richiesta - dobbiamo anche analizzare le molecole esistenti, possibilmente ripararle e muoverle dalla loro posizione originale alla posizione finale da noi desiderata. Gli anticorpi possono identificare specifiche molecole legandosi selettivamente a queste, il che dimostra che è possibile, in teoria, identificare singole molecole. Anche assumendo che la tecnologia impiegata sia diversa, appare improbabile che tale analisi richieda un tempo sostanzialmente maggiore del tempo necessario per la sintesi, quindi sembra ragionevole moltiplicare il tempo di sintesi per un fattore di poche unità per fornire una stima del tempo speso per ogni molecola. Questo dovrebbe, in teoria, darci il tempo richiesto per smontare e rimontare la molecola selezionata usando metodi non più veloci di quelli impiegati dai sistemi biologici. Sebbene le esatte dimensioni del fattore moltiplicativo potrebbe essere soggetto di dibattuto, sembra ragionevole azzardare che un fattore di 10 dovrebbe essere sufficiente. Il tempo totale richiesto per muovere semplicemente una molecola dalla sua posizione originale fino alla sua destinazione finale nella struttura riparata dovrebbe essere inferiore al tempo richiesto per smontarla e rimontarla, così presumeremo che il tempo totale richiesto per analizzare, riparare e spostare sia di 100 secondi per proteina.

Temperatura di analisi

Riscaldare il tessuto prima di determinare la sua struttura molecolare crea un chiaro problema: tutto sarà in movimento. Una semplice soluzione a questo problema è di mantenere congelato il tessuto fino a che tutte le informazioni desiderate sulla sua struttura siano state recuperate. In questo caso l'analisi avverrà a bassa temperatura. Se le successive operazioni debbano avvenire alla stessa bassa temperatura o no, è lasciato da decidere. Una sezione successiva affronterà i vari approcci che possono essere usati per restaurare la struttura, dopo che è stata analizzata.

Riparare o rimpiazzare?

In pratica, la maggior parte delle molecole sarà probabilmente intatta - esse non dovrebbero essere né disassemblate né riassemblate. Questo dovrebbe ridurre di molto il tempo di riparazione. In una nota più filosofica, i sistemi biologici generalmente non si interessano alla riparazione delle macromolecole (una eccezione importante è il DNA - una serie di meccanismi molecolari per la riparazione di questa molecola viene usata dalla maggior parte degli organismi). La maggior parte delle molecole viene invece usata per un certo periodo di tempo e quindi frantumata e rimpiazzata. C'è un lento e continuo ricambio della struttura molecolare - gli atomi del panino al prosciutto mangiato ieri vengono usati oggi per riparare e rimpiazzare muscoli, nervi, pelle, ecc. Adottando la filosofia della natura, cioè eliminando le molecole danneggiate e sostituendole, semplificheremo di molto la "riparazione" molecolare.

Portando tale approccio alle sue logiche conclusioni, dovremmo scartare e rimpiazzare tutte le molecole della struttura. Avendo determinato il tipo, la posizione e l'orientamento di una molecola nella struttura originale (congelata), dovremmo semplicemente gettare via quella molecola e sostituirla. Questo richiede solo che noi si sia capaci di identificare la posizione e il tipo della singola molecola. Non sarebbe necessario determinare se la molecola sia danneggiata, né sarebbe necessario correggere ogni danno trovato. Per definizione, la molecola di rimpiazzo sarebbe presa da una riserva di molecole strutturalmente corrette che sono state sintetizzate in precedenza, "all'ingrosso" e con il metodo più semplice ed economico disponibile.

L'idea di scartare e rimpiazzare anche pochi atomi potrebbe non piacere a qualcuno. Questo può essere facilmente evitato: basta analizzare e riparare ogni molecola danneggiata. Però, coloro che considerano accettabile la semplice rimozione di molecole danneggiate e la loro sostituzione, avranno il vantaggio di usufruire di un processo di riparazione significativamente semplificato. Per gli scopi di questo articolo, comunque, continueremo ad usare il tempo di riparazione più lungo, stimato in base alla premessa che la completa riparazione di ogni singola molecola è richiesta. Questo sembra essere l'approccio più prudente. (Coloro che ritengono che rimpiazzare i propri atomi cambi la loro identità, invece, dovranno pensarci bene prima di mangiare il loro prossimo pasto!)

Secondi-macchina di riparazione

Partiamo dal presupposto che il tempo di riparazione per molecole diverse sia proporzionale alle unità di massa. Questo significa che il tempo di riparazione dei lipidi (che pesano circa 100 amu, 100 volte meno di una proteina) sia circa 100 volte inferiore al tempo di riparazione di una proteina. Il tempo di riparazione di una molecola di lipidi si presume sia di 1 secondo. Trascureremo le molecole d'acqua in questa analisi, presumendo che possano essere gestite all'ingrosso.

Riteniamo che il tempo richiesto per analizzare e sintetizzare una singola molecola sarà molto maggiore del tempo richiesto per determinarne la posizione, del tempo richiesto per determinarne la corretta posizione all'interno della struttura riparata e del tempo richiesto per metterla al suo posto. Queste stime sono verosmili, ma saranno esplorate ulteriormente quando considereremo i metodi necessari per raggiungere e muovere le molecole durante il processo di riparazione.

Questa analisi riguarda il grosso delle molecole - è inverosimile che altre specie molecolari richiedano un significativo aumento del tempo di riparazione. In base a queste assunzioni, troviamo che abbiamo bisogno di 100 secondi x 1,2 x 10^21 molecole proteiche + 1 secondo x 2 x 10^23 lipidi, o 3.2 x 10^23 secondi per macchina di riparazione. Questo numero non è fondamentale come il numero delle molecole nel cervello. E' basato sulla (probabilmente prudente) stima che la riparazione di 50.000 amu richieda 100 secondi. Una riparazione più veloce implica che la riparazione potrebbe essere fatta con meno macchine riparatrici, o in meno tempo.

Quante macchine riparatrici

Se fissiamo il tempo totale richiesto per la riparazione, possiamo determinare il numero di dispositivi di riparazione che devono funzionare in parallelo. Adotteremo in modo arbitrario 10^8 secondi, che è molto vicino a 3 anni, come tempo totale nel quale desideriamo completare la riparazione. Se il tempo totale di riparazione è di 10^8 secondi, e abbiamo bisogno di 3.2 x 10^23 secondi per macchina di riparazione, allora noi abbiamo bisogno di 3.2 x 10^15 macchine di riparazione del cervello. Questo corrisponde a 3.2 x 10^15 / (6.02 x 10^23) o 5.3 x 10^-9 moli, o 5.3 nanomoli di macchine di riparazione. Se ogni dispositivo pesa 10^9 to 10^10 amu, allora il peso totale di tutti i dispositivi di riparazione è tra i 53 e i 530 grammi: da poche once a poco più di una libbra.

Quindi, il peso delle macchine di riparazione richieste per riparare ogni molecola del cervello, assumendo che i dispositivi operino non più velocemente  degli attuali metodi biologici, è circa dal 4% al 40% della massa del cervello. Per fare una comparazione, ci sono circa 10^14 cellule [44, pagina 3] nel corpo umano e ogni cellula ha circa 10^7 ribosomi [14, pagina 652] che dà 10^21 ribosomi. Quindi, ci sono circa sei ordini di grandezza più ribosomi nel corpo umano, del numero di macchine di riparazione stimate come necessarie per riparare un cervello umano.

Appare inverosimile che siano necessari dispositivi più grandi o più numerosi. Comunque, è rassicurante  notare che anche se queste stime contenessero errori di parecchi ordini di grandezza, questi potrebbero essere  facilmente essere tollerati. Se fossero necessari 530 kilogrammi di dispositivi di riparazione (da 1,000 a 10,000 volte in più della nostra stima) l'impatto pratico sulla fattibilità della riparazione sarebbe relativo. Chiaramente, gli scenari di riparazione che implichino il rilascio dei dispositivi all'interno del cervello non potrebbero essere utilizzati, se avessimo bisogno di 530 kg di macchine di riparazione, tuttavia altri scenari potrebbero essere applicati - uno di tali approcci viene discusso più avanti. Dato che la  nanotecnologia è realizzabile, i costi di produzione dei dispositivi di riparazione saranno ridotti. Il costo di anche 530 kg di dispositivi di riparazione alla fine sarà significativamente inferiore a qualche centinaio di dollari. Possiamo concludere, quindi, che la realizzabilità della riparazione a livello molecolare non è affetta  da eventuali errori presenti nelle proiezioni qui presentate (anche se questi fossero sostanziali).

IL PROCESSO DI RIPARAZIONE     

Occupiamoci ora dell'impiego fisico di questi dispositivi di riparazione. Abbiamo calcolato il numero di dispositivi necessario, ma ora dobbiamo investigare in che modo utilizzare questi dispositivi in modo che possano portare avanti le riparazioni necessarie.   

Altre proposte: riparazione interna  

Divideremo gli scenari di riparazione grossomodo in due classi: interni ed esterni. Negli scenari interni, i dispositivi di riparazione sono rilasciati all'interno del volume del cervello. Le strutture esistenti sono disassemblate sul posto, i loro componenti analizzati, riparati e ricostruiti sul posto. (classifichiamo come "interni" quegli scenari nei quali i dispositivi di riparazione operano all'interno del volume fisico del cervello, anche se ci dovesse essere un sostanziale supporto "esterno". Questo significa che, nonostante la possibile presenza di un computer all'esterno del tessuto che diriga il processo di riparazione, continueremo a definire questo approccio come "interno"). Lo scenario di riparazione interno è stato considerato in dettaglio da Drexler [18]. Daremo qui una breve descrizione dello scenario di riparazione interna, ma non lo analizzeremo in profondità. Per varie ragioni, è plausibile che lo scenario di riparazione interno sarà sviluppato prima dello scenario di riparazione esterno.   

Il primo vantaggio di una riparazione interna è il percorso evolutivo più semplice da sistemi di riparazione parziale (rilasciati in esseri umani viventi), a sistemi di riparazione totale come quelli richiesti per riparare i danni da sospensione crionica. In altre parole, un semplice dispositivo di riparazione che identifichi e rimuova depositi di grasso dal sistema circolatorio, potrebbero essere sviluppato ed impiegato su esseri umani [2], senza la necessità di dover risolvere tutti i problemi connessi ad una riparazione totale. Un dispositivo più complesso, sviluppato come un miglioramento aggiuntivo, potrebbe quindi riparare un danno più complesso (per esempio, identificare ed uccidere cellule tumorali), sempre all'interno di un paziente. Una volta sviluppato tale sistema, la continua spinta verso ulteriori miglioramenti evolutivi dovrebbe portarlo,  alla fine, ad avere capacità di riparazione virtualmente generali. Questo percorso evolutivo porterebbe quindi ad un dispositivo capace di riparare il tessuto congelato.  

E' interessante notare che "Alla fine di questo mese [Agosto 1990], l' Agenzia della Scienza e della Tecnologia Industriale del  MITI (AIST) sottoporrà una richiesta di budget per ´30 milioni ($200,000) per lanciare un progetto di "microrobot" l'anno prossimo, che punta a sviluppare minuscoli robot per la cura e la riparazione medica interna degli esseri umani. ... il MITI sta pianificando di impegnare ´25.000 milioni ($170 milioni) nel progetto di microrobot nei prossimi 10 anni..."[86]. Iwao Fujimasa ha detto che il loro obiettivo è un robot di dimensioni inferiori a 0,04 pollici che sarà capace di viaggiare attraverso le vene e dentro gli organi [17, 20]. Sebbene sostanzialmente più grande della proposta qui considerata, la direzione dei futuri miglioramenti evolutivi sembra chiara.  

Un secondo vantaggio della riparazione interna è emotivo. Nella riparazione interna, la struttura originale (tu) non è modificata a livello macroscopico ed anche al livello osservabile con un normale microscopio. Il disassemblamento e il riassemblamento delle molecole componenti è portato avanti ad un livello molto più piccolo di quello che può essere visto, e potrebbe quindi provarsi meno problematico [psicologicamente - NdT] di altre forme di riparazione nelle quali il processo di disassemblamento e riassemblamento è più evidente. Non va dimenticato, però, che la nostra preoccupazione principale è la corretta restaurazione della struttura.   

Un terzo vantaggio della riparazione interna è la capacità di lasciare le strutture funzionali intatte, il che  significa che nella riparazione interna ci possiamo concentrare su quelle strutture che sono danneggiate, tralasciando le strutture funzionanti. Se il danno fosse limitato, un sistema di riparazione interna avrebbe solo bisogno di fare riparazioni minime.  

Il maggior svantaggio del sistema interno è la maggiore complessità del sistema. Come discusso in precedenza, questo è solo uno svantaggio quando gli strumenti e le risorse disponibili per il progetto sono limitati. Possiamo ragionevolmente presumere che strumenti e risorse del futuro supereranno di molto quelli attuali. Il progresso nel computer aided design (CAD) di sistemi complessi, ci permetterà di progettare  sistemi di elevata complessità.   

Nella riparazione interna, sarebbe logico dividere il cervello in una matrice di cubi, e quindi deporre un  dispositivo di riparazione in ogni cubo. I dispositivi di riparazione dovrebbero prima avvicinarsi il più  possibile al cubo loro assegnato, muovendosi attraverso il sistema circolatorio (presumiamo che questo sarebbe liberato per primo) per poi disassemblare il tessuto rimanente tra loro e la loro destinazione finale. Una volta in posizione, ogni dispositivo di riparazione analizzerebbe il tessuto nel cubo a lui assegnato ed eseguirebbe ogni riparazione richiesta.   

L'attuale proposta: riparazione esterna  

La seconda classe di scenari di riparazione, quella degli scenari esterni, permette al volume totale dei dispositivi di riparazione di eccedere di molto il volume del cervello umano.   

Il vantaggio principale della riparazione esterna è la semplicità concettuale. Esso sfrutta un approccio basato sulla forza bruta per evita complessi problemi progettuali. Come discusso in precedenza, queste sono virtù evidenti al giorno d'oggi, ma è improbabile che avranno molto peso in futuro quando un sistema reale sarà progettato.  

Gli altri vantaggi di questo approccio sono evidenti. Le preoccupazioni connesse al volume e alla dissipazione del calore sono eliminate. Se sarà necessario utilizzare una tonnellata di dispositivi di riparazione, questo non sarà un problema. Anche le preoccupazioni circa la complessità del progetto possono essere di molto ridotte. Gli scenari di riparazione esterni non richiedono che i dispositivi di riparazione siano mobili, il che semplifica comunicazione e distribuzione di energia ed eliminando la necessità di capacità locomotorie e di abilità di navigazione. L'unico articolo disponibile su scenari di riparazione esterna è di Merkle [101].   

Gli scenari di riparazione esterna possono essere a loro volta divisi in tre fasi. Nella prima fase, dobbiamo analizzare la struttura per determinarne le condizioni. Lo scopo primario di questa fase è semplicemente di raccogliere informazioni sulla struttura, sebbene il processo comporti anche la scomposizione della struttura nelle molecole che la compongono. Vari metodi sono realizzabili per accedere alla struttura e per analizzarla. In questo articolo considereremo principalmente un approccio.  

Partiamo dal presupposto che l'analisi avvenga quando il tessuto è ancora congelato. Sebbene non sia ancora chiaro quale esattamente sarebbe la temperatura ideale, sembra logico eseguire l'analisi prima del riscaldamento. Il processo di scongelamento, infatti, causa danni e, a scongelamento avvenuto, il deterioramento continua ulteriormente, causa l'assenza dei sistemi presenti nei tessuti sani. Chiaramente, questo non è accettabile in un processo di riparazione che richieda parecchi anni di durata. Un metodo di analisi più veloce o un qualche mezzo per bloccare il deterioramento dovrebbe essere usato se l'analisi dovesse avvenire dopo il riscaldamento. Non esploreremo queste possibilità in questa sede (sebbene questo sarebbe utile). La temperatura alla quale le altre fasi avverranno è da determinare.   

La seconda fase della riparazione esterna è la determinazione dello stato sano. In quesa fase, le informazioni strutturali ottenute nella fase di analisi sono usate per determinare quale fosse lo stato di salute del tessuto prima della sospensione. Questa fase implica solo calcoli basati sulle informazioni fornite dalla fase di analisi.  

La terza fase è la riparazione. In questa fase dobbiamo restaurare la struttura in accordo con il progetto scaturito dalla seconda fase (quella in cui si è stabilito quali siano le condizioni del cervello in questione in uno stato di buona salute).  

Stadi intermedi durante la riparazione esterna  

I metodi di riparazione, in generale, iniziano con un tessuto congelato e finiscono con un tessuto sano. La natura degli stati intermedi dipende dai differenti approcci alla riparazione. Nella riparazione esterna, il tessuto sottoposto a riparazione deve passare attraverso tre stati molto caratteristici, descritti nei segunti tre paragrafi.  

Il primo stato è quello di partenza, prima di ogni riparazione. Il tessuto è congelato (non riparato).  

Nel secondo stato, immediatamente successivo alla fase di analisi, il tessuto è stato smontato molecola per molecola. Un dettagliato database strutturale è stato costruito e fornisce, per ogni molecola, dettagli su  posizione, orientamento e tipo, come discusso in precedenza. Per coloro che si preoccupano che la propria  "identità" o il loro "sé" dipenda in qualche modo fondamentale dagli specifici atomi che compongono le loro molecole, le molecole originali possono essere mantenute in un "armadio" molecolare. Sebbene la schedatura  delle molecole originali per successivo uso sia tecnicamente più difficile, è tuttavia fattibile e non altera la riparazione esterna in maniera fondamentale.  

Nel terzo stato, il tessuto è riparato e pienamente funzionale.  

Caratterizzando lo stato intemedio che deve essere ottenuto durante il processo di riparazione, noi riduciamo il problema da "Inizia da un tessuto congelato e genera un tessuto sano" a "Inizia con un tessuto congelato e genera un database della struttura e un armadio di molecole. Prendi il database strutturale e l'armadio di molecole e genera un tessuto sano." E' una caratteristica del sistema di riparazione esterno che il disassemblamento della struttura molecolare nei suoi componenti individuali, avvenga prima di iniziare la  riparazione. Per esempio, supponiamo di voler riparare un'automobile. Piuttosto che tentare di diagnosticare esattamente che cosa non funziona, decidiamo di smontare completamente la macchina. Una volta che i pezzi sono sparsi di fronte a noi, possiamo facilmente pulire ogni pezzo e poi rimontare l'automobile. Naturalmente, dovremo annotare dove vadano tutti i pezzi, così da poter rimontare la struttura, ma in cambio di questo sforzo di contabilità, otteniamo un modo concettualmente semplice di raggiungere ogni singola parte e di ripararla. Questo è ovviamente un metodo piuttosto estremo per riparare un carburatore rotto, ma è una buona dimostrazione dell'idea che dovremmo essere in grado di riparare anche automobili gravemente danneggiate. Lo stesso con la riparazione esterna. Sebbene sia un metodo estremo per aggiustare un particolare danno, essa fornisce una dimostrazione che molti tipi di danno potrebbero essere riparati.   

La riparazione esterna è il miglior metodo possibile  

Abbiamo stabilito che, indipendentemente dal livello di danno iniziale e dal livello di integrità funzionale della struttura congelata, e al di là del fatto che una tecnica più semplice e meno esaustiva possa funzionare o meno, possiamo convertire una struttura congelata nello stato canonico descritto in precedenza. Inoltre, questo è il miglior metodo possibile. Una volta stabilito il tipo, la posizione e l'orientamento di ogni molecola nella struttura congelata da riparare e una volta conservata la molecola stessa (evitando quindi l'obiezione filosofica che rimpiazzare le molecole originali in qualche modo diminuisca o neghi l'individualità della persona sottoposta a riparazione) non possiamo fare altro. Con questo approccio, raggiungeremo un limite del possibile, un livello che oggi lascerebbe molte persone attonite per le condizioni che ci permetterà di  riparare.  

Un approccio alla riparazione esterna é il dividi-e-conquista. Questo metodo è uno degli approcci tecnicamente più semplici. Ne discuteremo nella sezione successiva.  

Dividi-e-conquista  

Il dividi-e-conquista è un metodo generico di risoluzione di problemi frequente usato in telematica e in altri campi. Se un problema si rivela troppo complesso per essere risolto, esso viene diviso in sottoproblemi, ognuno dei quali viene poi risolto. Nel caso i sottoproblemi fossero troppo difficili da risolvere, sarebbero anch'essi divisi in sotto-sottoproblemi. Questo processo continua fino a che il problema originale è diviso in parti che sono sufficientemente semplici da essere risolte.   

Applicando il dividi e conquista all'analisi di un oggetto fisico - come il cervello - dobbiamo essere in grado di dividere l'oggetto da analizzare in due parti per poi applicare lo stesso metodo alle due parti. Questo significa che dobbiamo poter dividere un pezzo di tessuto congelato, sia esso l'intero cervello o una parte più piccola, in due parti di dimensioni simili. Dato che il tessuto alla temperatura dell'azoto liquido è prono a fratture, indurre deliberatamente una frattura che divida un tale pezzo in due metà non dovrebbe richiedere troppi sforzi. Le fratture fatte a bassa tempratura (quando il materiale è al di sotto della temperatura di transizione vetrosa) sono estremamente nette, e risultano in una piccola, se non nulla, perdita di infomazione sulla struttura. Infatti, le tecniche di fratturazione congelata sono addirittura utilizzate per lo studio delle strutture sinaptiche. Hayat [40, pagina 398] dice "Durante una fratturazione di tessuto congelato, le membrane si dividono lungo il loro piano idrofobico centrale, esponendo le superfici intermembranose. ... Il piano di frattura spesso segue i contorni delle membrane e lascia rilevamenti e depressioni dove passa intorno a vescicole e altri organelli cellulari. ... Il processo di fratturazione fornisce una più accurata visione dell'architettura molecolare delle membrane rispetto ad ogni altro metodo ultrastrutturale." Sembra quindi improbabile che la frattura provochi una significativa perdita di informazione strutturale. La faccia così esposta può essere analizzata con varie tecniche di analisi delle superfici. Studi con gli STM suggeriscono che una risoluzione molto alta sia realizzabile [46]. Per esempio, il microscopio ad assorbimento ottico "...genera uno spettro di assorbimento sulla superficie con una risoluzione di 1 nanometro [pochi diametri atomici]." Kumar Wickramasinghe del T. J. Watson Research Center dell'IBM disse: "Dovremmo essere in grado di registrare lo spettro di una singola molecola" su una superficie. Williams e Wickramasinghe dissero [51] "L'abilità di misurare le variazioni nel potenziale chimico permetteranno anche di identificare selettivamente anche le sottounità delle macromolecole biologiche sia attraverso una misurazione diretta dei gradienti dei loro potenziali chimici o "etichettandoli" con differenti metalli. Questo suggerisce un metodo potenzialmente semplice per sequenziare il DNA. Sebbene tali dispositivi siano di grandi dimensioni, i principi fisici fondamentali sui quali si basano non richiedono tali  dimensioni. Molti dei dispositivi dipendono soprattutto dall'interazione tra un singolo atomo sulla punta della sonda dell'STM e gli atomi sulla superficie del campione sotto analisi. Chiaramente, una sostanziale riduzione in grandezza di tali dispositivi è possibile.  

Possono anche essere impiegate tecniche ottiche ad alta risoluzione. La microscopia ad effetto di campo vicino, impiegando lunghezze d'onda di centinaia di nanometri, ha ottenuto una risoluzione di 12 nanometri (molto più piccola della lunghezza d'onda della luce). Citando il riassunto di un recente articolo su questo soggetto: "L'interazione  ottica di campo tra una sottile sonda e un campione può essere sfruttata per visualizzare, sondare spettroscopicamente o modificare una superficie ad una risoluzione (fino a ~12 nm) inaccessibile attraverso le tradizionali tecniche di campo lontano. Molte delle attraenti caratteristiche dell'ottica convenzionale sono mantenute, compresa la non invasività, l'affidabilità, e il basso costo. In aggiunta, la maggior parte dei meccanismi ottici di contrasto possono essere utilizzati anche con il sistema a campo ravvicinato, ottenendo una tecnica di grande versatilità. Questa versatilità viene dimostrata da parecchi esempi, come la visualizzazione delle caratteristiche di sezioni di tessuti di mammifieri su scala nanometrica e la creazione di domini magneto-ottici microscopici che hanno implicazioni per la memoria dei dati ad alta densità. Sebbene la tecnica possa trovare uso in molti campi diversi, due delle più eccitanti possibilità sono la spettroscopia ottica localizzata dei semiconduttori e la visualizzazione, attraverso la fluorescenza, di cellule viventi." [111]. Un'altro articolo disse: "I nostri segnali sono attualmente di una ampiezza che quasi ogni applicazione concepita originariamente per l'ottica a campo lontano può essere estesa al regime a campo ravvicinato, inclusi studi dinamici a velocità video e oltre; spettroscopia a basso livello di rumore (nel contesto del rapporto segnale/rumore - NdT) e alta risoluzione (anche aiutata dalla trascurabile autofluorescenza della sonda); misure differenziali di assorbimento minimo; magneto-ottica;  litografia a super-risoluzione." [100] [nota 20] .   

Quanto devono essere piccole le parti  

La divisione in metà continua fino a che le parti siano piccole abbastanza da permettere una analisi diretta attraverso i dispositivi di riparazione. Se presumiamo che la divisione continui fino a che a ogni dispositivo di riparazione sia stato assegnato un pezzo da riparare, allora avremo la stessa quantità di dispositivi di riparazione che pezzi, cioè circa 3.2 x 10^15. Se il volume del cervello (1350 centimetri cubici) fosse diviso in altrettanti cubi, ogni cubo sarebbe di circa 0.4 micron (422 nanometri) di lato. Ogni cubo potrebbe quindi essere analizzato direttamente (cioè disassemblato nelle sue componenti molecolari) da un dispositivo di riparazione nel corso di una riparazione di tre anni di durata.Potremmo considerare questi cubi come i pezzi di un puzzle tridimensionale, con la sola differenza che abbiamo barato e quindi conosciamo la posizione esatta di ogni pezzo. Proprio come l'immagine di un puzzle è chiaramente visibile a dispetto delle fratture tra i pezzi, così anche l' "immagine" tridimensionale del cervello è chiaramente visibile a dispetto della sua divisione [nota 21].   

Muovere le parti  

Ulteriori studi sui metodi di assemblaggio di oggetti macroscopici partendo da componenti molecolari si trovano nell'articolo "Convergent assembly".  

Esistono molte alternative per affrontare i problemi meccanici connessi con il dividere e muovere le varie parti. E' improbabile che il movimento meccanico di una parte si dimostri un impedimento insormontabile, e quindi non lo considereremo in dettaglio. Comunque, per essere pratici, accenneremo ad una possibilità. Le braccia umane hanno una  lunghezza di circa un metro e possono facilmente maneggiare oggetti da 1 a 10 centimetri di grandezza (da 0,01 a 0,1 volte la lunghezza del braccio). Dovrebbe essere possibile, quindi, costruire una serie di braccia progressivamente più brevi cha maneggino pezzi progressivamente più piccoli. Se ogni serie di braccia fosse 10 volte più piccola della serie precedente, allora avremmo dispositivi con braccia di: 1 metro, 1 decimetro, 1 centimetro, 1 millimetro, 100 micron, 10 micron, 1 micron e infine 0,1 micron o 100 nanometri (si noti che un assemblatore ha braccia di circa 100 nanometri di lunghezza). Quindi avremmo necessità di progettare 8 manipolatori di differente grandezza. Ad ogni successiva dimensione i manipolatori sarebbero più numerosi, e così sarebbero in grado di gestire i molti pezzi in cui l'oggetto originale  verrebbe diviso. Il trasporto e la manipolazione meccanica di un oggetto verrebbero eseguiti da braccia della dimensione appropriata. Quando gli oggetti saranno divisi in pezzi talmente piccoli che non possono più essere maneggiati da braccia di una particolare grandezza, saranno maneggiati da braccia di dimensioni inferiori.  

Dato che servirebbero circa tre anni per analizzare ogni pezzo, il tempo richiesto per la divisione del  cervello e per posizionare ogni pezzo su di un dispositivo di riparazione fisso, sarà trascurabile. Sembra improbabile che posizionare le varie parti richieda una frazione significativa di questi tre anni.   

Requisiti di memoria  

I requisiti di memoria necessari per memorizzare il database strutturale che contiene la dettagliata descrizione e posizione di ogni grande molecola del cervello, possono essere soddisfatti dai metodi di memorizzazione pronosticati. Il DNA ha una densità di informazioni di circa 10^21 bit/cm3. Sistemi a "nastro" molecolare concettualmente simili, ma che hanno una maggiore densità e che possono immagazzinare 10^22 bit/cm3 [1] dovrebbero essere realizzabili senza grossi problemi. Se presumiamo che ogni molecola lipidica sia  "significativa", ma che le molecole d'acqua, gli ioni semplici e simili non lo siano, allora il numero di molecole significative è approssimativamente uguale al numero delle molecole di lipidi [nota 22] (il numero di molecole proteiche è più piccolo di più di due ordini di grandezza, così che lo possiamo trascurare in questa stima). La descrizione digitale di queste 2 x 10^23 molecole significative richiede 10^25 bit (presumendo che siano richiesti 50 bit per codificare la posizione e la descrizione di ogni molecola). Questo è circa 1.000  cm3 (1 litro, circa un quarto di gallone) di memoria a "nastro". Se un sistema con tale capacità appare irrealizzabile al lettore, considerate che un essere umano è formato da circa 10^14 cellule [44, pagina 3] e che ogni cellula contiene 10^10 bit nel suo DNA [14]. Quindi, ogni essere umano può essere visto come un dispositivo che (tra le altre cose) ha una capacità di memorizzazione grezza di 10^24 bit - ed è improbabile che l'essere umano sia un sistema ottimale di immagazzinamento informazione.  

Un semplice metodo per ridurre di parecchi ordini di grandezza la memoria necessaria, sarebbe quello di analizzare e riparare solo una piccola quantità di tessuto alla volta. Questo eliminerebbe la necessità di immagazzinare l'intera descrizione di 10^25 bit in una volta sola. Una memoria più piccola potrebbe contenere solo la descrizione della sezione tessuto in riparazione in un certo momento e potrebbe poi essere svuotata e riutilizzata per la riparazione della sezione successiva.  

Requisiti computazionali  

La potenza computazionale richiesta per analizzare un database di 10^25 bit rientra nei limiti teorici accettati  [9,25,32]. E' stato seriamente proposto che potrebbe essere possibile aumentare al di là di ogni limite il totale della potenza computazionale ottenibile nell'universo, in un distante futuro [52, pagina 658]. Più cautamente, possiamo dire che i limiti inferiori della computazione, nel futuro a breve termine, possono essere calcolati sulla base del modello di computazione molecolare della logica a barre reversibile, che dissipa circa 10^-23 joule per operazione di gate, operando a 100 picosecondi a temperatura ambiente [ 85]. Esiste un ampio spettro di altre possibilità. Likharev propose un elemento computazionale basato sulle giunzioni di  Josephson che funzionano a 4 K e nelle quali l'energia dissipata per ogni operazione di commutazione è di 10^-24 joule con un tempo di commutazione di 10^-9 secondi [33, 43]. La continua riduzione evolutiva delle dimensioni e della dissipazione di energia dei circuiti NMOS [113] e CMOS [112, 120]  correttamente progettati, dovrebbe infine produrre elementi logici di dimensioni estremamente ridotte (sebbene significativamente più grandi delle proposte meccaniche di Drexler) e che dissipano quantità straordinariamente piccole di energia per operazione logica. L'estrapolazione delle tendenze di oggi,  suggerisce che disspazione di energia dell'ordine di 10^-23 joule sarà ottenuta prima del 2030 [31, fig. 1]. Non siamo a conoscenza, attualmente, di alcun motivo per cui tale tendeza dovrebbe fermarsi o che potrebbe rallentare [9,32].   

Il costo dell'energia sembra essere il fattore limitante nella logica a barre (piuttosto che il numero di gate, o la velocità di operazione delle gate). Oggi, il costo dell'energia elettrica è di circa 10 centesimi [di $ - NdT] per kilowattora. Il costo futuro dell'energia sarà quasi certamente molto più basso. La produzione molecolare dovrebbe ridurre significativamente il costo delle celle solari e migliorarne l'efficienza fino ad avvicinarsi ai  limiti teorici. Con un costo di produzione al di sotto dei 10 centesimi per kilogrammo [ ww.zyvex.com/nanotech/nanosystems.html" 85] il costo di un metro quadrato di celle solari sarà meno di un centesimo. Di conseguenza il costo dell'energia solare sarà dominato da altri costi, come il costo del terreno su cui i pannelli solari si trovano. Sebbene le celle solari possano essere installate sui tetti di strutture esistenti o in altre aree inutilizzate, noi utilizzeremo il prezzo del terreno per stimarne i costi. Terreno a basso costo nel deserto del Sud-Ovest degli Stati Uniti può essere comprato per meno di  $1,000 per acro. (Questo prezzo corrisponde a circa 25 centesimi per m2, significativamente di più della stima del futuro costo di produzione di un metro quadrato di celle solari). Il terreno in altre parti del mondo (le regioni aride del centro dell' Australia, per esempio) costa molto meno. Per semplicità e prudenza, comunque, adotteremo il prezzo di $1.000 per acro per i calcoli che seguono. Affittare un acro di terreno per un anno al prezzo annuale del 10% del prezzo di acquisto costerà 100$. La luce solare che raggiunge la superficie terrestre fornisce un massimo di 1.353 watt per m2, o 5.5 x 10^6 watt per acro. Se teniamo conto dell'inefficienza delle celle solari, delle perdite dovute all'atmosfera e delle perdite causate dall'angolatura della luce in arrivo, dobbiamo ridurre la produzione di energia possibile, di un fattore di circa 15, cioè a circa 3.5 x 10^5 watt. In un anno,  quindi, avremeo 1.1 x 10^13 joule o 3.1 x 10^6 kilowattora. Il costo del terreno è di 100$ così che il costo per joule è di 0.9 nanocentesimi e il costo per kilowattora è di 3.3 millicentesimi. L'energia solare, quando le celle solari saranno prodotte ad un prezzo sufficientemente basso, sarà parecchie migliaia di volte meno costosa di quanto sia l'energia elettrica oggi. Potremo acquistare più di 10^15 joule per meno di 10,000$.   

Sebbene la stima di Drexler riguardo la dissipazione di energia per operazione logica [85] sia circa di 10^-23 joule, ci accontenteremo di una stima superiore, cioè di 10^-22 joule per operazione logica. I nostri 10^15 joule daranno quindi energia a 10^37 operazioni logiche: 10^12 operazioni per ogni bit nel database strutturale o 5 x 10^13 operazioni logiche per ognuna delle 2 x 10^23 molecole di lipidi presenti nel cervello.

Dovrebbe essere enfatizzato il fatto che nella riparazione esterna il riscaldamento del tessuto non è un problema, in quanto la stragrande parte della massa del calcolo e quindi quasi tutta la dissipazione di energia, avviene all'esterno del tessuto. Gran parte dei calcoli avviene quando la struttura originale è stata interamente disassemblata nei suoi componenti.   

Quanta potenza elaborativa sarebbe necessaria?   

E' sufficiente, questa potenza elaborativa? Possiamo ottenere un'indicazione di quanta potenza di calcolo ci potrebbe servire, traendo un'analogia dal riconoscimento delle immagini. La retina umana esegue circa 100 "operazioni" per pixel, e il cervello umano può essere da 1.000 a 10.000 volte più grande della retina. Questo implica che il sistema di riconoscimento umano delle immagini può riconoscere un oggetto dopo avergli dedicato da 10^5 a 10^6 "operazioni" per pixel. (Questo numero corrisponde alle stime informali fatte da esperti di analisi computerizzata di immagini). Ammettendo che queste "operazioni" della retina siano probabilmente molto più complesse di una singola "operazione logica" di un fattore da 1.000 a 10.000, raggiungiamo da 10^8 a 10^10 operazioni logiche per pixel - che è ben sotto la nostra stima di 10^12 operazioni per bit o 5 x 10^13 operazioni per molecola.   

Per dare un'idea della potenza elaborativa che questo rappresenta, è utile compararla con le stime del potenziale computazionale del cervello umano. Le stime delle operazioni per secondo che il cervello umano può portare avanti, variano da 10^13[50], a 10^15 a 10^16[114] ("operazioni" è stato definito in modo diverso nelle varie stime, ma rappresenta sempre una azione basilare relativamente semplice) [ nota 23]. Le 10^37 operazioni logiche totali supportano le 10^29 operazioni logiche per secondo per tre anni, che sono la potenza computativa equivalente a 10^13 esseri umani (anche usando le stime più alte per il potere elaborativo del cervello umano). Ciò rappresenta 10.000 miliardi di esseri umani, o qualche cosa come 2.000 volte le persone che esistono sulla Terra, oggi. Per gli standard attuali, questa è una potenza elaborativa molto elevata. Vista in un'altro modo, se dividessimo il cervello umano in minuscoli cubetti di 5 micron di lato (meno del volume di una tipica cellula), ogni uno di questi cubi dovrebbe ricevere la completa e continua attenzione di un analista umano per tre anni pieni.  

Il prossimo paragrafo analizza i costi della memoria, e può essere saltato senza perdita di continuità.   

Si noti che questa analisi trascura la memoria richiesta per conservare lo stato completo di questi calcoli. Dato che questa stima delle capacità di calcolo e dei requisiti dipende dalle capacità del cervello umano, potremmo necessitare di una memoria approssimativamente simile alla quantità di memoria richiesta dal cervello umano durante le sue elaborazioni. Questo richiede circa 10^16 bit (10 bit per sinapsi) per conservare lo "stato" dell'elaborazione. (Partendo dal presupposto che la esatta rappresentazione di ogni sinapsi non sia necessaria per fornire capacità simili a quelle del cervello umano. Al peggio, il comportamento di  piccoli gruppi di cellule potrebbe essere analizzato ed implementato nel modo più efficiente, e.g., una operazione di "center surround" nella retina potrebbe essere implementata il più  efficentemente possibile senza la dettagliata rappresentazione di ogni neurone e sinapsi. In realtà, è probabile che algoritmi significativamente diversi da quelli usati dal cervello umano si dimostreranno più efficienti per questo tipo di analisi specialistiche. Sembra quindi verosimile che le nostre stime derivate dal limite inferiore del numero totale delle parti del cervello, siano prudenti). Per 10^13 programmi, ognuno dei quali equivalente in abilità analitiche ad un essere umano, questo richiederebbe 10^29 bit. A 100 nanometri cubi per bit, questo risulta in 10.000 metri cubi. Usando la stima dei costi fornita da Drexler [85] otteniamo un costoso preventivo di 1.000.000$. Possiamo, però, facilmente ridurre questo costo dividendo il calcolo per ridurre la richiesta di memoria. Invece di avere 10^13 programmmi ognuno dei quali sia capace di "pensare" a circa la stessa velocità di un essere umano, potremmo avere 10^10 programmi ognuno dei quali sia capace di "pensare" ad una velocità 1.000 volte superiore a quella di un essere umano. Invece di avere 10.000 miliardi di analisti umani che lavorano per tre anni ognuno, noi avremmo 10 miliardi di analisti umani dedicati che lavorano per 3.000 anni virtuali ognuno. Il progetto sarebbe in pratica completato in tre anni, in quanto ogni "analista" sarebbe un programma di computer capace di "pensare" 1.000 volte più velocemente di un analista umano con le stesse abilità. Invece di analizzare l'intero cervello in una volta, divideremmo il cervello in 1.000 pezzi ognuno dei quali sarebbe di circa 1,4 cm cubici di volume, per poi analizzare ogni singolo pezzo prima di passare al pezzo successivo.Questo riduce i nostri requisiti di memoria di un fattore di 1.000 e il costo di tale memoria è di 1.000$, cioè decisamente meno caro. Và sottolineato che il paragone con le capacità umane è stato usato solo per illustrare le immense capacità di 10^37 operazioni logiche. Non si dovrebbe presumere che il software che sarà realmente usato avrà una qualsiasi rassomiglianza con il comportamento del cervello umano.   

Più potenza elaborativa  

Nei paragrafi seguenti, affronteremo la possibilità che una potenza elaborativa ancora superiore sarà di fatto disponibile, il che renerebbe i nostri margini di errore molto più grandi.  

La perdita di energia nella logica a barre, nel quantron parametrico di Likaiev, in adeguatamente progettati circuiti a CMOS o NMOS, e in molte altre proposte per dispositivi di calcolo, sono correlati alla velocità delle operazioni. Rallentando la velocità delle operazioni da 100 picosecondi a 100 nanosecondi o anche 100 microsecondi dovremmo ottenere una corrispondente riduzione dell'energia dissipata per ogni operazione logica. Questo permetterà una sostanziale crescita della potenza elaborativa rispetto ad una quantità di energia prefissata (10^15 joules). Noi possiamo sia ridurre l'energia dissipata da ogni operazione logica (lavorando più lentamente) che aumentare il numero totale di operazioni logiche (utilizzando più gate) (porte logiche - NdT). Dato che i gate sono già di piccole dimensioni, incrementare il loro numero anche di un fattore di 10^10 (fino a, approssimativamente, 10^27 gate) risulterebbe in un volume totale di 100 metri cubici (ricordiamo che ogni gate più gli allegati necessari è di circa 100 nanometri cubici). Questo è un cubo di meno di 5 metri di lato. Dato che i costi di produzione alla fine rifletteranno i costi del materiale e dell'energia, un tale volume di porte logiche che lavorino lentamente dovrebbe essere economico e in grado di fornire maggiore potenza elaborativa per joule.  

Non perseguiremo questo approccio nel presente articolo per due ragioni principali. Primo, gli studi  pubblicati usano la alta velocita di 100 picosecondi per operazione e 10^-22 joule di dissipazione di energia [85]. Secondo, operare a 10^-22 joule a temperatura ambiente, implica che la maggior parte delle operazioni logiche deve essere reversibile e che solo meno di una operazione logica su 30 può essere irreversibile. Operazioni logiche irreversibili (che cancellano informazioni) devono di per se dissipare almeno kT x ln(2) per fondamentali ragioni termodinamiche. L'energia termica media di un singolo atomo o molecola alla temperatura T (misurata in gradi K) è approssimativamente kT dove k è la costante di Boltzmann. A temperatura ambiente, kT è circa 4 x 10^-21 joule. Quindi ogni operazione irreversibile dissiperà al massimo 3 x 10^-21 joule. Il numero di tali operazioni deve essere limitato se vogliamo ottenere una dissipazione di energia media di 10^-22 joules per operazione logica.  

Sebbene dovrebbe essere possibile eseguire calcoli nei quali virtualmente tutte le operazioni logiche sono reversibili (e quindi non hanno necessità di dissipare nessuna quantità fissa di energia per operazione logica) [9, 25, 32, 53, 112, 120], le architetture dei computer odierni potrebbero richiedere alcune modifiche prima di poter essere adattate a questo tipo di calcolo. Questo significa anche, però, che dovrebbe essere possibile usare le attuali architetture dei computer per eseguire una percentuale molto alta (e.g., 99% o più) delle loro operazioni logiche in maniera reversibile.   

Vari approcci elettroniche mostrano che quasi tutte le logiche combinatorie esistenti negli attuali computer possono essere rimpiazzate con logica reversibile senza nessun cambiamento del set di istruzioni che viene eseguito [112, 113]. Inoltre, mentre alcune istruzioni negli attuali computer sono irreversibili e quindi devono dissipare almeno kT x ln(2) joule per ogni bit di informazione cancellata, altre istruzioni sono reversibili e non hanno necessità di dissipare nessuna quantità fissa di energia se realizzate correttamente. Compilatori ottimizzati, quindi potrebbero evitare di utilizzare le operazioni logiche irreversibili e favorire le istruizioni reversibili. Quindi senza modificare il set di istruzioni del computer, possiamo rendere www.zyvex.com/nanotech/reversible.html" reversibile la maggior parte delle operazioni logiche del computer.  

Ulteriore ricerca sul calcolo reversibile potrebbe ridurre ulteriormente la spesa minima di energia per operazione di base ed aumentare la percentuale di operazioni logiche reversibili. Altre riduzioni, anche molto più significative, della dissipazione dell'energia potrebbero essere realizzabili [105]. Sebbene non sia attualmente chiaro quali limiti esistano alla riduzione dissipaione di energia per oprazione logica, è chiaro che non solo non abbiamo ancora raggiunto un limite, ma anche che nessun limite è ancora apparso all'orizzonte.  

Ci possiamo anche aspettare un ulteriore riduzione del costo dell'energia. Istallando celle solari nello spazio la luce solare incidente totale per metro quadro può essere incrementata di molto (in particolare se la cella solare è posizionata nelle vicinanze del sole) mentre allo stesso tempo, la massa totale delle celle solari può essere ridotta di molto. La maggior parte della massa nelle strutture terrestri è necessaria non per funzioni funzionali, ma semplicemente per assicurare l'integrità strutturale contro la forza di gravità e il clima. Nello spazio entrambi i problemi sono virtualmente eliminati. Di conseguenza un pannello solare molto sottile di massa relativamente modesta può avere una enorme superfice e fornire una energia immensa a costi molto inferiori a quelli qui stimati.   

Se ammettiamo il decrescente costo futuro dell'energia e la probabilità che i progetti futuri avranno una dissipazione di energia inferiore a 10^-22 joule per operazione logica, appare probabile che avremo una capacità computazionale molto maggiore a quella richiesta. Anche ignorando questi più che probabili sviluppi, avremo una potenza computazionale adeguata per riparare il cervello a livello molecolare.   

Energia chimica del cervello  

Un'altro problema è l'energia connessa al completo disassemblamento e riassemblamento di ogni molecola del cervello. L'energia chimica totale immagazzinata nelle proteine e nei lipidi del cervello umano è abbastanza modesta se paragonata a 10^15 joule. Quando i lipidi sono bruciati, rilasciano circa 9 kilocalorie per grammo. (Coloro che seguono una dieta e conoscono le calorie stanno contando in realtà "kilocalorie" - così un "Pranzo Dietetico da 300 Calorie" in realtà è di 300.000 calorie o 1.254.000 joule). Quando le proteine sono bruciate, rilasciano 4 kilocalorie per grammo. Dato che ci sono 100 grammi di proteine e 175 grammi di lipidi nel cervello, questo significa che ci sono quasi 2.000 kilocalorie immagazzinate nella struttura chimica del cervello, o circa 8 x 10^6 joule. Tutta questa energia chimica è oltre 10^8 volte meno dei 10^15 joule che una persona può ragionevolmente acquistare in futuro. Appare inverosimile che la costruzione del cervello umano debba di per se richiedere sostanzialmente più 10^7 joule e anche più improbabile che possa richiedere oltre 10^15 joule. Il maggior costo energetico nel riparare il cervello a livello molecolare, appare essere nei requisiti computazionali richiesti per "pensare" a ogni singola grande molecola nel cervello e alle corrette relazioni tra queste molecole.  

Determinare lo stato sano  

Nella seconda fase dell'analisi, la determinazione dello stato sano, determineremo come il tessuto sano (cioè riparato) deve apparire a livello molecolare. Il database strutturale iniziale prodotto dalla analisi descrive uno stato malato  del tessuto (cioè lo stato congelato). Per determinare lo stato sano del tessuto, dobbiamo generare un database strutturale revisionato che descriva il tessuto sano (funzionale) corrispondente. La generazione di questo database revisionato richiede un programma per computer che ha una intima comprensione di come dovrebbe apparire lo stato sano del tessuto, e la corrispondenza tra tessuto malato (congelato) e il corrispondente tessuto sano. Per esempio, questo programma dovrebbe poter "capire" che il  tessuto sano non ha fratture, e che se sono presenti delle fratture nel database iniziale (che descrive il tessuto congelato) allora il database revisionato (che descrive il tessuto sano) deve essere alterato per rimuoverle. Similmente, se il database iniziale descrive tessuti con mitocondri rigonfi o non funzionanti, allora il database revisionato dovrebbe essere alterato così che descriva mitocondri perfettamente funzionali. Se il database iniziale descrive tessuti che sono infetti (infezioni virali o batteriche) allora il database revisionato dovrebbe essere alterato per rimuovere i componenti virali o batterici. Sebbene il database descriva lo stato sano del tessuto che desideriamo ottenere, esso non specifica il metodo, o i metodi, che saranno utilizzati per restaurare la struttura sana. In generale, non è dato per scontato che il restauro si debba fare ad una specifica temperatura, o che sia fatto in determinato un modo specifico, piuttosto che in un'altro. Uno qualsiasi di un'ampia gamma di metodi potrebbe essere usato per restaurare efficacemente una specifica struttura. Inoltre, la struttura restaurata potrebbe differire nei dettagli minori dalla struttura descritta nel database revisionato.   

La complessità del programma che determina lo stato sano varierà con la qualità della sospensione e con il livello del danno precedente alla sospensione. Chiaramente, se la sospensione crionica "quasi funziona", allora il database iniziale e il database revisionato non differiranno di molto. La sospensione crionica in circostanze favorevoli preserva il tessuto con una buona fedeltà fino al livello molecolare. Se, comunque, c'era un significativo danno precedente la sospensione, allora dedurre la corretta (sana) descrizione della struttura è più complesso. Comunque, dovrebbe essere possibile dedurre la corretta descrizione strutturale anche nei casi in cui un danno significativo sia presente. L'unico caso in cui non sarebbe possibile dedurre lo stato non danneggiato della struttura, sarebbe se la struttura fosse stata cancellata oltre ogni possibile riconoscimento.

ALTERNATIVE ALLA RIPARAZIONE     

Una breve digressione filosofica è ora necessaria. Una volta generato un database strutturale revisionato che sia accettabile, possiamo di fatto prendere due strade diverse. Quella ovvia è di continuare con il processo di riparazione, producendo alla fine un tessuto sano. Un'alternativa è quella di utilizzare la descrizione nel database revisionato per guidare la costruzione di una struttura differente ma "equivalente" (e.g., un "cervello artificiale"). Questa possibilità è stata molto discussa [11, 50], ed è stata recentemente chiamata "uploading" (o "downloading") [26]. Sia che questo processo preservi quello che è essenzialmente umano oppure no è spesso e vigorosamente dibattuto, ma offre vantaggi che sono completamente scollegati alla sospravvivenza personale. Per esempio, le abilità o la conoscenza di un Einstein o di un Turing non devono per forza andare perdute: esse potrebbero essere conservate in un modello computazionale. Ad un livello più commerciale, anche le abilità creative di uno Spielberg (i cui film hanno prodotto entrate complessive per miliardi) potrebbero essere conservate. Che si ritenga o meno che il modello computazionale abbia essenzialmente la stessa personalità che aveva l'umano biologico dal quale è stato modellato, esso conserva senza dubbio i talenti e le abilità mentali di quella persona.  

E' probabile che la maggior parte della gente voglia una restaurazione fisica completa (a dispetto delle possibilità filosofiche appena discusse) e continuerà quindi con la riparazione alla fase di riparazione.  

GUARIGIONE     

Nella terza fase della riparazione partiremo da una precisa descrizione al livello dei singoli atomi (il database revisionato) della struttura che desideriamo restaurare e da un deposito contenente le molecole di cui abbiamo bisogno durante il restauro. Come opzione, le molecole nel deposito possono provenire dalla struttura originale, per coloro che vogliano condurre il restauro con gli atomi originali. Il nostro obiettivo è di restaurare la struttura originale con una precisione sufficiente a supportare le capacità funzionali originali. Chiaramente, questo sarebbe ottenibile restaurando la struttura con una precisone atomica. Prima di discutere questo approccio, che è tecnicamente più arduo, parleremo brevemente degli altri principali approcci che potrebbero essere impiegati.  

Sappiamo che è possibile produrre un cervello umano in quanto questo è stato fatto con "metodi tradizionali" per migliaia di anni. Se adottassimo un metodo di restaurazione il più possibile vicino alla tecnica tradizionale per costruire un cervello, potremmo utilizzare una strategia di "crescita guidata". Vale a dire che,  negli organismi più semplici, la crescita di ogni singola cellula e ogni singola sinapsi è predeterminata geneticamente. "Tutte le divisioni cellulari, le morti e le migrazioni [di cellule - NdT] che generano la forma embrionica, larvale ed infine adulta del verme rotondo Caenorhabditis Elegans sono state scoperte."[103]. "La linea embrionica è estremamente costante, così come lo è il fato delle cellule dalle quali è formata"[102]. L'appendice dice: "Tabella : Caenorhabditis elegans (Bristol) Larve appena nate. Questo indice è stato prodotto condensando una lista di tutte le cellule nell'animale adulto, quindi aggiungendo commenti e riferimenti. Una lista completa è disponibile a richiesta..." L'organismo adulto ha 959 cellule nel suo corpo, 302 delle quali sono cellule nervose [104].   

Restaurare una specifica struttura biologica usando questo approccio richiederebbe che noi determinassimo il loro numero totale e il preciso modello di crescita di tutte le cellule coinvolte. Il cervello umano ha circa 10^12 cellule nervose, più circa dieci volte tante cellule gliali e altre cellule di supporto. Sebbene codificare questa struttura nel genoma di un singolo embrione potrebbe essere eccessivamente complesso, sarebbe certamente possibile controllare le attività cellulari critiche attraverso l'uso interno di un nanocomputer.  Questo significa che ogni cellula dovrebbe essere controllata da un computer interno, e che il computer dovrebbe a sua volta essere programmato con una dettagliata descrizione del modello di crescita e delle connessioni di quella particolare cellula. Sebbene la cellula funzioni normalmente per la maggior parte dei sui aspetti, le attività critiche della cellula, come la replicazione, il movimento e la crescita delle sinapsi, sarebbero sotto il diretto controllo del computer interno. Quindi, come con il C. Elegans, ma su una scala molto più grande, la crescita dell'intero sistema sarebbe "estremamente costante". Una volta che la configurazione finale corretta sia stata ottenuta, i nanocomputer interni terminerebbero la loro attività e sarebbero eliminati dal sistema come scorie.  

Questo approccio potrebbe essere criticato sulla base del fatto che la persona risultante sia un "semplice duplicato", e che il "se" non sia preservato. Certamente, appare difficile ottenere un controllo atomicamente preciso della struttura usando una crescita guidata, in quanto i sistemi biologici normalmente non controllano il preciso posizionamento delle singole molecole. Sebbene possano venir utilizzati gli stessi atomi dell'originale, appare difficile che sia possibile garantire che essi siano negli stessi posti. Preoccupazioni di questo genere portano alla restaurazione attraverso metodi che garantiscano una maggiore precisione. Con questi metodi, la struttura desiderata viene restaurata direttamente partendo dalle componenti molecolari e installando le componenti molecolari nelle posizioni desiderate. Un problema con questo approccio è la stabilità della struttura durante la restaurazione. Le molecole potrebbero spostarsi dalle posizioni assegnate, distruggendo la stuttura.   

Un approccio che potremmo chiamare di "minima stabilizzazione" potrebbe richiedere la sintesi in acqua, con una stabilizzazione meccanica delle varie membrane lipidiche nel sistema. Una griglia o una impalcatura tridimensionale fornirebbe una struttura che terrebbe le membrane ancorate in posizioni precise. Alle membrane stesse sarebbe quindi impedito di spostarsi dalla posizione assegnata. Per prevenire un deterioramento chimico durante la restaurazione, sarebbe necessario rimuovere tutti i composti reattivi (e.g., ossigeno).   

In questo scenario, una volta installata e tenuta in posizione la "struttura" iniziale delle membrane, grazie alla  impalcatura, altre molecole sarebbero introdotte nella struttura e messe nella giusta posizione. In molti casi, a tali molecole potrebbe essere permesso di diffondersi liberamente all'interno del compartimento cellulare nel quale sono state introdotte. In alcuni casi, un controllo ulteriore sarebbe necessario. Per esempio, una proteina canale che attraversa la membrana potrebbe dover essere confinata in una regione specifica della membrana cellulare del nervo, e dovrebbe essere prevenuta dal diffondersi liberamente in altre regioni della membrana. Un metodo per ottenere questo tipo di controllo limitato sulla successiva diffusione, sarebbe quello di isolare una regione della membrana con una barriera alla diffusione (così come lo spargimento di olio sull'acqua può essere impedito ponendo una barriera galleggiante sull'acqua).   

Sebbene sia probabile che si presenteranno altri casi nei quali sarà necessario prevenire o controllare la diffusione, l'enfasi di questo metodo è di fornire il minimo controllo necessario, sulla posizione molecolare,  per restaurare la struttura.Sebbene questo approccio non ottenga un  restauro atomicamente preciso della struttura originale, il tipo di cambiamenti che sono introdotti (diffusione di molecole all'interno di un compartimento cellulare, diffusione di una proteina di membrana all'interno della membrana) sarebbe molto simile al tipo di diffusione che avviene in un normale sistema biologico. Quindi il restauro risultante avrebbe le stesse molecole con gli stessi atomi, e le molecole sarebbero in posizioni simili (sebbene non esattamente le stesse) che avevano prima del restauro.  

Per ottenere un controllo anche maggiore sulla precisone della struttura restaurata, potremmo adottare una strategia di "stabilizzazione completa". Con questa strategia, ogni molecola importante sarebbe ancorata al suo posto, su una impalcatura o ad una molecola adiacente. Questo richiederebbe il progettare una molecola stabilizzante per ogni tipo di molecola che si trova nel corpo. La molecola stabilizzante dovrebbe avere una estremità specifica attaccata alla molecola in questione ed un'altra estremità generica attaccata all'impalcatura o ad un'altra molecola stabilizzante. Una volta completato il restauro, le molecole stabilizzanti rilascerebbero le molecole stabilizzate e le normali funzioni riprenderebbero. Questo rilascio potrebbe essere attivato dalla semplice diffusione di un enzima che attacchi le molecole stabilizzatrici. Questo tipo di approccio è stato considerato da Drexler [1].   

Restauro a bassa temperatura  

Infine, potremmo ottenere la stabilizzazione della struttura intermedia utilizzando la bassa temperatura. Se la struttura fosse restaurata ad una temperatura sufficientemente bassa, una molecola messa in una certa posizione semplicemente non si muoverebbe. Potremmo chiamare questo metodo, "restauro a bassa temperatura". In questo scenario, ogni molecola sarebbe semplicemente messa (a bassa temperatura) nella posizione desiderata. Questo può essere  rozzamente paragonato al posizionare dei mattoni per costruire una casa. Una molecola di emoglobina potrebbe semplicemente essere gettata nel mezzo di un globulo rosso parzialmente restaurato. Altre molecole, la cui precisa posizione non è critica, potrebbero similmente essere posizionate in modo piuttosto casuale. I lipidi nel doppio strato lipidico che forma la membrana cellulare, dovrebbero essere posizionati con più precisione (probabilmente con una accuratezza di parecchi angstroms). Una singola molecola lipidica, una volta che è stata posizionata più o meno correttamente su un doppio strato lipidico in costruzione, sarebbe tenuta al suo posto (ad una temperatura sufficientemente bassa) dalle forze di Van der Waals. Le proteine legate alla membrana potrebbero anch'esse essere impilate nella posizione desiderata. Dato che i sistemi biologici fanno largo uso dell'autoassemblazione, non sarebbe necessario ottenere una perfetta accuratezza nel processo di restauro. Se una macromolecola biologica venisse posizionata con ragionevole accuratezza, essa automaticamente assumerebbe la posizione corretta nel momemto del riscaldamento.   

I polimeri di grandi dimensioni, utilizzati sia per scopi strutturali che per altri scopi, pongono dei problemi speciali. Le unità monomeriche sono legate in modo covalente le une alle altre, e così semplicemente "impilarle" non funziona. Se tali polimeri non possono essere aggiunti alla struttura come unità interamente preformate, essi potrebbero essere restaurati incrementalmente durante l'assemblaggio partendo dai loro monomeri individuali e utilizzando le tecniche discusse in precedenza (e che richiedono la sintesi posizionale con l'uso di composti intermedi altamente reattivi). L'aggiunta di unità monomeriche ai polimeri potrebbe quindi essere fatta nel momento più conveniente durante l'operazione di restauro. Le operazioni chimiche richieste per produrre un polimero partendo dalle sue unità monomeriche a temperature ridotte, difficilmente utilizzeranno gli stessi tipi di reazioni che sono utilizzate nei sistemi viventi. In particolare, le energie di attivazione della maggior parte delle reazioni che avvengono a 310 K (98.6 gradi  Fahrenheit [33 gradi Celsius, N.d.T.]) non possono essere ottenute a 77 K: la maggior parte dei composti convenzionali non reagiscono a quella temperatura. Però, come discusso in precedenza, le tecniche di sintesi basate su assemblatori che utilizzino composti intermedi altamente reattivi in condizioni di vuoto quasi perfetto e che usino forze meccaniche per fornire l'energia di attivazione, continueranno a funzionare abbastanza bene, anche supponendo che l'energia di attivazone termica sia completamente assente (e.g., che il sistema sia vicino a 0 Kelvin).   

Un ovvio problema con la restaurazione a bassa temperatura è la necessità di riscaldare la struttura senza causare ulteriore danni. Molto del danno da "congelamento" avviene durante il riscaldamento e ciò va evitato. Una soluzione a questo problema è discussa nei due paragrafi seguenti. Generalmente, il database della struttura revisionata può essere ulteriormente modificato per rendere il restauro più semplice. Sebbene certe alterazioni del database dovrebbero essere evitate (qualsiasi intervento  che possa danneggiare la memoria, per esempio) molte alterazioni sarebbero invece piuttosto sicure. Una serie di alterazioni sicure sarebbero quelle che corrispondono a cambiamenti che sappiamo non essere dannosi in condizioni normali. Per esempio, muovere gli organelli sub cellulari all'interno di una cellula sarebbe sicuro - tale movimento avviene spontaneamente nei tessuti viventi. Allo stesso modo, piccoli cambiamenti nella precisa posizione fisica delle strutture cellulari che non alterano la topologia cellulare,  sarebbero sicuri. In realtà, alcune operazioni che potrebbero a prima vista dare adito a dubbi sono quasi certamente sicure. Per esempio, ogni alterazione che produca danni che possono essere riparati dal tessuto stesso una volta riportato al suo stato sano sono, in pratica, sicuri - sebbene potremmo per buoni motivi evitare tali alterazioni (ed esse non appaiono necessarie). Sebbene la gamma precisa delle alterazioni sicure che possano essere applicate non è chiaro, è evidente che è abbastanza grande.  

Una ovvia modifica che ci permetterebbe di riscaldare la struttura senza rischi, sarebbe quella di aggiungere un crioprotettivo. Dato che stiamo restaurando la struttura congelata con precisione atomica, potremmo utilizzare diverse concentrazioni e diversi tipi di crioprotettivi in regioni diverse, accoppiando quindi i requisiti del crioprotettivo al tipo di tessuto con incredibile accuratezza. Questo non è realizzabile con la tecnologia attuale dato che i crioprotettivi sono introdotti usando semplici tecniche diffusive. Sarebbe anche possibile ottenere un controllo estremamente preciso sulla velocità di riscaldamento così come un riscaldamento rapidissimo [126]. Il riscaldamento rapido darebbe meno tempo al danno per manifestarsi. Il riscaldamento rapido potrebbe, però, introdurre problemi di tensione e produrre fratture. Due approcci per l'eliminazione di questo problema sono (1) modificare la struttura in modo che il coefficiente di espansione termica sia molto piccolo e (2) aumentare la forza della struttura.  

Un semplice metodo per assicurare che il volume occupato prima e dopo il riscaldamento sia lo stesso (i.e., un metodo per produrre un materiale con un coefficiente di espansione molto piccolo) sarebbe quello di disperdere all'interno del materiale molte piccole aree con una tendenza all'espansione termica opposta. Per esempio, se un'area tende ad espandersi al momento del riscaldamento, la struttura iniziale potrebbe includere delle "nanocavità", cioè regioni di circa un nanometro di diametro, che siano vuote. Tali regioni sarebbero stabili a bassa temperatura, ma collasserebbero durante il riscaldamento. Disperdendo omogeneamente tali nanocavità sarebbe possibile eliminare la tendenza ad espandersi durante il riscaldamento anche di regioni molto piccole. La maggior parte dei materiali si espandono quando riscaldati, ma questa tendenza può essere contrastata attraverso l'uso di nanocavità. Naturalmente, il ghiaccio ha un volume minore una volta sciolto. L'introduzione di nanocavità ne  aggraverebbe la tendenza a contrarsi, durante lo sciolglimento. In questo caso potremmo usare H20 vetrificata piuttosto che la solita varietà cristallizzata. L'H20 in stato vetroso è in uno stato di disordine  (come nello stato liquido) anche a basse temperature e ha un volume inferiore a quello del ghiaccio cristallino. Questo ne elimina ed inverte la tendenza a contrarsi durante il riscaldamento. L'acqua vetrificata a basse temperature è più densa dell'acqua liquida a temperatura ambiente.  

Si può aumentare la forza del materiale in una varietà di modi diversi. Un metodo semplice è di introdurre dei lunghi polimeri nella struttura congelata. Le proteine sono una classe di resistenti polimeri che potrebbero essere incorporati nella struttura con minime preoccupazioni per la compatibilità con i tessuti. Ogni potenziale piano di frattura sarebbe incrociato da nuove proteine strutturali aggiunte, così prevenendo le fratture. Con l'inclusione  di un enzima per degradare questa proteina strutturale introdotta artificialmente, essa sarebbe automaticamente e spontaneamente digerita dopo il riscaldamento. Questo metodo permetterebbe un sostanziale incremento della robustezza [dell'area trattata - NdT].  

Utilizzando sia (1) un riscaldamento rapido e strettamente controllato; (2) l'introduzione atomicamente precisa di sostanze crioprotettrici; (3) l'aggiunta controllata di nanocavità e di regioni di  H20  vetrificata per ridurre o eliminare l'espansione e la contrazione termica; e (4) l'aggiunta di proteine strutturali per la protezione contro ogni tensione indotta termicamente, il danno che altrimenti avverrebbe durante il riscaldamento dovrebbe essere completamente evitabile.  

Una valida critica all'uso di tutti e quattro i metodi insieme, è che metodi più semplici, cioè la distribuzione precisa di un crioprotettivo abbinata ad un riscaldamento relativamente lento [131] sono probabilmente sufficienti. Le proposte avanzate in questo articolo non dovrebbero essere prese come predizioni di quello che avverrà o di quanto sarà necessario, ma come riflessioni sulla fattibilità di certe tecniche. In altre parole: una cintura è sufficiente a sostenere un paio di pantaloni. Quando spieghiamo a qualcuno che non mai visto o sentito parlare di vestiti, che è possibile sostenere un paio di pantaloni, è perdonabile il puntualizzare che l'utilizzo combinato di cintura e bretelle dovrebbe essere sufficiente a impedire ai pantaloni di cadere.  

CONCLUSIONI     

La sospensione crionica può far arrivare un malato terminale alla tecnologia medica del futuro. Il danno causato dai metodi di congelamento oggi disponibili, sarà verosimilmente reversibile in futuro. In generale, perché la crionica non funzioni, uno dei seguenti "criteri di fallimento" deve essere soddisfatto:   

Il danno precedente alla sospensione e quello dovuto alla sospensione stessa causano la morte secondo la teoria dell'informazione. Nel caso del cervello umano, il danno dovrebbe cancellare le strutture che codificano la memoria e la personalità al di là di ogni possibilità di ricostruzione.   

Le tecnologie di riparazione la cui teoretica realizzazione è chiaramente possibile, in base alla nostra attuale comprensione delle leggi della fisica e della chimica, dovrebbero non venire sviluppate, in pratica, per molti secoli a venire.   

Un esame delle potenziali tecnologie future [85] supporta l'affermazione che capacità senza precedenti saranno verosimilmente sviluppate. La cura del cervello fino al livello molecolare dovrebbe, alla fine, dimostrarsi tecnicamente realizzabile. La riparazione dall'esterno utilizzando la strategia del "dividi e conquista" è un metodo particolarmente semplice e potente che illustra alcuni dei principi che possono essere utilizzati dalle future tecnologie per curare i tessuti. I calcoli supportano l'idea che questo metodo, se implementato, sarebbe in grado di riparare un cervello umano in circa tre anni. Per parecchie ragioni, è verosimile che in pratica metodi migliori siano sviluppati ed utilizzati.   

La riparazione esterna consiste di tre stadi principali:   

(1) Determinare le coordinate e l'orientamento di ogni molecola di grosse dimensioni.   

(2) Determinare una serie di coordinate appropriate nella struttura riparata per ogni molecola di grosse dimensioni [cioè la loro posizione in un cervello sano - NdT].   

(3) Posizionare queste molecole dalla posizione precedente a quella successiva.   

E' ragionevole assumere che i vari problemi tecnici saranno risolti dai futuri progressi tecnologici. Dato che il periodo di conservazione nell'azoto liquido si può protrarre per parecchi secoli, il momento nel quale queste tecnologie si svilupperanno non è critico.   

E' possibile una grande varietà di approcci tecnici a questo problema. La forma di riparazione esterna che usa la strategia "dividi e conquista" richiede solo che (1) il tessuto possa essere diviso senza causare una significativa perdita strutturale di informazione (come con la fratturazione); (2) i pezzi nel quale il tessuto viene diviso possano essere posizionati nelle appropriate destinazioni (per successive divisioni o per l'analisi diretta); (3) un pezzo di tessuto sufficientemente piccolo possa essere analizzato; (4) un programma che sia in grado di determinare lo stato sano del tessuto partendo dallo stato non sano sia realizzabile; (5) che risorse computazionali sufficienti per l'esecuzione di questo programma in tempi sufficienti siano disponibili; e (6) che la guarigione della struttura originale, data una dettagliata descrizione di quella struttura, sia realizzabile.   

In base alle conoscenze attuali è impossibile concludere che uno di questi criteri di fallimento possa verosimilmente essere soddisfatto.   

Ulteriori studi sulla crionica da parte della comunità tecnica sono necessari. Attualmente, c'è una notevole carenza di articoli tecnici sull'argomento [nota 24]. Come dovrebbe essere chiaro da questo articolo, l'analisi multidisciplinare è essenziale per valutare la realizzabilità della crionica, in quanto gli specialisti in ogni singola disciplina hanno un bagaglio di conoscenze che è troppo limitato per comprendere l'intero argomento. Considerando infine che la crionica potrebbe salvare milioni di vite umane, sarebbe tragico se ne fosse provata la realizzabilità, ma nonostante questo, essa fosse poco praticata.  

APPENDICE     

Seguono alcune cifre, approssimative, di interesse [all'articolo - NdT]. I numeri contrassegnati con il simbolo "*" sono estrapolazioni basate su stime di capacità tecniche (nanotecnologia e calcolo molecolare).   

Volume del cervello: 1350 centimetri cubici   
Peso del cervello: 1400 grammi   
Peso delle proteine nel cervello: 100 grammi   
Peso di un ribosoma: 3 x 10^6 amu   
*Peso di una macchina di riparazione: 10^9 to 10^10 amu   
*Lunghezza di un braccio di una macchina di riparazione: 100 nanometri  
Peso dell'acqua nel cervello: 1100 grammi   
Peso delle proteine nel cervello: 100 grammi   
Peso dei lipidi nel cervello: 175 grammi   
Peso degli "altri solidi": 35 grammi   
Peso di una proteina "tipica": 50,000 amu   
Peso di un lipide "tipico": 500 amu   
Peso della molecola di acqua: 18 amu   
Peso dell'atomo di carbonio: 12 amu   
Densità del carbonio (diamante): 3.51 grammi/centimetro cubo   
Numero di proteine nel cervello: 1.2 x 10^21   
Numero di molecole di lipidi nel cervello: 2 x 10^23   
Numero di molecole d'acqua nel cervello: 4 x 10^25   
Tempo necessario per sintetizzare una proteina: 10 secondi   
*Tempo necessario per riparare una proteina: 100 secondi  
*Tempo necessario per riparare una molecola lipidica: 1 secondo   
*Tempo necessario per riparare tutte le macromolecole del cervello: 3.2 x 10^23 secondi per macchina di riparazione  
*Numero di macchine di riparazione necessarie a riparare tutte le molecole del cervello in tre anni: 3.2 x 10^15 macchine di riparazione   
*Peso di questo numero di dispositivi di riparazione: 53 to 530 grammi   
Numero di bits necessari per immagazzinare la struttura molecolare del cervello: 10^25 bit  
*Energia dissipata da una semplice operazione di "rod logic" (gate) (includendo una piccola percentuale di operazioni irreversibili): 10^-22 joule   
*Velocità di una singola operazione di "rod logic" (gate): 100 x 10^-12 secondi   
Costo stimato di 10^15 joule di energia generata sulla terra nel futuro: 10,000 dollari   
*Numero di operazioni logiche che possono essere eseguite con 10^15 joule: 10^37 operazioni logiche   
*Grandezza di un singolo "lock" (gate) più altre strutture necessarie (energia, etc.): 100 nanometri cubici   
*Volume di porte logiche che possono fornire 10^37 operazioni in tre anni (un volume maggiore sarà richiesto per gestire il necessario raffreddamento): 1 centimetro cubo   
Energia di 10^15 joule dissipata su un periodo di tre anni: 10 megawatt (100,000 lampadine per tre anni)   
Energia chimica immagazzinata nella struttura del cervello: 8 x 10^6 joule (2,000 kilocalorie)   
Costante k di Boltzmann: 1.38 x 10^-23 joule/Kelvin   
Energia termica approssimativa di un atomo a temperatura ambiente (kT a 300 gradi K): 4.14 x 10^-21 joule   
Un watt: un joule per secondo   
Un kilowattora: 3.6 x 10^6 joule   
Numero di Avogadro (il numero di atomi in una mole): 6.0221367 x 10^23   
Una mole di una sostanza: la quantità della sostanza che pesa (in grammi) come il suo peso molecolare in amu (unità di massa atomica):   
Per definizione un atomo di carbonio 12 pesa 12 amu  
Joule per Caloria (dietetica): 4,186   

RICONOSCIMENTI     

E' con piacere che l'autore esprime la propria gratitudine alle molte persone che hanno commentato o incoraggiato il lavoro di questo articolo durante la sua evoluzione. I revisori non sono stati selezionati sulla base della loro opinione sulla crionica: alcuni la supportano, alcuni non la supportano e altri non si sbilanciano. Sebbene la qualità del risultato non avrebbe potuto essere ottenuta senza il loro aiuto, l'autore  accetta la responsabilità per ogni errore nella versione finale. L'autore con piacere ringrazia: Dave Biegelsen, Arthur C. Clarke, Mike Darwin, Thomas Donaldson, Eric Drexler, Greg Fahy, Steve Harris, Leonard Hayflick, Hugh Hixon, Peter Mazur, Mark Miller, David Pegg, Chris Peterson, Ed Regis, Paul Segall, Len Shar, Irwin Sobel, Jim Southard, Jim Stevens e Leonard Zubkoff.   

RIFERIMENTI     

2. "Nanotechnology: wherein molecular computers control tiny circulatory submarines", by A. K. Dewdney, Scientific American, January 1988, pages 100 to 103.   
3. "Foresight Update", a publication of the Foresight Institute, Box 61058, Palo Alto, CA 94306.   
4. "There's Plenty of Room at the Bottom" a talk by Richard Feynman (awarded the Nobel Prize in Physics in 1965) at an annual meeting of the American Physical Society given on December 29, 1959. Reprinted in "Miniaturization", edited by H. D. Gilbert (Reinhold, New York, 1961) pages 282-296.   
5. "Principles of Tissue Preservation" by David Pegg, chapter 4, pages 69 to 105 from "Progress in Transplantation", Volume Two, edited by Peter J. Morris and Nicholas L. Tilney.   
6. "Freezing of living cells: mechanisms and implications", by Peter Mazur, American Journal of Physiology, Vol 247 (Cell Physiology 16): C125-C142, 1984.   
7. "Scanning Tunneling Microscopy and Atomic Force Microscopy: Application to Biology and Technology" by P. K. Hansma, V. B. Elings, O. Marti, and C. E. Bracker. Science, October 14 1988, page 209-216.   
8. "Molecular manipulation using a tunnelling microscope," by J. S. Foster, J. E. Frommer and P. C. Arnett. Nature, Vol. 331 28 January 1988, pages 324-326.   
9. "The fundamental physical limits of computation" by Charles H. Bennet and Rolf Landauer, Scientific American Vol. 253, July 1985, pages 48-56.   
10. "Molecular Engineering: An Approach to the Development of General Capabilities for Molecular Manipulation" by K. Eric Drexler, Proceedings of the National Academy of Sciences (USA), Vol 78, pp 5275-78, 1981.   
11. "The Mind's I", by Douglas R. Hofstadter and Daniel C. Dennett. Bantam, 1982.   
12. "Matter and Consciousness: A Contemporary Introduction to the Philosophy of Mind", by Paul Churchland, second edition, 1988, the MIT press.   
13. "Principles of Neural Science", third edition, by Eric R. Kandel, James H. Schwartz and Thomas M. Jessel. Elsevier, 1991.   
14. "Molecular Biology of the Gene", fourth edition, by James D. Watson, Nancy H. Hopkins, Jeffrey W. Roberts, Joan Argetsinger Steitz, and Alan M. Weiner. Benjamin Cummings, 1987. It can now be purchased as a single large volume.   
15. "Death, Dying, and the Biological Revolution", revised edition, by Robert M. Veatch, Yale University Press 1989.   
16. "Human Biochemistry" by James M. Orten, Tenth Edition, Mosby 1982.   
17. "Tiny surgical robot being developed", San Jose Mercury News, Feb. 18, 1989, page 26A   
18. Eric Drexler, private communication.   
19. "Rod Logic and Thermal Noise in the Mechanical Nanocomputer", by K. Eric Drexler, Proceedings of the Third International Symposium on Molecular Electronic Devices, F. Carter ed., Elsevier 1988.   
20. "Submarines small enough to cruise the bloodstream", in Business Week, March 27 1989, page 64.   
21. "Calcium and Ischemic Injury", by Joseph Y. Cheung et. al., The New England Journal of Medicine, Vol. 314 No. 26 page 1670.   
22. "Differential Rearing Effects on Rat Visual Cortex Synapses. I. Synaptic and Neuronal Density and Synapses per Neuron" by Anita M. Turner and William T. Greenough, Brain Research, 329 (1985) pages 195-203.   
23. "Cryonics: reaching for tomorrow", by Brian Wowk and Michael Darwin, Alcor, 1991, 104 pages. Available from the Alcor Life Extension Foundation, Scottsdale AZ, info@alcor.org, 800-367-2228.   
24. "Many are cold, but few are frozen: A Humanist looks at Cryonics", by Steven B. Harris, M.D., Free Inquiry, Vol. 9 No. 2, Spring 1989, pages 19-24.   
25. "Conservative Logic", by Edward Fredkin and Tommaso Toffoli, International Journal of Theoretical Physics, Vol. 21 Nos. 3/4, 1982, pages 219-253.   
26. "The Tomorrow Makers", Grant Fjermedal, MacMillan 1986.   
27. "Computer analysis of neuronal structures" by Robert D. Lindsay, Plenum 1977.   
28. "The microcomputer in cell and neurobiology research" by R. Ranney Mize, Elsevier 1985.   
29. "Intracellular control of axial shape in non-uniform neurites: a serial electron microscopic analysis of organelles and microtubules in AI and AII retinal amacrine neurites", by Sharon E. Sasaki-Sherrington, J. Roger Jacobs, John K. Stevens, Journal of Cell Biology 98, April 1984, 1279-1290   
30. "Guinness Book of World Records," Donald McFarlan et. al., Bantam 1989.   
31. "Dissipation and noise immunity in computation and communication" by Rolf Landauer, Nature, Vol. 335, October 27 1988, page 779.   
32. "Notes on the History of rsible.html" Reversible Computation" by Charles H. Bennett, IBM Journal of Research and Development, Vol. 32, No. 1, January 1988.   
33. "Classical and Quantum Limitations on Energy Consumption in Computation" by K. K. Likharev, International Journal of Theoretical Physics, Vol. 21, Nos. 3/4, 1982.   
34. "Synapses, Circuits, and the Beginnings of Memory," by Gary Lynch, MIT press 1986.   
35. "Memory Storage and Neural Systems," by Daniel L. Alkon, Scientific American, July 1989, pages 42-50.   
36. "Morphological basis of long-term habituation and sensitization in Aplysia" by Craig H. Bailey and Mary Chen, Science 220, April 1, 1983, pages 91-93   
37. "How Much Do People Remember? Some Estimates of the Quantity of Learned Information in Long-term Memory" by Thomas K. Landauer, in Cognitive Science 10, 477-493, 1986   
38. "Neurobiology," by Gordon M. Shepherd, Oxford 1983.   
39. "The anatomy of a memory: convergence of results across a diversity of tests," by William T. Greenough and Craig H. Bailey, Trends in Neuroscience, 1988, Vol. 11, No. 4, pages 142-147.   
40. "Principles and Techniques of Electron Microscopy: Biological Applications," Third edition, by M. A. Hayat, CRC Press, 1989.   
41. "Machines of Inner Space" by K. Eric Drexler, 1990 Yearbook of Science and the Future, pages 160-177, published by Encyclopedia Britannica, Chicago 1989.   
42. "Stopping Biological Time: The Freezing of Living Cells" by Peter Mazur, Ann. N.Y. Acad. Sci. 541: 514-531, 1988.   
43. "Reversible Conveyer Computation in Array of Parametric Quantrons" by K. K. Likharev, S. V. Rylov, and V. K. Semenov, IEEE Transactions on Magnetics, Vol. 21 No. 2, March 1985, pages 947-950   
44. "Basic Human Physiology: Normal Function and Mechanisms of Disease" by Arthur Guyton, M.D., Saunders 1971.   
45. "Theory of Self Reproducing Automata" by John Von Neumann, edited by Arthur W. Burks, University of Illinois Press, 1966.   
46. "The Children of the STM" by Robert Pool, Science, Feb. 9, 1990, pages 634-636.   
47. "A Small Revolution Gets Under Way," by Robert Pool, Science, Jan. 5 1990.   
48. "Advanced Automation for Space Missions", Proceedings of the 1980 NASA/ASEE Summer Study, edited by Robert A. Freitas, Jr. and William P. Gilbreath. Available from NTIS, U.S. Department of Commerce, National Technical Information Service, Springfield, VA 22161; telephone 703-487-4650, order no. N83-15348   
49. "Positioning Single Atoms with a Scanning Tunnelling Microscope," by D. M. Eigler and E. K. Schweizer, Nature Vol 344, April 5 1990, page 524-526.   
50. "Mind Children" by Hans Moravec, Harvard University Press, 1988.   
51. "Microscopy of Chemical-Potential Variations on an Atomic Scale" by C.C. Williams and H.K. Wickramasinghe, Nature, Vol 344, March 22 1990, pages 317-319.   
52. "The Anthropic Cosmological Principle" by John D. Barrow and Frank J. Tipler, Oxford University Press, 1988.   
53. "Time/Space Trade-Offs for Reversible Computation" by Charles H. Bennett, SIAM J. Computing, Vol. 18, No. 4, pages 766-776, August 1989.   
54. "Large Scale Analysis of Neural Structures" by Ralph C. Merkle, Xerox Technical Report CSL-89-10, November 1989. Available from: Xerox Corporation, Palo Alto Research Center, 3333 Coyote Hill Road, Palo Alto, CA 94304.   
55. "Cerebral Hypothermia and Circulatory Arrest," by Robert J. White, Mayo Clinic Proceedings, Vol. 53, July 1978, page 452.   
56. "Postmortem examination of three cryonic suspension patients," by Michael Darwin, Hugh Hixon, and Jerry Leaf. Available from www.alcor.org/" Alcor.   
57. "Frozen and Alive", by Kenneth B. Storey and Janet M. Storey, Scientific American, Vol. 263 No. 6, Dec. 1990, pages 92-97.   
58. "Viability of Long Term Frozen Cat Brain In Vitro" by Isamu Suda, K. Kito and C. Adachi, Nature Vol. 212, October 15, 1966 page 268.   
59. "Analysis of "solution effects" injury: rabbit renal cortex frozen in the presence of dimethyl sulfoxide" by Gregory M. Fahy, Cryobiology 17:371-388, 1980.   
60. "The Etiology, Concept, and Prophylaxis of Childbed Fever" by Ignaz Semmelweis, translated by K. Codell Carter, University of Wisconsin Press, 1983.   
61. Alcor has chilled and re-warmed over ten dogs to 0 degrees to 4 degrees C with full recovery in almost all cases.   
62. "Studies on golden hamsters during cooling to and rewarming from body temperatures below 0 degrees C. III. Biophysical aspects and general discussion," by J. E. Lovelock and A. U. Smith, Proc. Royal Society, Biology (Lond) Series B 145:427-442, 1956.   
64. "Frozen Dreams: A Matter of Life and Death" by Cynthia Gorney, Washington Post, May 1, 1990.   
65. "Cellular and Subcellular Alterations of Human CNS: Studies Utilizing in Situ Perfusion Fixation at Immediate Autopsy" by Hannu Kalimo, Julio H. Garcia, Yoshinari Kamijyo, Junichi Tanaka, Jesus E. Viloria, Jon M. Valigorsky, Raymond T. Jones, Kook M. Kim, Wolfgang J. Mergner, Robert E Pendergrass, Benjamin F. Trump. Arch. Pathol. Vol 97, June 1974, pages 352-359.   
66. "Revival of Mammals from body temperatures below zero," by A. U. Smith. In: Biological Effects of Freezing and Supercooling by A. U. Smith. Edward Arnold, London, 1961, pages 304-368.   
67. "Fixation for Electron Microscopy" by M. A. Hayat, Academic Press, 1981.   
68. "The Biophysics of Organ Cryopreservation" by David E. Pegg and Armand M. Karow, Jr., Plenum, 1987.   
69. "Calcium blockers given after CPR may save brains denied blood up to an hour," Medical World News, January 18, 1982, pages 11-13.   
70. "Metabolic Arrest and the Control of Biological Time," by Peter W. Hochachka and Michael Guppy, Harvard 1987.   
71. "Vitrification: a New Approach to Organ Crypreservation," by Gregory M. Fahy, pages 305-335, in "Transplantation: Approaches to Graft Rejection", edited by H.T. Meryman, 1986.   
72. "Cell Death in Biology and Pathology" edited by I. D. Bowen and R. A. Lockshin, Chapman and Hall, 1981.   
73. "The Relevance of Cryoprotectant `Toxicity' to Cryobiology" by Gregory M. Fahy, Cryobiology 23, 1-13, 1986.   
74. "The Ultrastructure of `Brain Death', II. Electron Microscopy of Feline Cortex after Complete Ischemia," by Hannu Kalimo, Julio H. Garcia, Yoshinari Kamijyo, Junichi Tanaka, and Benjamin F. Trump, Virchows Archiv B Cell Path. 25, 207-220 (1977).   
75. "Lysosome and Phagosome Stability in Lethal Cell Injury" by Hal K. Hawkins, Jan L. E. Ericsson, Peter Biberfeld, and Benjamin F. Trump. Am J. Pathol. 68:255-288, 1972.   
76. "The isolation and in Vitro translation of Undegraded Messenger RNAs from Human Postmortem Brain," by Marcelle R. Morrison and W. Sue T. Griffin, Analytical Biochemistry 113, 318-324 (1981).   
77. "Human Brain in Tissue Culture: Acquisition, Initial Processing, and Establishment of Brain Cell Cultures" by Donald H. Gilden et. al., J. Comp. Neur., 161: 295-306.   
78. "Brain States: Death, Vegetation, and Life" by Julius Korein, pages 293-351, chapter 15, from "Anesthesia and Neurosurgery", 2nd Edition, Cottrell and Turndorf, 1986.   
79. "Bioelectric discharges of isolated cat brain after revival from years of frozen storage," by I. Suda, K. Kito, and C. Adachi. Brain Research 70:527-531, 1974.   
80. "The Prospect of Immortality," by Robert C. W. Ettinger, Sidgwick and Jackson, 1965.   
81. "Chloroplast DNA sequence from a Miocene Magnolia species," by Edward M. Golenberg, David E. Giannasi, Michael T. Clegg, Charles J. Smiley, Mary Durbin, David Henderson, and Gerard Zurawski, Nature, Vol 344, April 12 1990, page 656.   
82. "The Cryobiological Case for Cryonics," from Cryonics, March 1988. Reprints available from The Alcor Life Extension Foundation, Scottsdale AZ, info@alcor.org, 800-367-2228.   
83. "Nonexistent technology gets a hearing," by I. Amato, Science News, Vol. 136, November 4, 1989, page 295.   
84. "The Invisible Factory," The Economist, December 9, 1989, page 91.   
85. " Nanosystems: Molecular Machinery, Manufacturing and Computation" by K. Eric Drexler, John Wiley 1992.   
86. "MITI heads for inner space" by David Swinbanks, Nature, Vol 346, August 23 1990, page 688-689.   
87. "Cerebral Death" by A. Earl Walker, Second Edition, Urban and Schwarzenberg 1981.   
88. "Fundamentals of Physics," Third Edition Extended, by David Halliday and Robert Resnick, Wiley 1988.   
89. "General Chemistry" Second Edition, by Donald A. McQuarrie and Peter A. Rock, Freeman 1987.   
90. "A Possible Cure for Death" by Charles B. Olson, Medical Hypotheses 1988 Vol 26, pages 77-84.   
92. "American College of Physicians Ethics Manual. Part II: Research, Other Ethical Issues. Recommended Reading." by the Ad Hoc Committee on Medical Ethics, American College of Physicians; Annals of Internal Medicine, July 1984; Vol. 101 No. 2, pages 263-267.   
93. "Neurochemical Determinants of Ischemic Cell Damage" by Carl-Henrik Nordstrom, M.D. and Bo K. Siesjo, M.D., pages 49- 66; from "Protection of the Brain from Ischemia" edited by Philip R. Weinstein and Alan A. Faden, Williams and Wilkens 1990.   
94. "Hemodynamics of Postischemic Reperfusion of the Brain," by K.-A. Hossmann, M.D., Ph.D., pages 21-36; from "Protection of the Brain from Ischemia" edited by Philip R. Weinstein and Alan A. Faden, Williams and Wilkens 1990.   
95. "Post-ischemic resuscitation of the brain: selective vulnerability versus global resistance" by K.-A. Hossman; from Progress in Brain Research, Vol. 63, edited by K. Kogure, K.-A. Hossman, B. K. Siesjo and F. A. Welsh, 1985, pages 3-17.   
96. Leonard Hayflick, personal communication in January of 1991.   
97. "Resuscitation potentials after prolonged global cerebral ischemia in cats" by Konstantin-Alexander Hossmann, MD, Ph.D., Critical Care Medicine, Vol 16, No. 10, 1988, page 964-971.   
98. "Charles Babbage On the Principles and Development of the Calculator and Other Seminal Writings" by Charles Babbage and others. Dover, New York, 1961.   
99. "Molecular Mechanics" by U. Burkert and N. L. Allinger, American Chemical Society Monograph 177 (1982).   
100. "Breaking the Diffraction Barrier: Optical Microscopy on a Nanometric Scale" by E. Betzig, J. K. Trautman, T.D. Harris, J.S. Weiner, and R.L. Kostelak, Science Vol. 251, March 22 1991, page 1468.   
101. "Molecular Repair of the Brain" by Ralph C. Merkle, Cryonics Vol. 10 No. 10, October 1989, pages 21-44. This is a much earlier version of the current paper.   
102. "The embryonic cell lineage of the nematode Caenorhabditis elegans," by J.E. Sulston, E. Schierenberg, J.G. White, J.N. Thomson, Developmental Biology, Vol. 100, 1983 pages 64-119.   
103. "Caenorhabditis elegans: Getting to Know You," by Jean L. Marx, Science, Vol. 225, July 6 1984, pages 40-42.   
104. "Why is Development So Illogical?" by Roger Lewin, Science Vol. 224, June 22 1984, pages 1327-1329.   
105. " "http://www.zyvex.com/nanotech/mechano.ps" Two Types of Mechanical Reversible Logic," by Ralph C. Merkle, Nanotechnology 4 (1993) pages 114-131.   
106. J.A. Armstrong, Creativity, Vol 10 No. 2, June 1991.   
107. "Atom by Atom, Scientists build `Invisible' Machines of the Future," Andrew Pollack, The New York Times, Science section, Tuesday November 26, 1991, page B7.   
108. "Theoretical analysis of a site-specific hydrogen abstraction tool," by Charles Musgrave, Jason Perry, Ralph C. Merkle and William A. Goddard III, Nanotechnology, Vol 2 No. 3/4 1991, pages 187-195.   
109. "Memory and Brain" by Larry R. Squire, Oxford University Press, 1987.   
110. "Physics and Life Prolongation" by Gerald Feinberg, Physics Today, November 1966, page 45.   
111. "Near-Field Optics: Microscopy, Spectroscopy, and Surface Modifications Beyond the Diffraction Limit" by Eric Betzig and Jay K. Trautman, Science, Vol. 257, July 10 1992, pages 189-195.   
112. "Reversible Electronic Logic using Switches," by Ralph C. Merkle, Nanotechnology 4 (1993) pages 21-40.
113. "Hot-Clock nMOS" by Charles Seitz, et. al 1985 Chapel Hill Conference on VLSI, Computer Science Press, pages 1-17.   
114. "Energy Limits to the Computational Power of the Human Brain" by Ralph C. Merkle, Foresight Update No. 6 page 1.   
115. "The Bounded Brain: Toward Quantitative Neuroanatomy," by Christopher Cherniak, Journal of Cognitive Neuroscience, Volume 2, No. 1, pages 58-68.   
116. "Nanotechnology: Research and Perspectives" edited by B.C. Crandall and James Lewis, MIT press 1992.   
117. "Self Replicating Systems and Molecular Manufacturing" by Ralph C. Merkle, Journal of the British Interplanetary Society, Vol. 45, pages 407-413, 1992.   
118. "Computational Nanotechnology" by Ralph C. Merkle, Nanotechnology 1991; 2 (3 & 4): 134-141.   
119. "NASA and Self Replicating Systems" by Ralph C. Merkle, Foresight Update No. 9.   
120. "Towards Practical zyvex.com/nanotech/reversible.html" Reversible Logic ," by Ralph C. Merkle, in Workshop on Physics and Computation, PhysComp '92, October, Dallas Texas; IEEE press 1992.   
121. Nanotechnology 1991; 2 (3 & 4), special issue on the Second Foresight Conference on Molecular Nanotechnology.   
122. Journal of the British Interplanetary Society, Vol. 45, 1992, special issue on molecular manufacturing.   
123. "Metabolic and Functional Studies on Post-mortem Human Brain," by J.A. Hardy and P. R. Dodd, Neurochem. Int. 5, 253-266, 1983.   
124. "A Comparison of Methodologies for the Study of Functional Transmitter Neurochemistry in Human Brain," by Peter R. Dodd, John W. Hambley, Richard F. Cowburn and John A. Hardy; Journal of Neurochemistry, 1988, pages 1133-1345.   
125. "Extensive Postmortem Stability of RNA From Rat and Human Brain," by S. A. Johnson, D. G. Morgan, and C. E. Finch; Journal of Neuroscience Research Volume 16, pages 267-280, 1986.   
126. "Cold Start," by Ralph C. Merkle, Cryonics 11(11), November 1990, page 11.   
127. "Efficiently coded messages can transmit the information content of a human across interstellar space," by William A. Reupke, Acta Astronautica, Vol. 26, No. 3/4, pages 273-276, 1992.   
128. "The information content and error rate of living things," by Sidney M. Dancoff and Henry Quastler, pages 263-273 of "Essays on the use of information theory in biology," edited by H. Quastler, University of Illinois Press (1953).   
129. "The next frontier: invisible," by Charles Siebert, The New York Times Magazine, September 29, 1996, pages 137-140.   
130. "Problems of reproducibility -- does geologically ancient DNA survive in amber-preserved insects?" by Jeremy J. Austin, Andrew J. Ross, Andrew B. Smith, Richard A. Fortey and Richard H. Thomas; Proceedings of the Royal Society, London B (1997) 264, 467-474.   
131. Greg Fahy, comunicazioni private.  

NOTE     

1) Peter Mazur, conosciuto criobiologo e critico della crionica, ha detto: "Ai criobiologi viene spesso chiesto quanto a lungo le cellule possono rimanere utilizzabili a -196 gradi C, la temperatura dell'azoto liquido in ebollizione (cioè il normale fluido criogenico). La risposta è semplice: più di 1000 anni. La ragione è che la ionizzazione diretta prodotta dalla radiazione di fondo è la sola fonte di danno a quella temperatura. Le reazioni chimiche normali non possono avvenire. La domanda pertinente allora non è la stabilità della conservazione, ma è come sia possibile portare le cellule a -196 gradi C e riportarle poi a temperatura ambiente senza ucciderle."[42] Il record per la conservazione è detenuto da Leonard Hayflick, che ha tenuto dei normali fibroblasti umani, provenienti da polmoni di embrione, nell'azoto liquido per 28 anni (fino al Giugno 1990) senza visibile deterioramento [96].  

2) Qui non si implica che il metodo di riparazione più potente sarà (o non sarà) utilizzato o necessario. Il fatto che noi possiamo uccidere un moscerino con una doppietta non implica che uno schiaccia mosche non funzioni altrettanto bene. Non sapendo se dovremo affrontare un moscerino o una tigre, terremo la doppietta invece che lo schiacciamosche. La doppietta funzionerà in entrambi i casi, mentre lo schiacciamosche non sarebbe adatto alla tigre. Allo stesso modo, considereremo i metodi più potenti che dovrebbero essere possibili, piuttosto che i metodi minimi che potrebbero essere sufficienti. Sebbene questo approccio può essere criticato sulla base che metodi più semplici probabilmente sarebbero sufficienti, esso evita la complessità e i problemi che si devono affrontare nel tentare di determinare esattamente quale sia il metodo più semplice in ogni specifico caso e fornisce un ulteriore margine di errore.  

3) Una unità atomica di massa è uguale ad un Dalton. Autori diversi in campi diversi, hanno diverse preferenze sui nomi da usare per descrivere questa unità, e quindi nessuna abbreviazione sarà soddisfacente per tutti. L'utilizzo in questo articolo dell'unità di massa atomica, abbreviata come amu, è  un compromesso inteso ad essere facilmente compreso dal vasto pubblico.  

4) Una grande varietà di progetti per computer meccanici sono possibili. Forse la più famosa proposta per un computer meccanico fu fatta da Charles Babbage [98] nella prima metà del 1800. Un sistema meccanico può essere portato a dimensioni molecolari lasciando intaccata la sua funzionalità, sebbene l'analisi di tali sistemi meccanico-molecolari richieda l'utilizzo (giustamente) della meccanica molecolare: questo è un settore scientifico in veloce espansione che simula il comportamento delle molecole attraverso l'uso di campi di forza allo scopo di osservare le forze che agiscono sui singoli nuclei [99]. L'evoluzione nel tempo della posizione dei nuclei può essere seguita utilizzando metodi computazionali relativamente semplici.  

5) Per specificare completamente lo stato di un'atomo, strettamente parlando, è richiesto che specifichiamo gli stati di tutti i suoi elettroni. Per la maggior parte, però, questi stati sono conosciuti o possono essere dedotti velocemente una volta che viene definito il tipo di atomo. Per esempio, un atomo di sodio in soluzione normalmente sarà lo ione, Na+. Similmente, la struttura che lega due atomi di carbonio separati da una certa distanza può essere normalmente dedotta dalla distanza. In maniera simile, lo stato di magnetizzazione è rilevante per i computers (lo stato di magnetizzazione di un floppy disk è chiaramente importante), ma è di trascurabile importanza nei sistemi biologici. La gente viene esposta continuamente a campi magnetici di vari Tesla per l'esecuzione di immagini diagnostiche, e sembra che nessuno stia peggio dopo l'esperienza. Sebbene le informazioni sulle coordinate dovrebbero essere sufficienti in quasi tutte le situazioni, possiamo sempre aggiungere un po' di bit di informazioni addizionali se c'è qualche ambiguità. Questo non aumenta le nostre stime di 100 bit per atomo di molto, e dato che 100 bits è un numero tondo conveniente, continueremo ad usarlo.  

6) Dato che le proteine sono sempre prodotte nella forma di catene lineari, esse devono essere in grado di adottare una configurazione tridimensionale appropriata, da sole. Normalmente, la configurazione corretta è una sola. Se non è così, normalmente la molecola passerà ciclicamente e spontaneamente attraverso le configurazioni appropriate da sola, per esempio un canale ionico si aprirà e si chiuderà nei momenti appropriati indipendentemente dal fatto che il suo stato iniziale fosse la configurazione "aperto" o "chiuso". Se ogni altro caso dovesse rivelarsi un problema, un po' di bit addizionali possono essere usati per descrivere la configurazione specifica che si desidera.  

7) "Per molti anni, si era pensato che un danno cellulare irreversibile e inevitabile si verificasse nel giro di  pochi minuti di completa ischemia cerebrale. Questa opinione è stata modificata durante il decennio passato [riferimento omesso]. Se le condizioni per il recupero sono ottimali, il recupero a breve termine delle funzioni cerebrali potrebbe essere ottenuto dopo periodi di ischemia che durino fino a 60 minuti..."[93]. "La maggioranza degli studi clinici e sperimentali suggerisce che un cervello normotermico non è in grado di sopportare una ischemia completa superiore a 8-10 minuti. Esistono però, chiari risultati sperimentali di recupero funzionale e biochimico di una sostanziale parte del cervello dopo un completo arresto cerebrocircolatorio di un'ora [riferimenti omessi]."[97]. "E' emerso infatti che un appropriato trattamento dei disturbi della ricircolazione post-ischemica portano al recupero del metabolismo energetico e della eccitabilità neuronale dopo un completo arresto cerebrocircolatorio della durata di anche un'ora alla normale temperatura corporea [riferimento omesso]"[95].  

8) Definizioni che sono simili o identiche a quella data qui sono ben conosciute nella letteratura crionica [23].  

9) Questo problema è fonte di forti preoccupazioni per chiunque usi un computer. Esistono un gran numero di tecniche e strumenti per recuperare informazioni da dischi danneggiati o comunque non funzionanti, con l'intento di recuperare la memoria e la "personalità" del computer così che l'utente non soffra una perdita (a volte traumatica).  

10) La crionica non funzionerà se una persona sarà scongelata prematuramente. Questo tipo di fallimento, comunque, non è un argomento contro la crionica, piuttosto è un argomento per congelatori affidabili. Una persona ferita in uno scontro tra automobili potrebbe morire se la sua ambulanza fosse investita da un treno. Questo non è un motivo per cremare le vittime di un incidente piuttosto che usare un'ambulanza per trasportarle all'ospedale!  

11) Secondo il consenso generale, la morte, vista attraverso il criterio della teoria dell'informazione, non avverrà durante il periodo di immagazinamento dei tessuti alla temperatura dell'azoto liquido (confronta la nota 1). Per questa ragione tralasciamo la possibilità che una perdita significativa delle informazioni avvenga durante l'immagazzinamento sebbene questo possa ancora essere considerato teoricamente possibile.  

12) Le critiche alla crionica non sono supportate dalla letteratura [scientifica - NdT] esistente. E' interessante notare che (con sorpresa dell'autore) non esista alcun articolo tecnico pubblicato sulla crionica che affermi che non funziona. Come si potrebbe sospettare, non ci sono neanche articoli nella letteratura neuroscientifica che affrontino la cancellazione della memoria nel senso della teoria dell'informazione, e non ci sono articoli nella letteratura della criobiologia che affrontino l'impatto del congelamento nel mantenimento della memoria a lungo termine, nel senso della teoria dell'informazione. C'è un quasi completo fallimento nel comprendere o considerare le implicazioni del concetto di morte secondo la teoria dell'informazione. Questo fallimento concettuale è un grave impedimento alla ricerca in quest'area. La situazione è ulteriormente aggravata dal fatto che la Society for Cryobiology ha persino adottato regole che prevedono l'espulsione automatica di membri che supportino la crionica. Di conseguenza, quei  membri che supportano la crionica sono in pratica minacciati di esclusione se discutono il proprio punto di vista pubblicamente. Il progresso scientifico è guidato da discussioni e critiche aperte. La soppressione di discussioni aperte da parte di una società scientifica va contro uno dei più centrali principi della ricerca scientifica e rallenta seriamente il progresso.  

13) Molti animali diversi dai mammiferi possono sopravvivere dopo essere stati congelati a temperature di -50 gradi C [57].  

14) Uno studio non pubblicato di Darwin, Leaf e Hixon suggerisce che la penetrazione del glicerolo nelle regioni assoniali dei nervi mielinati è scarsa, e che ne risulta in un maggior danno dell'assone. Questo concorda con l'osservazione che la penetrazione del glicerolo attraverso molti strati di rivestimento mielinico dovrebbe presumibilmente essere rallentato. Comunque, gli assoni mielinati hanno dimensioni  relativamente grandi e servono ad una relativamente ben definita funzione: il trasporto di informazioni. Anche un danno significativo dell'assone non cancellerebbe la sua esistenza o il percorso attraverso il quale verrebbe trasportato il suo segnale. Di conseguenza, è improbabile che questo danno provochi la morte secondo la teoria dell'informazione.  

15) La sospensione crionica, normalmente, inizia immediatamente dopo l'annuncio della "morte" legale. Se la morte legale viene dichiarata al momento della cessazione del battito cardiaco in un malato  terminale che è stato monitorato continuamente, l'intervallo ischemico può essere mantenuto al di sotto dei 5 minuti.  

16) Esistono almeno due modi nei quali la sospensione crionica condotta prima della morte legale potrebbe essere legalizzata. Primo, il supporto dell'opinione pubblica per il "diritto a morire" per malati terminali ed un attivo movimento sta già tentando di tradurre questo supporto in una legge in questa direzione. Secondo, i malati terminali hanno cercato e presumibilmente continueranno a cercare il diritto legale di essere sospesi crionicamente prima (piuttosto che dopo) una malattia degenerativa (cancro cerebrale, per esempio [64]) abbia distrutto il loro cervello. E' difficile sostenere che tali individui dovrebbero essere forzati a soffrire una morte crudele, sapendo che questa agonia sta anche distruggendo il loro cervello e quindi ogni possibilità per una vita futura.  

17) Ci possono essere varie ragioni per un ritardo, quando una persona viene messa in sospensione crionica. Queste vanno da ragioni puramente pratiche, come il ritardo che consegue ad incidenti improvvisi e inaspettati, o come problemi legali che impongano che la sospensione non sia iniziata fino a quando una dichiarazione di morte legale non sia pronunciata. Quale che ne sia la causa, l'effetto è di aumentare il livello di danno che avviene prima della sospensione.  

18) Dovrebbe essere chiaro che l'affermazione di "irreversibilità" non è supportata. La funzione mitocondriale è ben compresa: fornire energia alla cellula. Anche la completa assenza di mitocondri non causerebbe la morte secondo il criterio della teoria dell'informazione.  

19) Molti studi contemporanei propongono la (corretta) affermazione che le funzioni delle cellule, degli organi e del corpo non sono perdute sotto certe condizioni. Questa perdita di funzionalità viene etichettata in modo scorretto e fuorviante come "morte", "danno irreversibile", etc. Questi studi formano il bagaglio culturale dei biologi, criobiologi e dottori che stimano il danno tessutale dei pazienti sospesi crionicamente. Chiaramente, questi studi predispongono tali operatori ad un rifiuto della crionica perché, secondo questi criteri, la maggior parte dei pazienti sospesi crionicamente ha subito seri danni  "irreversibili". Le implicazioni dell'adozione del criterio di morte secondo la teoria dell'informazione non sono state nemmeno considerate e possiamo aspettarci un ritardo di parecchi anni, se non di qualche decennio, prima che lo siano. Non sarebbe la prima volta, storicamente, che nuove idee fatichino ad essere accettate. Ignaz Semmelweis dimostrò nel 1848 che lavarsi le mani in una soluzione clorinata dopo aver lasciato la sala delle autopsie e prima di entrare nel reparto di maternità riduceva le morti delle madri a causa di febbri postparto dal 25% all' 1%. Nonostante ciò, la sua proposta venne ampiamente ridicolizzata e fu poco praticata per parecchi decenni [60]. E' interessante notare che ben pochi, anche fra i più severi critici della crionica, dichiarino che la morte, secondo la teoria dell'informazione, abbia molte  possibilità di avverarsi [in un paziente in sospensione crionica -NdT ] se la domanda viene posta loro direttamente.  

20) E' interessante notare che le attuali ricerche sulle strutture tridimensionali dei neuroni spesso usino tessuti neurali immersi in plastica che sono poi tagliati in una serie di sottili sezioni con un ultramicrotomo (tipicamente, nel lavoro di ricostruzione fatto con microscopi elettronici, da 50 a 100 nanometri di spessore). La serie di sezioni viene quindi esaminata da una persona (tipicamente uno studente diplomato) e le strutture interessanti in ogni sezione vengono circoscritte su una tavoletta digitale ed inserite in un computer. Il database risultante viene usato per costruire una immagine tridimensionale del neurone [54]. Questi studi hanno avuto un certo successo nel determinare la struttura tridimensionale di piccoli volumi (piccoli abbastanza da essere esaminati da uno studente diplomato in poche settimane o mesi) a dispetto degli effetti avversi della preparazione dei tessuti e del sezionamento. Le sezioni variano in spessore. Spesso si deformano, piegano e strappano. A dispetto di queste difficoltà, il sistema visivo umano può ricostruire la forma originale dell'oggetto in tre dimensioni. Le attuali ricostruzioni al microscopio elettronico sono adeguatamente capaci di analizzare anche il più piccolo dei dendridi e il più sottile degli assoni, così come di determinare la posizione e la grandezza delle sinapsi [27,28], e anche di particolari più piccoli [29]. Sembra ragionevole, quindi, che i metodi meno distruttivi di induzione di una frattura a bassa temperatura, insieme alle analisi più complete e meno distruttive possibili con la nanotecnologia (nanotechnology), (al posto di un'analisi distruttiva di sezioni sottili attraverso un raggio di elettroni ad alta energia) produrranno più informazioni a riguardo della struttura che viene analizzata.  

21) In circostanze favorevoli, dovremmo essere in grado di evitare alcune di queste divisioni. Infatti, un'area di tessuto di dimensioni relativamente grandi (dalle diverse miglialia di micron in sù) potrebbe essere relativamente intatta e di consequenza potrebbe richiedere solo un minimo livello di intervento (o potrebbe persino non richiederne alcuno). La discussione di metodi per sfruttare tali situazioni di danno minimo in circostanze favorevoli, non rientra nelle intenzioni di questo articolo.  

22) Per coloro preoccupati circa l'omissione delle molecole di acqua e simili, potremmo annotare con relativa facilità le coordinate di ogni molecola. Questo aumenterebbe la memoria necessaria, ma sarebbe comunque fattibile.  

23) Nonostante le ben note difficoltà nell'ottenere informazioni accurate riguardo specifici aspetti dell'"hardware" del cervello, come discusso da Cherniak [115], è pur sempre possibile ottenere delle indicazioni approssimative.  

24) Una ricerca sulla crionica nella letteratura scientifica, insieme a indagini personali, non ha prodotto un singolo articolo tecnico che dichiari che la crionica sia irrealizzabile o che sia improbabile che sia realizzata. Articoli tecnici e analisi della crionica che si dichiarano a favore della sua realizzabilità sono stati invece pubblicati. Non è razionale, data la letteratura scientifica esistente, concludere che sia probabile che la crionica non funzioni. Essendo tali affermazioni negative prive di supporto, esse richiedono ulteriore analisi e una cauta valutazione critica prima di poter essere prese seriamente.   

La versione originale di questa pagina è parte del sito web di Ralph C. Merkle.  

Questo articolo è stato pubblicato in due parti nella rivista Cryonics,Vol. 15 No 1 & 2, di Gennaio e Aprile del 1994. Cryonics è una pubblicazione della Alcor Life Extension Foundation, Scottsdale AZ, info@alcor.org, telefono: +1 800-367-2228. L'URL per la versione originale di questo articolo è: http://www.merkle.com/cryo/techFeas.html. Una versione breve di questo articolo, intitolata "The Technical Feasibility of Cryonics" è apparso in Medical Hypotheses Vol. 39, 1992; 6-16.  

------  

Vedi anche:  




Società Italiana per la Crionica