PDF Stampa E-mail
Coscienza soggettiva
Tecnoscienza - Mind uploading

Quasi un FAQ sulla coscienza soggettiva, nella forma di un dialogo a più voci, emerso in stile "ordine spontaneo" da una discussione sulla lista di Estropico nel maggio 2001 [aggiornamento: da allora la lista è diventata la newsletter mensile del sito].  

L'anno è il 2030…  La tecnologia necessaria a creare una copia perfetta di un cervello umano è disponibile (che si tratti di una copia identica a livello atomico, creata con mezzi nanotecnologici o di un modello su computer, basato su scannerizzazione del cervello originale, poco importa ai fini di questa discussione…) La domanda è: se il cervello in questione fosse il tuo, la copia saresti sempre tu?  

coscienza soggettiva brain

Tutto cominciò con "
The Age of Spiritual Machnines"…  

 Diego:  

Ciao a tutti !  Recentemente ho inviato un'email a Ray Kurzweil e, a differenza delle altre volte, mi ha risposto! Certo non ha sprecato molte parole tuttavia sono contento che si sia fatto sentire… vi invio il testo tradotto del mio messaggio e la sua risposta.... un momento che faccio un copy & paste da Outlook....  

Professor Kurzweil,  

ho letto il suo recente libro, "The Age of Spiritual Machines" e vorrei porle una domanda. Lei illustra un problema al quale non dà risposta: mi riferisco alla questione dell'uploading dei contenuti di un cervello umano su di un medium non-biologico, in modo di raggiungere l'immortalità. Il problema, secondo me, è che in queste circostanze, è solo l'informazione pura a divenire immortale, non l'essere umano il cui cervello è "uploadato". Sarebbe l'equivalente di essere clonati, cioè non sarebbe come rinascere, ma si tratterebbe solo della creazione di una nuova copia di se mentre l'originale rimarrebbe lo stesso. Di conseguenza, penso che tale processo non offra l'immortalità e che un sistema migliore sarebbe una graduale sostituzione dell'hardware umano e delle nostre reti neurali, se ciò diverrà possibile, in modo che l'informazione e la coscienza siano mantenute nello stesso posto. Inoltre, che dire dell'individuo creato nel processo di uploading? Si troverebbe in una rete computazionale senza vista, udito, etc e senza poter parlare. Il nuovo individuo sarebbe come un vegetale anche se dotato di un intelletto superiore a quello umano. Immagino che tale entità impazzirebbe nel giro di pochi minuti, perchè tutto sommato sarebbe sempre un essere umano, con tutte le sue emozioni, intrappolato in un ambiente estremamene ostile. Tutto ciò mi spinge a considerare che tale tecnologia, se sarà mai disponibile, dovrà essere implementata in maniera lenta, evolutiva e adattata ad ogni singolo individuo in modo di evitare un passaggio troppo veloce che potrebbe avere effetti negativi.    

Caro Diego,  

Le tue sono osservazioni valide. Ricorda però che un "upgrade" graduale del nostro hardware potrebbe essere considerato l'equivalente del trasferimento dell'informazione in un nuovo substrato, seguito dalla distruzione della tua vecchia versione. Il problema della perdita di coscienza a cui tu accenni esisterebbe in entrambe le situazioni.  Affronterò questi temi più in profondità nel mio prossimo libro "The singularity is near".  Ray Kurzweil  

Fabio:  

Mi fa piacere sapere che sia il tipo di autore che si preoccupa di rispondere ai messaggi dei propri lettori... Io non sono certo un esperto alla Kurzweil, ma permettimi un paio di osservazioni personali.  

Tu dici che è solo l'informazione pura a divenire immortale, non l'essere umano il cui cervello è "uploadato", ma secondo me l'informazione stessa è l'individuo! Il substrato sul quale tale informazione, o software, è installato non è importante, da questo punto di vista. Il fatto che tale informazione sia contenuta in reti di neuroni all'interno di una scatola d'osso o all'interno di microcircuiti integrati all'interno di una scatola di metallo, può avere un impatto enorme sul funzionamento del software, ma esso (e quindi tutto ciò che costituisce un individuo: personalità, memorie, etc ) rimane immutato. (Certo, una volta uploadato, non mi aspetto che tale individuo resti a lungo  esattamente come era prima del "trasferimento", date le enorme possibilità che avrebbe a disposizione di controllare e riprogrammare, se desiderato, la propria mente, ma questo è un altro discorso...)  

Inoltre, non penso che possa essere paragonato alla clonazione, dato che un clone ha il tuo DNA, ma non potrà mai avere le stesse esatte esperienze che hanno prodotto quella che, oggi, è la tua personalità. Certo, un upload non avrebbe il tuo DNA, ma avrebbe l'informazione contenuta nel tuo cervello. Ci sarebbero due copie di te a quel punto: uno saresti tu, esattamente come sei oggi e l'altro saresti sempre tu, ma su di un substrato diverso.  

Per quanto riguarda l'idea di un "trasferimento" graduale, ed il fatto che informazione e coscienza siano mantenute nello stesso posto, non mi sembrano fattori così importanti quanto il fatto che la continuità sia mantenuta. Intendo dire, che se mi faccio uploadare devo "risvegliarmi" all'interno del mio nuovo "corpo" come se mi svegliassi una mattina qualsiasi nel mio corpo di oggi, cioè ricordandomi esattamente tutto quello che ho fatto la sera prima (e tutti gli anni precendenti !) Chiaramente, questo vorrebbe dire lasciare in esistenza una sola copia, il che sarebbe una scelta difficile... oppure le due copie potrebbero essere lasciate entrambe attive, ma comincerebbero subito a divergere e diventerebbero probabilmente due persone diverse (come se io fossi andato a vivere in Cina dieci anni fa: oggi sarei probabilmente una persona diversa). L'opzione di un lento upgrading non è certo da escludere e sarebbe sicuramente più accettabile psicologicamente, ma alla fin fine, i due processi sono identici e sono solo i tempi che cambiano.  

Certo sarebbe uno shock ritrovarsi all'improvviso senza corpo e all'interno di un mondo alieno, ma l'uso di una realtà virtuale ad alta definizione sensoriale (cioè che copra tutti i sensi) potrebbe evitare lo shock iniziale. Se questa realtà virtuale fosse sufficientemente avanzata potrebbe persino essere possibile che la persona uploadata non noti la differenza con il mondo "reale"…  

Diego:  

Devo dire che le tue osservazioni sono inappuntabili; forse quello che va oltre la mia comprensione è il concetto di trasferimento di coscienza da un medium all'altro...non riesco a comprendere come si possa anestetizzare una persona , effettuare il download delle informazioni e fare in modo che questa "entità" si "svegli" (attacchiamo la spina?) nel nuovo supporto hardware....non so se ho reso l'idea....riesci a chiarirmi questo punto?  

Fabio:  

La prova del nove per l'uploading è molto semplice, ma non la possiamo ancora metter in pratica. Quando l'uploading sarà disponibile, basterà chiedere alla persona uploadata come si sente, se si ricorda della sua vita precedente, se prova le stesse emozioni che provava prima della procedura, etc, etc. Se si trattasse di qualcuno che conosciamo bene, sarebbe ancora meglio, dal punto di vista di questo test. Sarebbe in pratica una specie di Turing test... Chiaramente, la prova definitiva, che spazzerebbe ogni dubbio, sarebbe l'esperienza diretta e personale... Tornando alla tua domanda: le modalità del "risveglio" potrebbero essere altrettanto banali quanto lo svegliarsi da un sonnellino, per esempio con l'equivalente dell'"attaccare la spina"... le cose veramente interessanti comincerebbero dopo!  

Mirai:  

Finalmente siamo giunti alla coscienza soggettiva. Vedo che se ne parla in modo abbastanza rilassato… Vediamo se riesco a fare sorgere qualche dubbio…  

E' stata menzionata l'importanza di mantenere l'informazione e la coscienza nello stesso posto… empirico, ma carino… ci torneremo sopra. Certe volte cose che sembrano ridicole a dirsi (il posto dove l'informazione risiede la identifica) possono non esserlo quando si parla di coscienza soggettiva.  

Kurzweil forse si sbaglia, quando sostiene che non ci sia differenza fra l'updoad istantaneo e quello graduale. Quello che dice ha sicuramente senso se vediamo le cose da un punto di vista oggettivo (dal di fuori). Ma se iniziamo a considerare la coscienza soggettiva non possiamo usare le solite equivalenze spaziotemporali. Esempio banalissimo: io sono cresciuto col tempo e ora ho 24 anni. Se quando avevo 7 anni mi avessero cambiato conformazione atomica con la nanotecnologia e trasformato in una frazione di secondo in quello che sono adesso, sarebbe stato un processo "equivalente", come dice Kurzweil. Cioe`, per tutti voi sarebbe stato equivalente. Ma consideriamo il mio punto di vista! Dobbiamo supporre che se, quando avevamo 7 anni, ci avessero trasformato in quello che siamo adesso - una persona completamente differente con poche delle memorie che avevamo un tempo e un programma neurale MOLTO diverso - avremmo mantenuto l'impressione di essere coscienti, il "what it feels to be you" ? Non penso proprio. Penso che se mi avessero preso e mi avessero trasformato io sarei morto. Insomma rispondo a Kurzweil così: per analizzare OGGI il problema del "restare coscienti" abbiamo pochi dati e non è saggio ignorare quei pochi che abbiamo. Uno di questi dati  è che da quando eravamo bambini siamo cambiati moltissimo pur mantenendo la nostra coscienza, qualunque cosa sia o voglia dire. E le uniche cose che sono rimaste costanti da quando eravamo piccoli (e a cui quindi possiamo attribuire il fatto che non siamo morti malgrado il cambiamento) sono la continuità spaziale e temporale delle informazioni e il cambiamento lento e graduale della struttura che crea la nostra coscienza. Mentre dal punto di vista esterno possiamo dire "equivalente", dal punto di vista interno dobbiamo abbracciare l'idea che le regole dell'esistenza soggettiva possono divergere da quelle della semplice osservazione esterna, sulle quali la scienza pone le basi. Ciò non vuole dire che la coscienza soggettiva sia al di fuori delle leggi dell'universo, solo che queste leggi lavorano in maniera finora inesplorata quando si considera l'esistenza soggettiva (ovviamente, visto che tutto il resto si può spiegare in terza persona). Se vi sembra strano dire che la coscienza soggettiva sia legata a processi temporali quali il cambiamento graduale, allora ditemi: com'è possibile essere coscienti in una frazione infinitesimale di secondo (o in un' unità di tempo)? La coscienza è un fenomeno che si svolge nel tempo. La sua natura potrebbe benissimo essere più interconnessa con quello che percepiamo come tempo di quanto non sospettiamo. Infatti  questa connessione potrebbe essere la ragione per cui percepiamo il mondo come un film che si "svolge" nel tempo anzichè come un "mattone di esperienza" il quale veramente è, essendo il tempo solo una quarta dimensione.  

Questo significa che un upgrade molto lento e graduale del nostro hardware è più accettabile di un cambiamento improvviso anche da un punto di vista logico.  

Un'altro paio di cose:  

Tu dici: "Ma secondo me l'informazione stessa è l'individuo! Il substrato sul quale tale informazione o software è installato non è importante da questo punto di vista. Il fatto che tale informazione sia contenuta in reti di neuroni all'interno di una scatola d'osso o all'interno di microcircuiti integrati all'interno di una scatola di metallo, può avere un impatto enorme sul funzionamento del software, ma esso (e quindi tutto ciò che costituisce un individuo: personalità, memorie, etc ) rimane immutato."  

Anche io la pensavo come te e c'è della verità in questo discorso, ma anche delle cose che non quadrano. E' vero che il substrato non importa, Moravec ne discute a lungo e sono d'accordissimo. Ma dire che noi siamo informazione è come dire che Windows è informazione. Non siamo solo informazione, c'è anche un processo senza il quale l'informazione è statica, inutile. Se non accendi il computer Windows non esiste. La simulazione è ferma. Così come nel caso dell'ibernazione, l'informazione rimane ma non sei conscio. Allora dobbiamo attribuire la coscienza a un processo. Un processo è un cambiamento nel tempo. Il che ci porta a dire ok, allora consideriamo una copia atomica di una persona messa in realtà virtuale in modo che l'input ai suoi sensi sia identico all'input dell'originale. Abbiamo ora processi totalmente identici. Dal di fuori le due persone sono indistinguibili e uccidere il primo lasciando viva la copia sarebbe un atto lecito e non distruttivo. D'altro canto punta una pistola in faccia a uno dei due e ti spiegherà meglio di me come in realtà l'altro sia DIVERSO. Ma allora non siamo neanche un processo? Allora cosa siamo? Cos'è che rende possibile ciò? Che possa esistere un processo identico al tuo ma che comunque tu ti senta conscio in un solo corpo e veda da due occhi e non quattro? Cosa significa "essere" un processo? Che bisogno c'è di "essere"? E ancora più in profondità: come mai io sono io e non sono qualcun'altro? Che lui sia una copia atomica di me o no non ha poi così importanza; mi chiedo come mai io SIA questo processo e non un altro. Per questo vi vedo eccessivamente rilassati su questo discorso. Bisognerebbe pensare all'esistenza soggettiva come ad un mostro a 5 corna.  

Dimenticavo una cosa:  

Tu dici che: "la prova del nove per l'uploading è molto semplice, ma non la possiamo ancora metter in pratica. Quando l'uploading sarà disponibile, basterà chiedere alla persona uploadata come si sente, se si ricorda della sua vita precedente, se prova le stesse emozioni che provava prima della procedura, etc, etc. Se si trattasse di qualcuno che conosciamo, sarebbe ancora meglio, dal punto di vista di questo test. Sarebbe in pratica un Turing test..."

Stai scherzando?! Questa è la prova del nove del fatto che non potremo mai sapere se chi esce dall'upload è una continuazione della coscienza della prima persona o meno. Che il trasferimento del "what it feels like to be me" riesca o meno avrai un tizio che ti convincerà a sangue di essere la persona e che il trasferimento è riuscito. 

Inoltre: "Chiaramente, la prova veramente definitiva, che spazzerebbe ogni dubbio, sarebbe l'esperienza diretta e personale..."  

Esistono quattro scenari alternativi:  

Se distruggi l'originale e il trasferimento funziona, benissimo, hai spazzato via ogni dubbio, ma non convincerai mai nessuno a crederti per i motivi di cui sopra.  

Se distruggi l'originale e il trasferimento non funziona, cioè se il "what it feels like to be you" non viene preservato, sei morto.  

Se non distruggi l'originale e il trasferimento non funziona, sei ancora nel primo corpo e hai fatto un altro te che pensa abbia funzionato.  

Se non distruggi l'originale e il trasferimento funziona ? Boh?! Inizi a vedere da 4 occhi?  :-)  

Probabilmente questa quarta opzione è impossibile. Io ci penserei bene prima di fare la prova definitiva :-) ma non avrei problemi con un upgrade graduale. Qualcuno ha letto di quella procedura che propone un upgrade graduale del substrato (sostituzione di neuroni con equivalenti nanotecnologici) mentre il paziente continua a fare scelte premendo due bottoni con su scritto: "mi sento lo stesso" e "non mi sento lo stesso"? Dopo avere sostituito strato per strato di cervello, se il paziente si è sempre sentito uguale, non c'è verso che la persona finale non sia una continuazione di coscienza. I neuroni potrebbero essere bypassati anzichè distrutti in modo da permettere di fare verifiche saltando avanti e indietro tra i livelli per assicurarsi di sentirsi sempre ok. In questo modo l'esperimento potrebbe venire annullato a qualunque punto, e l'annullamento stesso potrebbe essere graduale. Se tutto va bene si continua a premere pulsanti e se non si sente mai una differenza si finisce uploadati.  

Come nota finale, vorrei far notare che molte persone sono concentrate più sull'aumento di intelligenza, performance e abilità fisiche piuttosto che emozioni. Dico io: una formica non ha compassione, gioia o un senso di orgasmo (forse) ecc. e se ce l'ha è ragionevole pensare sia molto inferiore visto che il suo cervello è un milionesimo (?) del nostro. Ora se aumentiamo il nostro cervello di un miliardo di volte, non avremo emozioni più forti di un essere umano normale, e la differenza non sarà più di quella che c'è tra un uomo (o donna) e una formica? Anche se i processi emotivi fossero meccanismi isolati non dipendenti (1 a 1) con la massa cerebrale, con un cervello più grande riusciremmo comunque a trovare il modo di amplificarli.

Diego:  

Penso che tu abbia centrato il problema. In effetti ho passato la scorsa notta a ragionarci e avevo intenzione di inviare un'altra mail a Kurzweil proprio per chiedergli cosa ne pensa di questi aspetti del problema (il trasferimento della coscienza). Ripeto: secondo me l'unico modo per guadagnare l'immortalità ovvero preservare la coscienza rendendola indipendente da processi biologici destinati a terminare è quello di effettuare l'upgrade "in loco" , un passo alla volta. Sappiamo che una teoria può avere mille dimostrazioni a suo favore ma basta una dimostrazione in senso contrario a farla decadere; Kurzweil dà per scontato che a seguito del mind uploading si proceda poi "terminando" l'individuo sorgente; ma è proprio qui che casca l'asino: innanzi tutto  vorrei capire quale "magia" permette alla coscienza di trasferirsi da un supporto all'altro nel momento della morte dell'uno e dell'"accensione" dell'altro… e qui intendo rispondere anche a chi dice che l'informazione è l'individuo: no! L'informazione mi consente di avere una perfetta simulazione dell'individuo. Inoltre: e se non terminassimo l'individuo sorgente? Dove sarebbe la sua coscienza? Nella macchina o nel corpo originario? E se effettuassimo un upload di due individui nello stesso supporto hardware?  

C'è poi un'altra questione: l'informazione prelevata dal cervello come è immagazzinata nel cervello stesso? Da quello che ho capito basterebbe avere una mappa delle connessioni sinaptiche per ricostruire il contenuto della mente, ma se così fosse allora potremmo effettuare la scansione di un individuo morto da poco e ricopiarla in una rete neuronale artificiale: se riattachiamo la spina lo facciamo risorgere? Se guardiamo nel cervello di un uomo ucciso possiamo leggere chi è il suo assassino?  

In ultimo: quando una persona è morta? Alla luce di tutte le teorie sopra esposte possiamo dire che una persona è morta quando l'informazione non è più recuperabile, ovvero quando le cellule cerebrali sono andate in decomposizione o comunque la mappa sinaptica non è più leggibile.....quindi un morto non è morto ma è in stand-by? Mah, secondo me non è tutto così semplice come Kurzweil ci vuol far credere (per lui è solo un problema di tecnologia e larghezza di banda per la scansione dei vari strati cerebrali). L'idea di un upgrade in loco mi sembra più accettabile....comunque, ricordiamoci che il nostro cervello non è solo un contenitore di informazioni ma un complesso organo che si è evoluto all'interno di un corpo e che per il suo funzionamento "prevede" appunto la presenza del corpo stesso.......  

Fabio:  

Tu dici: "Il download crea una nuova coscienza soggettiva, non trasferisce la tua.  Intendo anche rispondere a chi dice che l'informazione è l'individuo: no! L'informazione mi consente di avere una perfetta simulazione dell'individuo…"  

Qui si mette il proverbiale dito nella piaga… Una perfetta copia di qualcosa è in effetti quella stessa cosa o solo una replica? In altre parole: d'accordo, non è un trasferimento letterale della coscienza soggettiva, ma se si tratta di una copia fedele dell'originale, non è allora la stessa cosa? Se la "cosa" in questione sono io, in punto di morte e la simulazione è attivata nel momento esatto in cui "io" tiro le cuoia, il mio nuovo "io" tirerà un sospiro di sollievo? Guarderà al "suo" vecchio corpo e sarà lieto di essersela cavata? Se esiste continuità, non sarebbe giustificato descrivere il processo come un trasferimento di coscienza soggettiva in pratica, anche se letteralmente non si tratta di un trasferimento, dato che chiaramente si tratta di due sistemi "diversi" che sostengono due coscienze soggettive diverse-ma-identiche? Forse dovremmo creare una serie di neologismi per descrivere le varie versioni di se che emergebbero...  

Se la situazione è meno drammatica (cioè se non sono in punto di morte) e si crea una copia del mio io, dopo di che il mio io originale continua la sua esistenza, le due versioni sarebbero identiche solo per qualche tempo: cinque anni dopo è probabile che si abbiano due versioni diverse dello stesso individuo (potremmo chiamarli Io-A e Io-B) a causa delle diverse esperienze vissute dalle due versioni. E lo "staccare la spina" alla versione elettronica non sarebbe l'equivalente di un omicidio?  

Tu dici: "Io sono cresciuto col tempo e ora ho 24 anni. Se quando avevo 7 anni mi avessero cambiato conformazione atomica con la nanotecnologia e trasformato in una frazione di secondo in quello che sono adesso, sarebbe stato un processo "equivalente", come dice Kurzweil. Cioè, per tutti voi sarebbe stato equivalente. Ma consideriamo il mio punto di vista! Dobbiamo supporre che se, quando avevamo 7 anni, ci avessero trasformato in quello che siamo adesso - una persona completamente differente con poche delle memorie che avevamo un tempo e un programma neurale molto diverso - avremmo mantenuto l'impressione di essere coscienti, il "what it feels to be you" ? Non penso proprio. Penso che se mi avessero preso e mi avessero trasformato io sarei morto."  

D'accordo, ma non vedo dove sia l'analogia fra l'uploading ed il tuo esempio. Il tuo esempio funzionerebbe solo nel caso di una persona uploadata che fosse dotata (durante l'uploading) di memorie, conoscenze e capacità che non aveva prima della procedura. Non so decidere se la persona originale si "risveglierebbe" diversa o se si potrebbe considerare morta. Potrebbe essere una questione di percentuali… 70% versione originale, 30% versione nuova :-)  

Comunque, la conseguenza di ciò è che, come dici tu: "...un upgrade molto lento e graduale del nostro hardware è più accettabile di un cambiamento improvviso anche da un punto di vista logico. Ripeto: secondo me l'unico modo per guadagnare l'immortalità, ovvero per preservare la coscienza rendendola indipendente da processi biologici  destinati a terminare, è quello di effettuare l'upgrade "in loco" , un  passo alla volta."  

Sì, ma solo per evitare shock e confusione nella mente della persona uploadata. Un upload "istantaneo" è certamente più rischioso di uno fatto un passo alla volta con la sostituzione graduale, ma l'idea di base è la stessa: il "trasferimento" di una mente su un altro substrato.    

"Vorrei capire quale "magia" permette alla coscienza  di trasferirsi da un supporto all'altro nel momento della morte  dell'uno e dell'"accensione" dell'altro."  

Potremmo dire che la coscienza soggettiva è una proprietà emergente di sistemi sufficientemente complessi (il che è poi la formuletta rituale per dire che in pratica non conosciamo i dettagli....!)  

"E se non terminassimo l'individuo  sorgente? Dove sarebbe la sua coscienza? Nella macchina o nel corpo  originario?"  

In entrambi! E le due versioni comincerebbe subito a ad evolversi in individui sottilmente differenti, così come chiunque nel corso della propria vita si evolve in una serie di individui leggermente (o drasticamente in certi casi) differenti, nel corso del tempo.  

"Potremmo effettuare la scansione di un individuo morto da poco e  ricopiarla in una rete neuronale artificiale: se riattachiamo la  spina lo facciamo risorgere?"  

Sì!  

"Se guardiamo nel cervello di un uomo  ucciso possiamo leggere chi è il suo assassino?"  

Perchè no? Ricordi la faccenda delle immagini recuperate dai neuroni di gatto?  (Reconstruction of Natural Scenes from Ensemble Responses in the Lateral Geniculate Nucleus. Garrett B. Stanley, Fei F. Li, and Yang Dan)  

"In ultimo: quando una persona è morta? Alla luce di tutte le teorie sopra esposte possiamo dire che una persona è morta quando  l'informazione non è più recuperabile, ovvero quando le cellule  cerebrali sono andate in decomposizione o comunque la mappa sinaptica  non è più leggibile..."  

Esattamente!  

"Quindi un morto non è morto ma è in stand-by?"  

Dipende da quanto èmorto, o più precisamente, dipende da quanto danno ha subito il suo cervello. èuna delle ragioni per cui secondo me la crionica è una scommessa valida.  

Mirai:  

"Vorrei capire quale "magia" permette alla coscienza di trasferirsi da un supporto all'altro nel momento della morte dell'uno e dell'"accensione" dell'altro"  

Nessuna magia, purtroppo… è per quello che si muore…  

"Allora potremmo effettuare la scansione di un individuo morto da poco e ricopiarla in una rete neuronale artificiale: se riattachiamo la spina lo facciamo risorgere?"  

Non penso, anche se in quel caso darei il permesso di fare l'esperimento su di me. Al peggio si creerebbe un altro tizio che continua a scrivere messaggi col mio account :-)  

"Il cervello è un organo complesso che si è evoluto all'interno di un corpo e che per il suo funzionamento "prevede" appunto la presenza del corpo stesso..."  

Sono d'accordo che la mente non sia solo informazione. Il problema del corpo però non si pone perchè una mente uploadata avrebbe un corpo virtuale (possibilmente molto ben fatto e che non si ammala).  

Cambiando leggermente discorso. Sarebbe possibile utilizzare un sistema di "fusione" delle menti ("mind merge") di due copie identiche (originale e copia, o Io-A e Io-B) per cercare di prevenire la divergenza fra le due versioni ed è probabile che se due individui facessero un mind merge alla fine della giornata non si tirerebbero cazzotti a vicenda tutto il giorno. Però, questo non prova che due entità assolutamente uguali  (cioè mantenute uguali in questo caso dallo stratagemma della fusione mentale) abbiano una comunione di coscienza soggettiva. Se  invece di fargli fare la fusione mentale, li prendi e li metti uno di fronte all'altro in una stanza simmetrica e gli chiedi chi vuole essere elettrificato, non penso che nessuno si offra volontario. Il che significa che non hanno una comunione di coscienza soggettiva, altrimenti il sacrificio di una delle due versioni sarebbe accettabile, dato che l'altro sopravviverebbe e la coscienza soggettiva non sarebbe persa.  

"…cosa succede se riversiamo su più macchine lo stesso contenuto "mentale"?"  

Penso di poter dire con sicurezza che creeresti coscienze soggettive identiche, ma separate. Se lo fai su un'altra persona, no problem. Se lo fai su di te ti chiederai per sempre come mai vedi dai tuoi due occhi e non da un altro paio di occhi nel corpo di una delle varie copie identiche...  

"Una perfetta copia di qualcosa è quella stessa cosa o solo una replica?"  

Non penso ci sia bisogno di entrare nel campo dell'identità/equivalenza, perchè come ho detto anche senza essere perfettamente identici a cinque minuti fa "siamo ancora noi" qualunque cosa possa volere dire questa sensazione.  

"E lo "staccare la spina" alla versione elettronica non sarebbe l'equivalente di un omicidio?"  

Staccare la spina a una coscienza elettronica è un omicidio se la corrente non viene ripristinata o se le informazioni vengono perse. Così come è un omicidio causare la distruzione del cervello di una persona. Sia che esistano copie identiche sia che non ne esistano. Si termina comunque una coscienza soggettiva unica e autosufficiente.  

"D'accordo, ma non vedo dove sia l'analogia fra l'uploading ed il tuo esempio. Un upload "istantaneo" è certamente più rischioso di uno fatto un passo alla volta con la sostituzione graduale, ma l'idea di base è la stessa: il "trasferimento" di una mente su un altro substrato." 

Parlavamo del cambiamento di una persona con l'età. Il mio esempio vuole dimostrare che l'uploading graduale e l'upload "in un botto" non sono necessariamente equivalenti. Se mi avessero preso molto tempo fa, e avessero riposizionato ogni singolo atomo del mio organismo  per farmi diventare come sono ora, sarei probabilmente morto, nel senso che l'individuo creato non sarebbe "me". Invece con il cambiamento graduale (la mia normale crescita) sono rimasto vivo, nel senso che non ho dubbi di essere io! Sul lato pratico, non avendo conferma definitiva, a un upload immediato scelgo l'upload più lento possibile come nell'esperimento che descrivevo. Non per evitare scompigli quando mi sveglio, ma per essere un po' più sicuro di svegliarmi. Analizzando logicamente invece, sono propenso, per l'esempio che ho dato, a pensare che la sostituzione graduale, anche se dal punto di vista della scienza e degli osservatori esterni ha lo stesso effetto di una sostituzione istantanea, abbia effetti diversi sulla coscienza soggettiva. Se l'esperienza in prima persona è ciò che vogliamo preservare, non ci possiamo rassicurare con una vista esterna della situazione che ci dice che siamo sempre lì. Dicevo, la coscienza soggettiva è legata strettissimamente al tempo, è un cambiamento graduale di informazione nel tempo in un "framework autointerpretativo autoanalizzante" (forse una buona definizione?).  Se ciò è vero, e se cambiamo improvvisamente la sua consistenza, e/o la sua struttura, questa gradualità che causa la sua esistenza verrebbe distrutta.  

"Potremmo dire che la coscienza soggettiva è una proprietà emergente di sistemi sufficientemente complessi (il che è poi la formuletta rituale per dire che in pratica non conosciamo i dettagli....!)"  

Il termine proprietà emergente ha molto senso per me. Prendiamo per esempio, il rotolare. Non è una particella e non è una forma: è una proprietà che emerge dati vari fattori come la gravità, un pendio, una superficie circolare, e l'attrito tra la superficie e il pendio. Per quanto analizziamo la ruota non troveremo mai la particella "rotolone" o l'antirotolone che fa rotolare la ruota verso la montagna. Ma il rotolare è un fenomeno vero, di tutti i giorni. Il bruciare, un'altra proprietà emergente data dalla presenza di un gas, una elevata temperatura, ecc. Ma analizzando la carta non troveremo mai un "brucione" o un meccanismo celluloide di combustione. Può darsi che la coscienza soggettiva sia una proprietà emergente data dall'esistenza di un mondo esterno, da un'interfaccia sensoriale, da un framework neurale che analizza i dati sensoriali, da reti neurali che si occupano di attribuire un senso a tutto ciò e a percepire il sistema stesso come entità inclusa in un sistema più largo, e da chissà quali altri meccanismi evolutisi in milioni di anni (e sappiamo ora che il cervello è un agglomerato di tantissimi sistemi diversi e specializzati). E che guardando dentro il cervello non troveremo mai un organo che crea la coscienza così come non troviamo il rotolone. E' un pensiero molto interessante, ma non ci aiuta affatto. Perchè mentre il rotolare è spiegato interamente dall'esterno, l'esperienza soggettiva non lo è. Quindi non possiamo affidarci alle normali regole della terza persona che impongono che una copia atomica sia identica all'originale, perchè, dal punto di vista interno non lo è. Ora, un tempo avevo discussioni simili in un gruppo olandese. Un olandese mi disse, sono così convinto che l'informazione sia tutto ciò che serve a definire la mia sensazione soggettiva di essere me, che ti lascerei spararmi un colpo in testa dopo avere fatto una copia atomica di me stesso. Mi chiedo se veramente mi avrebbe lasciato premere il grilletto… Comunque la discussione mi ha portato a formulare la seguente analogia. (Avvertenza:** hardcore material follows ** J )  

Prendiamo Windows. Sapete che ci sono le icone. Sul desktop ci sono icone di files, e poi c'è "my computer". Sia l'icona di un file che "my computer" sono pezzettini di grafica. Apparentemente un file e "my computer" sono la stessa roba, anzi possiamo copiare la grafica di my computer assegnarla ai file e poi abbiamo sia my computer che i file con la stessa icona. Beh, il cervello è uguale, abbiamo meccanismi che iconificano tutto. E' così che ragioniamo. Ci sono icone per "dolore", icone per "rosso", icone per gli oggetti concreti e per le persone. Consideriamo le icone delle persone. Se siamo in una stanza con un po' di gente, immaginiamo che nel nostro desktop (focus di attenzione del cervello) ci siano varie icone una per ogni persona, e poi l'icona che ci rappresenta. Avere un concetto di "se" in un ambiente è stato punto chiave dell'evoluzione dell'essere umano. Questa è l'icona che in Windows si chiama "my computer". Nel nostro desktop mentale è un'icona con la nostra faccia che dice "IO". Ora nel caso del cervello possiamo fare una copia atomica di noi stessi e farla entrare nella stanza con gli altri. A questo punto il nostro desktop ha l'icona my computer ("Io") con la stessa grafica dell'icona "copia di me". Due faccine uguali! A prima vista. Ma attenzione! Come in Windows l'icona my computer non rappresenta un file, ma il sistema operativo stesso, incluso il desktop, la grafica per tutte le icone, command.com, i driver per le schede sonore, e tutte le altre icone del PC, il nostro concetto di "noi" non è veramente un file, un "pezzettino" di roba, come le altre icone, è in realtà, il mondo, le leggi della fisica, la gente, l'universo, i nostri meccanismi neurali, tutto quello che sappiamo che esiste e che è entrato nel nostro mondo mentale, la stanza, tutti i presenti, tutto. Dire che noi siamo uguali alla nostra copia è una fesseria, è come dire che "my computer" è` uguale al file con l'icona copiata. Per fare la prova, proviamo a cancellare l'icona copiata su Windows. Beh, abbiamo cancellato un file. Ma se si potesse cancellare my computer? Windows saggiamente non te lo lascia fare, ma se si potesse lo schermo diventerebbe nero e sparirebbe tutto. Allo stesso modo, uccidendo la copia che abbiamo fatto, morirebbe un'icona, ma se ci uccidessimo, morirebbero tutti i presenti, la copia, noi, la terra, l'universo, tutto.  

Questo dev'essere il punto di partenza di ogni discussione sulla coscienza, secondo me: il distinguere il punto di vista soggettivo da quello oggettivo. Moltissime volte si mischiano i due punti di vista nei vari argomenti.  

Fabio:  

"Ma se si  potesse cancellare my computer? Windows saggiamente non te lo lascia fare, ma se si potesse lo schermo diventerebbe nero e sparirebbe tutto. Allo stesso modo, uccidendo la copia che abbiamo fatto, morirebbe un'icona, ma se ci uccidessimo,  morirebbero tutti i presenti, la copia, noi, la terra, l'universo, tutto."  

E' qui che non seguo più il tuo ragionamento. Seguendo l'analogia di Windows: se rimpiazzo my computer con una copia e cancello l'originale, il mio computer continua a funzionare, dato che la copia includerebbe il "sistema operativo stesso, incluso il desktop,  la grafica per tutte le icone, command.com, i driver per le schede  sonore, e tutte le altre icone del PC".  Se qualcuno facesse una copia di me senza farmelo sapere ed uccidesse l'originale nel sonno in maniera non traumatica, mettendo la copia nel mio letto e facendone partire la coscienza soggettiva nel momento ed al punto esatto del sogno o pensiero che l'originale stava avendo in punto di morte... "io" mi sveglierei la mattina dopo senza sospettare nulla!! Si parla quindi di identità multiple: l'originale (morto) e la copia (vivente). Quest'ultima però conterrebbe entrambe, o meglio, sarebbe anche la continuazione dell'originale (IoA+IoB?!).  

Ma allora il segreto per essere uploadati senza angosce esistenziali è di farsi uploadare a propria insaputa!!  ;-)  

PS: carino il "rotolone"!  

Mirai:  

"E' qui che non seguo più il tuo ragionamento. Seguendo l'analogia di Windows: se rimpiazzo my computer con una copia e cancello l'originale, il mio computer continua a funzionare, dato che  la copia includerebbe il "sistema operativo stesso, incluso il desktop,  la grafica per tutte le icone, command.com, i driver per le schede  sonore, e tutte le altre icone del PC".    

Prova a fare una copia di my computer… :-)  

Il fatto è che quando crei una copia di te stesso e lo guardi e poi ti guardi allo specchio, dal tuo punto di vista soggettivo, non siete affatto la stessa cosa. TU (l'icona my computer, la tua immagine allo specchio) sei una simulazione che chiami universo. L'altro è un elemento all'interno della simulazione. Non siete equivalenti dal tuo punto di vista soggettivo.  

"Se qualcuno facesse una copia di me senza farmelo sapere ed uccidesse l'originale nel sonno in maniera non traumatica, etc…"  

Moriresti senza accorgertene, penso. Come moriresti senza accorgertene se non fosse stata fatta una copia di te prima di venire ucciso o se fosse stata messa un'altra persona nel tuo letto. Coloro che ti conoscono non noterebbero  niente, ma la sensazione che hai di vedere dai tuoi occhi e non i miei e non quelli di una copia identica se esistesse, andrebbe perduta. Quella sensazione è per qualche motivo legata al tuo cervello e se lo distruggi è finita. Come lo so? Beh,  non ho mai fatto un esperimento, ma se quello che dici è vero allora non potrei conciliare l'esistenza di una mia copia atomica (che è ovviamente possibile) con la mia sensazione soggettiva di esistere all'interno di un corpo.  

Propongo di semplificare la discussione. Tutto quello che abbiamo detto si può applicare a persone diverse non solo a copie atomiche. Che la seconda persona di fronte a te, anch'essa codificante una simulazione, sia identica o no non fa differenza. Il fatto è che tra le miriadi di simulazioni esistenti (e tra l'infinità di simulazioni codificate in ogni processo interpretabile nell'universo - come dice Moravec) la simulazione "Io" crea questa assurdità di esperienza soggettiva nella quale vedrai solo una faccia riflessa nello specchio, sentirai il dolore solo nel tuo corpo, ecc. Allora chiediamoci. Come mai io sono me e non sono te? Cosa vuole dire e che senso ha dire io sono questa simulazione? Perchè non procede tutto senza esperienze soggettive? Le solite domande, a cui nessuno può rispondere porcaccia la miseria!  

Emergono due approcci contrastanti…  

Fabio:  

"Propongo di semplificare la discussione, etc"  

Se ci scambiassimo i cervelli, io rimarrei io sebbene all'interno del tuo involucro e viceversa, nonostante l'aspetto esterno. Quindi, io sono io e tu sei tu perchè il nostro cervello ha la forma fisica che ha (come conseguenza dell'interazione del nostro DNA e delle nostre esperienze di vita). Se siamo d'accordo su ciò, mi sembra che la tua domanda rischi di far scivolare il discorso verso la metafisica. Da piccolo mi immaginavo che prima di nascere la mia anima fosse in paradiso-limbo o da qualche altra parte, per poi scendere nel mio corpo di neonato… e se fosse così che funzianono le cose, allora sì che avrebbe senso chiedersi perchè la mia "anima" (o coscienza soggettiva) sia finita nel mio corpo piuttosto che in un'altro, ma dato che essa è il risultato, come dicevo, dell'interazione del nostro DNA e delle nostre esperienze di vita, tale domanda perde secondo me di significato.  

Ritornando all'uploading: se due simulazioni di me fossero identiche, non dovrebbero produrre identiche esperienze soggettive? Almeno fino al momento in cui interazioni diverse col mondo esterno causassero esperienze diverse. Certo, dal tuo punto di vista preferiresti che fosse la tua copia ad essere eliminata, piuttosto che te stesso, anche sapendo che dal suo punto di vista egli è sicuro di essere te e che potrebbe persino non accettare il fatto di essere lui la copia. Potremmo tagliare la testa al toro evitando di trovarci in quella situazione nei seguenti modi (una specie di galateo dell'uploading):  

Non farti uploadare a meno che sia un processo graduale (in modo di non dover commettere un omicidio e, come non bastasse, di una persona completamente innocente)  

Fatti uploadare solo in punto di morte, in modo che la continuità sia senza sbalzi (chiudi gli occhi e vedi una luce in fondo a un tunnel, vai verso la luce ;- ) e riapri gli occhi nel tuo corpo nuovo senza discontinuità.  

Non farti uploadare a meno che tu sia pronto e disposto a lasciare in vita ed in circolazione versioni diverse di te stesso (lascia perdere i problemi filosofici, immagina quelli legali e personali!). Dopotutto sarebbe come avere molti gemelli.  

"Cosa vuole dire e che senso ha dire io sono questa simulazione? Perchè non procede tutto senza esperienze soggettive?"  

Una teoria: la coscienza soggettiva offre un qualche vantaggio evolutivo, per cui è come chiedersi perchè i pesci abbiano le branchie! No, dico sul serio: affrontare il problema da questo punto di vista potrebbe dare dei risultati.  

Mirai:  

"Ritornando all'uploading: se due simulazioni di me fossero identiche, non dovrebbero produrre identiche esperienze soggettive? Almeno fino al momento in cui interazioni diverse col mondo esterno causassero esperienze diverse."  

Identiche da un terzo punto di vista. Dal punto di vista interno solo una esperienza soggettiva esiste. Sei d'accordo spero!  :-)  

" Fatti uploadare solo in punto di morte, in modo che la continuità sia senza sbalzi (chiudi gli occhi e vedi una luce in fondo a un tunnel, vai verso la luce ;- ) e riapri gli occhi nel tuo corpo nuovo senza discontinuità."  

Fai molta attenzione, lo scenario che mi spieghi è un elemento che introduci che confonde la situazione e ti porta a vederla in maniera più semplice, in realtà non è una semplificazione ma una confusione, cioè, il fatto che tu muori fornisce una specie di "continuità visuale" esterna. Tu dici che dato che sei morto e ti ricostruiscono, non esistono mai due copie e non si pone il problema del se continuo, o no. Questo soddisfa l'analisi più empirica (solo una copia in esistenza). Ma se ci pensi quello che succede al tuo corpo (morte) ha conseguenze uguali (fine coscienza soggettiva) che venga rimpiazzato o no.  

Per quanto riguarda la coscienza soggettiva come vantaggio evolutivo: si, anche io ho considerato questo punto di vista ma immagina una persona 'zombie' che si comporta esattamente come te. Che vantaggi evolutivi può avere una sensazione di dolore quando anche solo l'informazione in un sistema non conscio provocherebbe le stesse medesime reazioni ? (urla, scappare ecc.) Una domanda più interessante è: potrebbe esistere mai uno zombie? E' possibile creare una creatura che se gli tiri un cazzotto piange e prova a vendicarsi ma non sente veramente il dolore?  

Secondo Moravec non è possibile perchè tale sistema avrebbe un'interpretazione nel quale è conscio e in quell'interpretazione esisterebbe la sua coscienza. Ma io gli rispondo che posso fare un programma semplicissimo che se premi un tasto dice AIA! E questo programma può benissimo essere non conscio così come lo può essere un essere umano. Ma lui mi risponde: il programma è conscio nell'interpretazione in cui lo è e non lo è nell'interpretazione del programmatore che vede il codice così come un neurochirurgo vede i neuroni. Non solo, ma questo premere il pulsante è crudele come lo è far male a una persona, ma non solo, anche la crudeltà non è importante dato che la realtà del dolore è pre-esistente (sembra una sciocchezza platonica a cui lui però da un senso nel suo articolo). I mi chiedo allora, come mai tra le varie possibili interpretazioni del mio cervello in cui io potrei essere conscio (tra cui variazioni minime tipo colori invertiti, ecc.) io mi "trovi" proprio in quella in cui mi trovo. E così apro una breccia nella sua teoria dell'interpretazione (anche se devo dire mi ha convinto dell'esistenza delle "menti roccia")  

Evoluzione a parte, non riesco comunque a capire come possa esistere un "io sono questa simulazione"... Forse siamo troppo abituati a guardare le cose da un terzo punto di vista (quasi tutto quello che sappiamo l'abbiamo imparato così) e questo ci confonde. Bah. So solo che qualunque teoria che abbia a che fare con la coscienza soggettiva (inclusi teletrasporto, uploading ecc.) finisce per creare paradossi o contraddizioni.  

Fabio:  

Tu dici che "quello che succede al tuo corpo (morte) ha conseguenze uguali (fine coscienza soggettiva) sia che venga rimpiazzato che no", ma secondo me è discutibile che si tratti di morte, o quantomeno, che si tratti di morte come essa viene generalmente definita al giorno d'oggi. Discutibile perchè, nonostante la perdita di coscienza da parte di "Io-A", cioè l'originale, la stessa coscienza emerge in Io-B con persino la memoria della procedura appena eseguita e delle ultime sensazioni provate come Io-A. Quindi, Io-A e Io-B sono la stessa persona: Io-A è morto e Io-B è vivo! Oppure, se preferisci, esiste un solo Io ed egli è sia morto che vivo!  

Insomma, la mia coscienza soggettiva è quello che è perchè una lunga serie di eventi ha creato un oggetto: il mio cervello. Esso ha caratteristiche misurabili che danno vita alla mia coscienza soggettiva. Ricreare un oggetto atomicamente identico al mio cervello creerebbe un'altro Io, il quale avrebbe la stessa identica coscienza soggettiva dell'originale (Precisazione: sarebbe identica fino al momento in cui la copia è attivata. Allora le due versioni prenderebbero inevitabilmente strade diverse, date le diverse esperienze che incontrerebbero).  

Potremmo dunque dire che una coscienza soggettiva è quello che si ottiene se si seguono le istruzioni di una "ricetta": nel mio caso la ricetta orginale è formata dal mio DNA e da tutte le interazioni che ho avuto con il mondo esterno dal momento del concepimento. Un'altro tipo di ricetta potrebbe essere una descrizione di come assemblare una copia di precisione atomica del mio cervello, ottenuta con mezzi nanotecnologici, per esempio. Oppure una simulazione software basata su scansione,anche questa con una precisione a livello dei singoli atomi o come minimo delle singole sinapsi.  

Se la "ricetta" è eseguita con attenzione, il risultato che si ottiene alla fine dovrei sempre essere io (nella mia versione al momento in cui la ricetta è stata registrata, cioèquando la scansione èstata fatta), sia che la ricetta sia usata una volta o un milione. Quindi la soggettività inerente alla coscienza soggettiva non è altro che il nostro (soggettivo) modo di vedere un qualcosa che però esiste anche al di là di noi stessi - o meglio, qualcosa che esiste, potenzialmente, anche in altre forme al di là della nostra versione attuale.  

Il rimanere emotivamente attaccati ad una versione obsoleta di noi stessi potrebbe essere fatale in uno scenario in cui l'uploading è disponibile… Se la copia atomica di cui sopra (Io-B) morisse in un incidente, essa in effetti sarebbe morta e su quello non si discute! Ma se abbiamo "la ricetta", possiamo ricreare quella stessa medesima coscienza soggettiva! L'unica parte mancante sarebbero le esperienze accumulate dal momento in cui la "ricetta" è stata aggiornata e il momento della morte. A quel punto avremmo Io-C, il quale non avrebbe nessuna memoria della propria morte in versione Io-B. L'ultima cosa che ricorderebbe, sarebbe la sua ultima visita alla clinica in cui si reca regolarmente per uno scanning del proprio cervello, proprio come assicurazione contro situazioni simili.  

Questo non nega che Io-B sia in effetti morto e che l'esperienza non sarà certo stata piacevole. Inoltre, più lungo è il periodo passato dall'ultimo scanning, più grave sarà la perdita (una settimana di coscienza soggettiva dovrebbe, in genere, essere meno significativa di un anno).  

Potremmo dire quindi, che in questo caso sarebbe morta la parte di me che era stata in vita fra il momento dell'ultimo scanning ed il momento dell'incidente, ma che io, nell'insieme, sono sopravvissuto. Certo, tu mi dirai che in effetti Io-B è morto e che dal suo punto di vista soggettivo questa è l'unica cosa che conta, ma io potrei rispondere che la coscienza "soggettiva" è stata temporaneamente disattivata e che ha subito una parziale perdita di informazione, ma che non è andata completamente perduta.  Se (quando?) avremo a disposizione la tecnologia necessaria per creare un Io-B, nozioni come identità e coscienza "soggettiva" verranno rimesse radicalmente in discussione…  

Un'altra cosa: portando il tuo ragionamento alle sue conseguenze estreme, si potrebbe dire che dal punto di vista della esperienza soggettiva ogni momento di mancanza di coscienza sia l'equivalente della morte! In effetti, come posso provare di essere la stessa persona la cui coscienza soggettiva si è spenta per qualche ora ieri sera, quando sono andato a dormire? Svenimenti, coma profondo e anestesia totale sono altri esempi (per non parlare della sospensione crionica!).  

Infine, ho notato che sulla lista Extropian  si sta svolgendo una discussione simile alla nostra e che i partecipanti sono arrivati esattamente alle nostre stesse due contrastanti conclusioni…  

Mirai:  

Tu mi stai quindi dicendo che se io faccio una copia di me e poi mi sparo la mia esperienza soggettiva verrà trasferita nella copia? Non penso proprio ci siano basi per un'affermazione del genere.  

"Quindi, Io-A e Io-B sono la stessa persona: Io-A è morto e Io-B è vivo!"  

La stessa, dici, ma la stessa da quale punto di vista? Da un terzo punto di vista, due coscienze identiche sono "la stessa" ma dal punto di vista di ciascuna coscienza, l'altra è un'entità completamente diversa, sistema operativo e file… non puoi copiare l'icona di my computer, cancellare il sistema operativo e continuare a giocare a Doom!  

"portando il tuo ragionamento alle sue conseguenze estreme, si potrebbe dire che dal punto di vista della esperienza soggettiva ogni momento di mancanza di coscienza sia l'equivalente della morte!"  

Lo so benissimo e io infatti non ho una teoria della coscienza. So solo che tutto quello che viene detto porta a paradossi. Non posso credere al "fare una copia e spararsi" perchè non ci sono basi per postulare un trasferimento di coscienza stile poltergeist. Ma è vero anche quello che dici, per qualche ragione anche dopo un'anestesia totale, anche se la nostra sostanza è cambiata in modo discontinuo siamo sempre vivi.  

Tutto quello che ci resta è il punto di vista più empirico della situazione (abbiamo gli stessi atomi, quindi siamo sempre noi) che però viene smantellato dal fatto che ogni giorno i nostri atomi cambiano anche se noi manteniamo la nostra esperienza soggettiva.  

Vediamo di ricapitolare.  

La coscienza soggettiva è  una funzione continua che mette in relazione astrazioni in un tempo lineare. Quindi la coscienza soggettiva è come una funzione matematica, mette in relazione non numeri ma astrazioni, nel tempo. Deve essere piò o meno continua per definire una coscienza soggettiva "continua", ma in un tempo proprio non necessariamente esterno, quindi ibernazione anestesie ecc. non fanno altro che sfasare il tempo interno della funzione con quello esterno, ma la funzione è comunque continua soggettivamente.  

Ora, prima facciamo una lista di quello che dovrebbe essere vero (aggiungo anche quanto mi senta sicuro della verità dell'affermazione):

Con il cambiamento lento e graduale dell'informazione l'esperienza soggettiva viene mantenuta (come dimostrato dal normale processo di apprendimento). Sicurezza 100%  

Con il cambiamento lento e graduale del supporto, l'esperienza soggettiva viene mantenuta (come dimostrato dal normale processo di crescita). Sicurezza 100%  

Con l'interruzione temporanea del processo, l'esperienza soggettiva viene mantenuta (come dimostrato nei casi di anestesia totale).  Sicurezza 100% (l'ho fatta)  

Con l'interruzione prolungata del processo l'esperienza soggettiva viene mantenuta (esempio: la sospensione crionica). Sicurezza 99% ( ? Stessi atomi, stessa struttura e in principio uguale all'interruzione temporanea)  

Creando una copia del processo si creerebbe una coscienza identica ma distinta, non sarebbe possibile scambiarle nel senso di spararsi e continuare a vivere nel corpo B (sicurezza 100%, sarebbe assurdo)  

Creando una copia del processo e allo stesso tempo distruggendo il processo originale empiricamente, l'originale deve per forza morire. Sicurezza 50%  

Uploadando la mente di un individuo strato per strato con controlli ai vari stadi e con possibilità di inversione (come descrivevo) si dovrebbe poter mantenere l'esperienza soggettiva. Sicurezza 50%  

Con un upload immediato e distruzione dell'originale, l'originale morirebbe. Sicurezza 50%  

Per quanto riguarda la distruzione dell'originale: se pensiamo all'esperienza soggettiva come se fosse una funzione matematica allora possiamo dire che la coscienza può venire duplicata ma la relazione tra le variabili no, è sempre e solo una. Stampare due grafici non moltiplica l'informazione o le relazioni tra le variabili, quindi c'è sempre solo una coscienza di un certo tipo!  

La coscienza è una funzione di natura continua. Non ha senso chiamare coscienza una funzione discontinua, perchè sarebbe troppo caotica - in questo senso Moravec risponderebbe che un'adeguata interpretazione potrebbe rendere questa funzione continua e attribuire al processo caotico la proprietà astratta di codificare un essere cosciente. Benissimo. Con il cambiamento lento e graduale della funzione, la funzione rimane continua e quindi l'esperienza soggettiva è preservata. Con un cambiamento lento e graduale del supporto il risultato è lo stesso. Nel caso di anestesia e crionica, queste sfasano la funzione nel tempo ma non la perturbano. Nel caso della produzione di una copia del processo quello che succede è che sdoppieremmo la funzione creando due linee temporali separate. Per questo, se ci spariamo, muoriamo, anche se resta in esistenza una copia di noi!  

Quindi:  

L'upload istantaneo equivale a sdoppiare le linee temporali e poi ucciderne una...  

L'upload graduale preserva la continuità della funzione, tramite cambiamento lento e graduale di informzione e supporto. Non si sdoppia mai la timeline.  

Fabio:  

"Tu mi stai quindi dicendo che se io faccio una copia di me e poi mi sparo, la mia esperienza soggettiva verrà trasferita nella copia? Non penso proprio ci siano le basi per un'affermazione del genere."  

Nel preciso momento in cui la seconda copia appare, non vedo perchè no. Come ho già detto, secondo me una specifica coscienza soggettiva esiste se esistono certe specifiche circostanze. Tali circostanze sono teoricamente replicabili (per esempio con una copia atomica del cervello dell'individuo in questione). Quindi, la coscienza soggettiva è replicabile. Se vuoi, possiamo chiamare questa replicabilità un trasferimento, anche se sarebbe più giusto dire che una coscienza soggettiva può potenzialmente emergere ovunqe le circostanze adatte esistano (cioè dovunque una copia atomica del mio cervello sia creata, o un uploading sia istallato, etc). Il problema è tutto nel timing: una mia copia (l'ormai famoso Io-B) sarebbe solo una copia di come io ero nel preciso momento in cui la copia è stata creata (o meglio, quando la scansione è stata fatta). Se la scansione fosse fatta alle ore 15,00 essa avrebbe la mia coscienza soggettiva delle ore 15,00. Se fosse fatta alle 15,30, avrebbe la mia coscienza soggettiva come essa era alle 15,30 e così via…  

E' chiaro che Io-B vedrebbe il mondo attraverso due occhi diversi e che potrebbe trovarsi su un'altro continente, ma dopo un primo momento di sorpresa si adatterebbe istantaneamente - è un dettaglio trascurabile. La continuità sarebbe assicurata. Un nanosecondo dopo, però, abbiamo una biforcazione (o una triforcazione se creiamo due copie, o una quadriforcazione con quattro, etc...!). Io-A (l'originale) direbbe: "Boh! non ho sentito niente!" e Io-B direbbe: "Vedo la stanza da un angolo diverso! Ha funzionato!". E quella sarebbe, in quel preciso momento, l'unica differenza fra i due. Quindi, se l'Io-originale fosse stato in punto di morte, Io-B ne porterebbe avanti la coscienza individuale. Da quel momento in poi, però, ogni copia diverrebbe chiaramente un individuo separato con la propria individuale coscienza soggettiva (anche se incredibilmente simili fra loro, per il momento, dato che ognuno di  loro ha la stessa identica storia personale fino ad un minuto prima...) Poi, più tempo passa, più ognuno và per la sua strada e l'inevitabile interazione col mondo esterno finisce per creare individui che non solo hanno coscienze individuali soggettive, ma che sono anche persone diverse fra loro (versioni diverse di quello che l'originale potenzialmente potrebbe essere diventato?)  

"Non puoi copiare l'icona di my computer, cancellare il sistema operativo e continuare a giocare a Doom!"  

Quando parlo di Io-B, egli dovrebbe essere una copia sia del sistema operativo che del file (altrimenti sarebbe solo una copia statica). Che ciò non sia possibile sul mio computer non vuol dire nulla, sarà solo dovuto a qualche limitazione imposta da Microsoft, ma non è teoricamente impossibile.  

A proposito del creare una copia e poi spararsi. Certo, non mi sparerei neanch'io! L'ho capito che la copia è un individuo separato da me. Ma se uno scanning del mio cervello fosse preso nel momento in cui muoio e poi usato per creare una copia del mio cervello, continuo a non capire perchènon dovrei svegliarmi nel mio nuovo cervello, felicissimo di essere sopravvissuto!!  

Il problema dello sdoppiamento e delle due linee temporali separate mi sembra più pratico che filosofico. Evitandolo, cioèevitando di avere più copie attive allo stesso momento, si evitano anche i problemi connessi (a meno che qualcuno voglia creare una serie di versioni indipendenti di se... potrebbe essere visto come l'equivalente del fare figli... ma con una forma di riproduzione asessuata...)  

"L'upload istantaneo equivale a sdoppiare le linee temporali e poi ucciderne una...  

L'upload graduale preserva la continuità della funzione, tramite cambiamento lento e graduale di informzione e supporto. Non si sdoppia mai la timeline."  

Lento o veloce non vedo la differenza. Si passa da un substrato ad un altro, quindi, secondo il tuo ragionamento, si passa da una coscienza soggettiva ad un altra. Al di là del fatto che psicologicamente questo cambiamento lento sarebbe meno scioccante del cambiamento istantaneo, non vedo proprio nessuna differenza. La continuità è assicurata in entrambi i casi. Si evitano solo i problemi pratici del che fare con due Io. Invece di spararsi dopo la creazione della copia, l'originale si spara tante revolveratine non-letali, un poco per volta...  

Posso fare un anch'io un riassuntino "finale" della mia posizione?  
  
La coscienza soggettiva di un individuo dipende dalla configurazione delle reti neurali dell'individuo in questione.  

Supponendo che tali siano replicabili, la coscienza soggettiva che essa rappresenta emergerà, esattamente com'era al momento in cui le reti neurali dell'individuo sono state sottoposte a scansione, senza interruzione di continuità fra la copia e l'originale (anche se una copia fosse attivata secoli dopo).  

I dubbi esistenziali sarebbero confinati all'originale. Le copie saprebbero esattamente chi sono, vista la non-interruzione di continuità.  

Usata in punto di morte, o come back-up, tale procedura permetterebbe ad una coscienza soggettiva di emergere su un'altro substrato, senza cambiamenti, senza interruzione di continuità e senza i problemi pratico-filosofici connessi con l'esistenza di diverse versioni dello stesso individuo.  

Mirai:  

"l'originale si spara tante revolveratine non-letali, un poco per volta..."  

AHHAHAHAAHA, no beh, in effetti è un buon esempio! Preferisci che ti esplodano in una frazione di secondo o che ti taglino pezzettino per pezzettino finchè non rimangono che atomi? Anche se l'effetto è lo stesso per tutti gli osservatori che non guardino il processo, per te è ben diverso!  

Preferirei l'esplosione.  

Fabio:  

A proposito del creare una copia e poi spararsi un colpo in testa:  "Pensi veramente di non morire?"  

Certo che morirei ed è per questo che non creerei Io-B a meno che non fossi già in punto di morte (o a meno che volessi creare, per qualsiasi motivo, uno o più individui separati ma praticamente identici a me). Se non per evitare di lasciarci le penne o per poter accedere ad una serie di benefici altrimenti non ottenibili, non lo farei. Sopratutto se non fosse possibile evitare la famosa biforcazione.  

Insomma, continuo ad essere convinto che aprirei gli occhi senza il minimo dubbio di essere io, dal mio punto di vista soggettivo, nonchè da un terzo punto di vista. Se creiamo più copie, esse sarebbero tutte "io", ma con coscienze soggettive diverse, per cui non resteranno identiche (cioè "io") per molto. Sono quindi d'accordo con te quando dici che non è possibile che una coscienza soggettiva sia presente in due corpi separati (a meno che ci sia un qualche tipo di collegamento diretto fra i due, ma quella è un'altra storia), ma secondo me è possibile che la stessa coscienza soggettiva emerga, in due o più corpi separati. Come già detto, però, essendo costoro individui separati, si creerebbe una biforcazione ed ognuna delle copie "andrebbe per la sua strada".  

Non mi sparerei e non sparerei ad una copia, perchè quel particolare individuo morirebbe e la presenza di una o più copie sarebbe ben poca consolazione. Ma se una frazione di secondo dopo aver premuto il grilletto mi risvegliassi in un nuovo corpo con l'esatta memoria soggettiva dello sparo e della pallottola che mi colpisce, più tutte le memorie, etc del resto della mia vita?  

Mi viene il dubbio che questa storia dell'evitare una biforcazione sia più di un semplice trucchetto pratico... forse per rimanere "lo stesso" individuo la continuità deve essere senza il minimo overlap nel "saltare" da un substrato all'altro. Altrimenti ci incasiniamo con la creazione di una serie di individui (chiaramente ognuno con la propria coscienza soggettiva).  

Il "no cloning theorem"  

Scerir:  

Per la cronaca esiste anche un "no-cloning theorem" che impedisce nel modo più netto che al mondo possano esiste due cose identiche, se una è originata (copiata) dall'altra. [Credo che la cosa sia poco nota, ma Moravec dovrebbe proprio conoscerla.]  

Personalmente mi chiederei anche: se riversiamo su più macchine lo stesso contenuto "mentale" [leggasi: del cervello, ma odio la soppressione del termine "mentale"] cosa succede? Nulla, credo. E se la "copia" vuol riprodurre, in seguito, se stessa su altre macchine? Qui entra di nuovo in gioco il "no-cloning theorem".  

Mirai:  

Infine, il "no-cloning theorem" sarebbe certamente un problema! A meno che questo teorema permetta l'esistenza di due cose le cui differenze siano trascurabili per cui sarebbe possibile la creazione di copie quasi identiche (dipende da cosa si considera trascurabile!). Hai altri dettagli al proposito?  

Scerir:  

E' una questione molto tecnica. Ho molti riferimenti, li devo cercare. Diciamo, pressappoco, che è possibile costruire [in generale] una copia perfetta di una cosa, quindi indistinguibile dall'originale [distinguibile semmai soltanto storicamente] se ci si assoggetta a fare moltissime copie dell'originale. Tra tutte queste copie una (o almeno una) sarà identica all'originale, tutte le altre saranno diverse. Ma noi non riusciremo mai a sapere quale è quella identica. Facendo della filosofia il concetto di identità sta lasciando il luogo a quello di indistinguibilità e quest'ultimo è entrato a far parte del gran mondo della complessità, della randomness, della indecidibilità. La stessa cosa sta accadendo al "continuum" in matematica. Prima era quasi una banalità. Oggi è considerato una chimera, una fesseria, una cosa inesistente anche tra i numeri.  

Uno dei principali riferimenti sulla impossibilità di costruire una perfetta "cloning machine", di qualsiasi tipo, è W.K. Wooters, W.H. Zurek: Nature, 299, 802, (1982) Poi queste tesi stanno trasmigrando anche in campo logico, delle Turing machines, etc. Da tener presente èanche il fatto che la impossibilità di fare copie identiche è stata messa in relazione con la esistenza ... dell'anima. Naturalmente la Singolarità potrebbe superare queste limitazioni trovando la via di raggiungere energie infinite, time-loops, velocità superiori a quelle della luce e quant'altro.  

Mirai:  

No-cloning theorem: secondo me andare a cercare le differenze nel mondo subatomico è come cercare il "free will" nella meccanica quantistica. Sono molte più le differenze tra quello che sei ora e quello che eri cinque minuti fa che le differenze tra due copie identiche che emergono a causa di qualche proprietà subatomica (penso a questo si riferisca il no cloning theorem, no? A differenze subatomiche come per esempio la posizione dell'"electron cloud" di ogni coppia di atomi nella stessa posizione tra le due copie identiche? Se mi sbaglio correggetemi...)  

Scerir:  

Certamente, "sono molte più le differenze tra quello che sei ora e quello che eri cimque minuti fa che le differenze tra due copie identiche che emergono a causa di qualche proprietà subatomica" e per fortuna. Ma la mancanza di identità può far capire come ben possa esserci anche una mancanza di identità di coscienze. Soprattutto se la coscienza fosse solo una funzione, dinamica, del cervello, autoemergente.  

Il no-cloning theorem fa parte di un sistema di teoremi o di principi di "impossibilità". Tutti indipendenti ma tutti più o meno "rispettosi" tra loro, nel senso che si giustificano e rispettano a vicenda. E' stata usata la espressione "coesistenza pacifica". Il principio sulla velocità della luce (v non > c) ad esempio verrebbe violato se non valesse il no-cloning theorem e viceversa. Anche il principio di indeterminazione verrebbe violato se non valesse il no-cloning theroem, e viceversa. E probabilmente il principio di indeterminazione e la velocità della luce sono legati tra loro, se non anche - attenzione qui, ci sono dei sospetti - con i teoremi di Goedel.  

Comunque sì, stiamo parlando in linea di massima, di fatti micro-fisici. Che forse hanno un valore relativo quando si parla di strutture neurologiche, o circuiti equivalenti, dove l'aspetto caotico e termico sono abbondanti.  

Fabio:  

Ho tirato un sospiro di sollievo scoprendo che il no cloning theorem si riferisce alla fisica dei quanti (e che quindi il suo impatto sulla fattibilità dell'uploading è probabilmente equivalente a quello dell'uncertainty principle -per quanto riguarda la posizione degli elettroni- sulla fattibilità della nanotecnologia - cioè ben poco!).  

Scerir:  

Certo. Ma personalmente non sono molto euforico in quanto esiste una vasta casistica di stati (e funzioni) fisici (non quantistici e neppure micro) che non si sa come descrivere (matematicamente) e neppure come inserire in una Turing machine (digitalizzare, binarizzare). Ad esempio molte equazioni frattali, avendo discontinuità, non si sa come trattarle, come risolverle. E si sospetta che abbiano un ruolo appunto nel "mentale". Come gli attrattori.  

Comunque dopo certe discussioni metafisiche si può chiaramente realizzare come non abbia poi tanta importanza fare delle copie perfette. Sarebbe già miracoloso fare delle copie decenti.  

Qualche giorno dopo...  

Fabio:  

E' la calma DOPO la tempesta, eh? Ci vorrà un po' per riprendersi dallo sforzo mentale causato da "coscienza soggettiva"! Comunque, non per riaprire il discorso, ma giusto come un'appendice al tutto, ho notato che sulla lista Extropian il buon Anders Sandberg cita una frase da un romanzo di fantascienza (War in Heaven di David Zindell), che il protagonista ripete spesso: "To live, I die". Nel contesto della discussione sulla coscienza soggettiva, Sandberg la interpreta come voler dire (più o meno): perchè io possa accedere ad un livello superiore di coscienza, il mio io precedente deve morire... è solo una frase ad effetto, non una spiegazione razionale del problema "ma la copia sono io, o no?!", ma a me piace lo stesso... e mi ricorda un'altra frase dello stesso autore, che potrebbe anch'essa avere un senso nel contesto coscienza-soggettiva: "Cosa è l'Uomo, allora?" "Un seme." "Un seme?!" "Una ghianda che non ha paura di distruggersi nel divenire quercia..."  


Picture credit: Flickr CC: Cyan Brain

 

Tecnofascismo? No grazie.

  • Una serie di articoli su sovrumanismo e dintorni e sui motivi che hanno spinto Estropico ad andarsene dalla Associazione Italiana Transumanisti.
  • Aggiornamenti (su Estropico Blog)

Varie