PDF Stampa E-mail
La Singolarità Tecnologica, di Vernor Vinge
Visioni del futuro - Singolarita’

Entro trent'anni, avremo le tecnologie necessarie a creare intelligenze super-umane. In breve, dopo tale evento, l'era umana sarà terminata. E' possibile evitare tali sviluppi? Se è non possibile evitarli, possiamo allora influenzarli in modo di garantire la nostra sopravvivenza? In questo articolo si considerano tali domande, si offrono alcune possibili risposte e si presentano ulteriori pericoli.  

1 - Cosa è la singolarità  

L'accelerazione del progresso tecnologico è stato l'avvenimento centrale di questo secolo. Siamo sull'orlo di cambiamenti comparabili all'emergere degli esseri umani sul pianeta Terra. La causa di questi cambiamenti è l'imminente creazione tecnologica di entità con un'intelligenza superiore a quella umana. La scienza può portare a tali sviluppi per vie diverse (e questa è un'altra ragione per cui tali sviluppi appaiono probabili):  

La creazione di computer coscienti e con intelligenza super-umana. (A tutt'oggi è controverso se sia possile creare una macchina equivalente [come intelligenza - NdT] ad un essere umano. Ma se la risposta fosse sì, allora sicuramente il passo successivo sarebbe quello di costruire esseri ancora più intelligenti).  

L'improvviso “svegliarsi” dell'insieme dei grandi network di computer e dei loro utilizzatori che [insieme -NdT] potrebbero divenire entità dotate di intelligenza super-umana.  

Le interfaccie fra computer e esseri umani potrebbero divenire così complete da offrire agli utilizzatori un livello di intelligenza super-umano.  

Le scienze biologiche potrebbe fornire i mezzi per incrementare l'intelletto naturale umano.  

Le prime tre possibilità dipendono dal perfezionamento dell'hardware dei computer. Il progresso in questo campo ha seguito una curva incredibilmente regolare negli ultimi decenni. Sulla base di questa tendenza, sono convinto che la creazione di un'intelligenza superiore a quella umana potrebbe verificarsi nell'arco dei prossimi trent'anni. (Charles Platt ha notato che sono ormai trent'anni che i sostenitori dell'Intelligenza Artificiale ripetono questa stessa dichiarazione. Per evitare di essere  accusato di ambiguità sui tempi, vorrei essere più preciso: mi stupirei se tale evento accadesse prima del 2005 o dopo il 2030).  

Quali sarebbero le conseguenze di tale evento? Con un'intelligenza superiore a quella  umana alla guida del progresso, il progresso stesso sarebbe più rapido e non vedo perchè questo progresso non dovrebbe comportare la creazione di entità ancora più intelligenti... in tempi ancora più brevi. L'analogia migliore che mi viene in mente è con l'evoluzione: le specie animali possono adattarsi ai problemi che incontrano e possono inventarsi delle soluzioni a questi problemi, ma sono spesso limitate dalla lentezza del processo di selezione naturale - il mondo fà da simulatore di sè stesso nel caso della selezione naturale. Noi esseri umani, invece, abbiamo l'abilità di proiettare il mondo al nostro interno e di creare simulazioni (il “cosa-succede-se”). Possiamo risolvere molti problemi, migliaia di volte più velocemente di quanto possa fare la selezione naturale. Ora, nel creare i mezzi per eseguire tali simulazioni più velocemente, entriamo in un territorio che è radicalmente diverso dal nostro passato umano, quanto noi esseri umani siamo diversi dagli invertebrati.  

Con tale cambiamento, tutte le regole umane diverranno inutili, forse in un batter d'occhio: una “fuga”, una corsa a velocità esponenziale che non potremo controllare. Sviluppi considerati possibili solo fra "un milione di anni", o addirittura considerati impossibili, diverranno fattibili nel prossimo secolo [l'autore scrive nel 1993 e si riferisce quindi al XXI secolo - NdT].  

Un evento di questo genere può ragionevolmente essere descritto come una singolarità (che d'ora in poi, in questo articolo, chiamerò “la Singolarità”). E' un momento in cui i nostri vecchi modelli della realtà devono essere abbandonati e siamo confrontati da una nuova realtà, un momento la cui sagoma crescerà sempre più sull'orizzonte degli esseri umani fino a quando il concetto diverrà d'uso comune. Eppure, quando si verificherà, potrebbe ugualmente essere una grossa sorpresa e un'ancor più grossa incognita. Negli anni '50 pochissimi se ne resero conto: Stan Ulam (1) ha parafrasato John von Neumann, dicendo:[Si tratta di… - NdT] “Una situazione condizionata dalla continua accelerazione del progresso tecnologico e del cambiamento dei modelli della vita umana, che pare  avvicinarsi ad una qualche singolarità, fondamentale nella storia della razza umana e oltre la quale le vicende umane non possono continuare nella forma che  conosciamo.”  

Von Neumann usa persino il termine singolarità, anche se pare si riferisca al normale progresso e non alla creazione di intelligenza super-umana (per me la super-umanità è l'essenza della Singolarità. Senza di essa non avremmo altro che un'abbondanza di ricchezza tecnologica, mai completamente assorbita).  

Negli anni '60 abbiamo assistito al riconoscimento di alcune delle implicazioni dell'intelligenza super-umana. I.J. Good ha scritto:  

“Definiamo una macchina ultra intelligente come una macchina che può superare di gran lunga tutte le attività intellettuali della persona più intelligente. Dato che la  progettazione di macchine è una di queste attività intellettuali, una macchina ultra intelligente potrebbe progettare macchine migliori; ci sarebbe quindi, senza ombra di dubbio, una "esplosione di intelligenza" e l'intelligenza dell'Uomo rimarrebbe molto indietro. Potremmo quindi dire che la prima macchina ultra intelligente sarebbe l'ultima invenzione che l'Uomo avrebbe bisogno di realizzare, ammesso che la macchina sia sufficientemente docile da dirci come tenerla sotto controllo. (...) E' probabile che, entro il ventesimo secolo, una macchina ultra-intelligente sia costruita e che questa sarà l'ultima invenzione che l'uomo dovrà realizzare.” (2)  

Good ha colto l'essenza di questa fuga, ma non ne considera le conseguenze più preoccupanti. Qualsiasi macchina intelligente del tipo da lui descritto non vorrà essere  uno "strumento" dell'umanità, esattamente come gli uomini non sono gli strumenti di conigli, pettirossi o scimpanzé.  

Negli anni sessanta, settanta e ottanta, la consapevolezza di questo cataclisma all'orizzonte si è diffusa. Forse furono gli scrittori di fantascienza a rendersene conto per primi. Dopotutto, gli scrittori di fantascienza "hard" si occupano specificamente dell'impatto che la tecnologia potrebbe avere su di noi. Sempre più, questi scrittori cominciarono a percepire la presenza di un qualcosa di simile ad una barriera opaca all'orizzonte. In passato, essi potevano ambientare le loro fantasie milioni di anni nel futuro, ma ora si rendevano conto che le loro estrapolazioni più attente annunciavano l'arrivo di un futuro incomprensible in tempi molto più stretti. Una volta, gli imperi galattici apparivano come possibilità post-umane, ora, purtroppo, lo sono anche quelli interplanetari.  

Cosa accadrà nelle prossime decadi, mentre ci avviciniamo al precipizio? Che impatto avrà, sulla nostra visione del mondo, la realizzazione che la Singolarità si sta avvicinando ? I critici della Intelligenza Artificiale avranno vita facile ancora per qualche tempo. Dopotutto, fino a quando non avremo dell'hardware potente quanto il cervello umano, è probabilmente assurdo pensare di poter creare un'intelligenza equivalente, o superiore, a quella umana. (Esiste, comunque, una remota possibilità che sarebbe possibile realizzare un equivalente umano con un hardware molto meno potente, se fossimo disposti ad rinunciare alla velocità e se fossimo disposti ad accontentarci di un essere artificiale che fosse estremamente lento. E' molto più probabile che lo sviluppo del software sarà un processo difficile, con molti tentativi falliti e false partenze. In queso caso, l'arrivo di macchine coscienti non sarà possibile fino a quando non avremo hardware significativamente più potente dell'hardware naturale dell'umanità).  

Con il passare del tempo, però, altri sintomi appariranno. Il dilemma  degli scrittori di fantascienza viene già percepito anche in altri settori creativi (ho sentito di sceneggiatori di fumetti che si preoccupano di come creare effetti spettacolari in ambientazioni in cui le tecnologie di ogni giorno possono produrre qualunque oggetto desiderato). Assisteremo alla sostituzione di personale umano in occupazioni sempre più intellettualmente elevate con sistemi automatizzati. Già utilizziamo alcuni strumenti (programmi matematici simbolici, cad/cam) per lavori noiosi e/o di basso livello. Per dirla in un altro modo: le attività che sono realmente produttive, sono svolte da una frazione dell'umanità sempre più piccola ed elitaria. Con l'avvicinarsi della Singolarità vedremo finalmente la realizzazione delle predizioni di una  disoccupazione realmente causata dallo sviluppo tecnologico.  

Un altro sintomo del progresso verso la Singolarità, sarà il fatto che le idee stesse si diffonderanno ancora più rapidamente e anche quelle più radicali entreranno rapidamente nell'immaginario collettivo.  

E per quanto riguarda il momento in cui la Singolarità arriverà? Cosa si può dire specificamente a proposito del momento del suo arrivo? Dato che implica una “fuga”, un rapido sviluppo intellettuale, probabilmente accadrà più velocemente di qualsiasi rivoluzione tecnica finora vista. Probabilmente, l'evento precipitante sarà inatteso, forse anche dagli stessi ricercatori coinvolti ("Ma come?! Tutti i nostri altri modelli erano catatonici! Stavamo solo regolando un paio di parametri..."). Se l'uso di network sarà sufficientemente diffuso (nella forma di sistemi interconnessi ubiqui), potrà sembrare che i nostri macchinari si siano improvvisamente “svegliati”.  

E che cosa succederà un mese o due (o un giorno o due) dopo tutto ciò? Posso solo offrire, come analogia, l'emergere dell'umanità. Saremo nell'era post-umana. E per quanto sia un ottimista tecnologico, penso che mi sentirei meglio se stessi osservando questi eventi trascendentali da una distanza di mille di anni... invece che di venti.  

2 - Possiamo evitare la Singolarità?  

Chissà, forse non accadrà neanche! A volte cerco di immaginare quali sintomi dovremmo aspettarci se la Singolarità non fosse all'orizzonte. Le argomentazioni di Penrose (3) e Searle (4) contro la fattibilità di macchine senzienti sono molto rispettate. Nell'agosto del 1992 la Thinking Machines Corporation ha tenuto un seminario per investigare "Come costruiremo una macchina pensante". Come suggerito dal titolo del convegno, i partecipanti non avevano particolari simpatie per le teorie contrarie alla possibilità di creare macchine intelligenti. In pratica, tutti si dichiararono convinti che la mente possa esistere su substrati non biologici e che sono gli algoritmi ad essere di importanza centrale per l'esistenza di una mente. Si assistette, però, anche ad un serio dibattito su quanto sia potente l'hardware del cervello organico. Una minoranza riteneva che i più potenti computer del 1992 fossero entro tre ordini di magnitudine della potenza del cervello umano. La maggioranza dei partecipanti concordava invece con la stima di Hans Moravec (5), cioè che ci vorranno fra i dieci e i quarant'anni per raggiungere la parità fra hardware (umano e computer - NdT ). Infine, c'era anche un'altra minoranza, la quale congetturava che le attività computazionali di un singolo neurone potrebbero essere maggiori di quanto si creda. In questo caso, i computer di oggi  potrebbero essere fino a dieci ordini di magnitudine al di sotto dell'hardware che ognuno di noi ha nel cranio. Se ciò fosse vero (o se le teorie di Penrose e Searle fossero valide), potremmo non assistere mai ad una Singolarità. Al suo posto assisteremmo, nei primi anni del XXI secolo, ad un inizio di appiattimanto della curva delle prestazione dell'hardware, dovuta alla nostra incapacità di automatizzare la progettazione necessaria per ulteriori miglioramenti dell'hardware stesso. Ci ritroveremmo con dell'hardware estremamente potente, ma senza la capacità di spingerlo più avanti. Potremmo avere  incredibili applicazioni commerciali del processo del segnale digitale, il che darebbe un aspetto analogico anche alle operazioni digitali, ma non sarebbe possibile nessun "svegliarsi" e non si verificherebbe mai la “fuga” in avanti dell'intelligenza che è l'essenza della Singolarità. Probabilmente, questa sarebbe vista come una era splendida... ma sarebbe anche la  fine del progresso. Questo scenario assomiglia molto al futuro predetto da Gunther Stent (6), il quale però cita esplicitamente lo sviluppo dell'intelligenza transumana come condizione sufficiente a scardinare le sue proiezioni.  

Ma se la Singolarità tecnologica è possibile, essa si realizzerà. Anche se tutti i governi del mondo comprendessero la "minaccia" [in essa contenuta - NdT] e ne fossero mortalmente spaventati, il progresso verso la Singolarità continuerebbe. I vantaggi competitivi - economici, militari e perfino artistici - di ogni progresso nell'automazione è talmente allettante che l'imposizione di divieti non farebbe altro che permettere a qualcun altro di essere il primo ad ottenerli.  

Eric Drexler ha fornito delle spettacolari intuizioni su dove può arrivare il progresso tecnico (7). E' d'accordo sul fatto che le intelligenze super-umane saranno una realtà  nel prossimo futuro, ma Drexler è convinto che potremo confinare tali entità transumane in modo che le loro attività possano essere esaminate ed usate in sicurezza.  

Io sostengo che il confinamento sia intrinsecamente impraticabile. Immaginate di essere rinchiusi in casa con accesso limitato all'esterno e ai vostri padroni. Se tali padroni pensassero ad una velocità, per esempio, un milione di volte più lenta della vostra, senza dubbio nell'arco di qualche anno (del vostro tempo) trovereste un modo di evadere. Io chiamo questa versione “ad alta velocità” della super-intelligenza, una “super-umanità debole”. Tale entità "debolmente super-umana" probabilmente si brucerebbe nel giro di qualche settimana (di tempo “esterno”). Una "super-umanità forte", invece, sarebbe molto più di un semplice aumento della velocità di pensiero rispetto alla mente umana. E' difficile dire con precisione come sarà la super-umanità forte, ma le differenze dovrebbero essere profonde. Immaginate di poter far funzionare il cervello di un cane ad alta velocità. Basterebbero mille anni di vita canina per arrivare ad un livello simile a quello umano? Molte speculazioni sulla super-intelligenza sembrano basarsi sul modello super-umano debole. Secondo me, per poter fare previsioni sensate sul mondo post-Singolarità, bisogna prendere in considerazione la natura della super-umanità forte. Tornerò su questo punto, più avanti.  

Un altro approccio al contenimento consiste nell'inserire delle regole precise nella mente dell'entità super-umana. Penso, però, che qualsiasi regola sufficientemente limitante da essere efficace, risulterebbe in uno strumento [cioè l'entità super-intelligente così creata - NdT] la cui abilità sarebbe chiaramente inferiore ad una versione senza restrizioni (la competizione fra umani, quindi, favorirebbe lo sviluppo dei modelli più pericolosi) [cioè meno regolati - NdT].  

Se la Singolarità non può essere prevenuta o confinata, quanto potrebbe essere pericolosa questa era post-umana? Non poco. L'estinzione della razza umana è una chiara possibilità (o, come dice Eric Drexler a proposito della nanotecnologia: considerato quello che tale tecnologia può fare, i governi potrebbero semplicemente decidere che non hanno più bisogno di cittadini). Eppure, l'estinzione potrebbe non essere la possibilità più spaventosa. Pensate ai vari modi in cui ci poniamo in relazione con gli animali. Un mondo post-umano avrebbe ancora molte nicchie in cui l'automazione con entità equivalenti agli esseri umani sarebbe utile: sistemi “embedded” [inseriti, immersi - NdT] all'interno di sistemi autonomi e “daemons” [demoni, programmi semi-autonomi - NdT] coscienti nei livelli inferiodi di funzionalità di entità senzienti. (E' probabile che una intelligenza super-umana “forte” sarebbe una Society of Mind (8) con alcuni componenti estremamente competenti). Alcune di queste entità equivalenti agli umani potrebbero venir utilizzate solo per funzioni di processo del segnale digitale. Altre potrebbero apparire molto umane, ma con una monodimensionalità ed una dedicazione tale, che ai nostri giorni li farebbe rinchiudere in manicomio. Sebbene nessuna di queste creature sarebbe un essere umano in carne ed ossa, esse potrebbero essere, in questo nuovo ambiente, quanto di più simile a ciò che ora chiamiamo esseri umani.  

Ho sostenuto, più sopra, che non possiamo prevenire la Singolarità, che il suo arrivo è una conseguenza inevitabile della nostra competitività naturale e delle possibilità intrinseche della tecnologia. Eppure, siamo noi i catalizzatori. Anche la valanga più grossa nasce da piccoli eventi. Abbiamo la libertà di stabilire le condizioni iniziali, di fare in modo che il tutto si svolga in modo favorevole o meno sfavorevole delle alternative. Naturalmente (come nel causare una valanga), potrebbe non essere chiaro quale sia il piccolo evento necessario.  

3 - Altri approcci alla Singolarità  

Quando si parla di creare esseri dotati di intelligenza super-umana, molta gente immagina uno sforzo nel settore della Intelligenza Artificiale, ma come ho fatto notare all'inizio di questo articolo, altre strade verso la super-umanità sono possibili. Le reti di computer e l'interfaccia uomo/computer sembrano più semplici dell'I.A., eppure anch'essi potrebbero portare alla Singolarità. Chiamo questo approccio alternativo, Amplificazione dell'Intelligenza (A.I.). L'A.I. si sta sviluppando in maniera naturale, spesso senza essere neppure riconosciuto per quello che è dai suoi stessi studiosi. Però, ogni volta che miglioriamo la nostra capacità di accedere ad informazioni e di comunicarle ad altri, in un certo senso incrementiamo l'intelligenza naturale. Un duo formato da un laureato umano e un buon computer  (anche non collegato all'internet) può già oggi raggiungere il massimo dei voti in qualsiasi test di intelligenza scritto.  

E' inoltre molto probabile che l'A.I. sia una strada molto più facile verso la super-umanità rispetto all'I.A. pura. Negli esseri umani, i problemi più difficili, per quanto riguarda lo sviluppo, sono già stati risolti. La creazione di un'entità super-intelligente partendo dal nostro organismo, dovrebbe essere più facile di scoprire in dettaglio il nostro funzionamento per poi costruire macchine con lo stesso livello di complessità. Esiste, inoltre, un possibile precedente a questo approccio. Cairns-Smith (9) ha speculato che la vita biologica potrebbe essere iniziata come aggiunta ad una forma di vita più primitiva, basata sulla crescita dei cristalli. Lynn Margulis (10 e altrove) offre convincenti argomentazioni sul fatto che il mutualismo sia una forza trainante dell'evoluzione.  

Si noti che non sto proponendo di ignorare la ricerca sull'I.A. Sviluppi nell'I.A. troveranno spesso applicazioni nell'A.I. e viceversa. Quello che sto proponendo è di ammettere che nella ricerca su reti informatiche e interfaccia, si nasconda qualcosa di altrettanto profondo (e potenzialmente selvaggio) quanto nella ricerca sull'intelligenza artificiale. Con questa intuizione, comprendiamo come progetti che non appaiono come direttamente collegati alla Singolarità, come quelli su interfaccia convenzionali e la progettazione in rete, ci spingano verso la Singolarità secondo l'approccio dell'A.I.  

Seguono alcuni possibili progetti che assumono un particolare significato dal punto di vista dell'A.I.:  

Automazione del team uomo/computer: partendo da problemi normalmente considerati risolvibili con una semplice soluzione meccanica (come problemi di scalata) si preparino programmi e interfacce che si avvantaggino dell'intuizione degli esseri umani e della disponibilità dell'hardware informatico. Considerando la bizzarria dei problemi di scalata ad alta dimensione (e gli efficienti algoritmi che sono stati proposti per la loro soluzione), si potrebbro fornire al rappresentante umano del team degli strumenti di controllo alquanto interessanti.  

La simbiosi uomo/computer nell'arte: combinando la capacità di generare grafica dei moderni computer con la sensibilità estetica dell'uomo. Naturalmente, enormi sforzi di ricerca sono già stati compiuti nel progettare  supporti computerizzati per artisti. Propongo di puntare esplicitamente verso una ulteriore fusione di competenze, di riconoscere esplicitamente l'approccio cooperativo che è possibile. Karl Sims ha prodotto splendidi sviluppi in questa direzione (11).  

Team uomo/computer ai tornei di scacchi: abbiamo già programmi che possono giocare meglio di qualsiasi essere umano, ma quanto lavoro è stato fatto in modo che tale potere possa essere usato da un essere umano per ottenere qualcosa di ancor meglio? L'ammissione di team uomo/computer ai tornei di scacchi potrebbe avere lo stesso effetto positivo sulla ricerca nell'A.I. che l'ammissione dei computer ha avuto per la corrispondente nicchia nell'I.A.  

Interfacce che permettano l'accesso al computer e all'internet senza obbligare l'utilizzatore ad essere in un posto specifico, cioè seduto di fronte al computer (questo aspetto dell'A.I. offre tali evidenti vantaggi economici che molti sforzi sono già stati fatti in questa direzione).  

Sistemi di supporto decisionale più simmetrici. Un'area affermata, sia come ricerca che come prodotti, in anni recenti, è quella dei sistemi di supporto decisionale. E' una forma di A.I., ma potrebbe risentire negativamente di un eccessiva attenzione a sistemi che operano quasi come oracoli. E' necessario che, così come il programma fornisce informazioni all'utente, anche l'utente possa fornire la guida al programma.  

Reti di computer locali per rendere gruppi di lavoro umani più efficienti della semplice somma dei singoli componenti. Generalmente, questa è l'area del "groupware"; il cambiamento di attitudine in questo settore sarebbe nel considerare l'attività di gruppo come un organismo combinatorio.  

In un certo senso, l'intenzione di questo suggerimento potrebbe essere di inventare delle "regole d'ordine" per tali operazioni combinatorie. Per esempio, la capacità del gruppo di concentrarsi sul tema di un incontro, potrebbe essere più facilmente mantenuta che in incontri classici. Le capacità individuali dei singoli membri potrebbero essere isolate ed utilizzate senza le interferenze causate da problemi interpersonali, caratteriali, etc, così da concentrare gli sforzi del gruppo sul progetto.  Naturalmente, anche i database comuni potrebbero essere usati in maniera più conveniente di come succede in operazioni simili, ma convenzionali.  

L'internet come combinazione uomo/macchina. Fra i punti di questa lista, il progresso in questo campo è quello che procede più velocemente. Il potere e l'impatto dell'internet sono largamente sottovalutati. Il suo stesso anarchico sviluppo è una dimostrazione del suo potenziale. Con l'aumento di connettività, ampiezza di banda, dimensioni degli archivi e velocità dei computer, assistiamo ad un qualcosa di simile alla visione di Lynn Margulis, in cui la biosfera è un elaboratore di dati, ma ad una velocità milioni di volte maggiore e con milioni di agenti intelligenti (noi stessi).  

Gli esempi di cui sopra illustrano il tipo di ricerca che può essere condotta nel contesto dei dipartimenti di scienza informatica contemporanei. Ci sono, però, anche altri paradigmi. Per esempio, gran parte della ricerca nell'intelligenza artificiale e nelle reti neurali potrebbe beneficiare di una connessione più stretta con la vita biologica. Invece di usare il computer solo per costruire modelli per comprendere la vita biologica, potremmo spingere la ricerca verso la creazione di sistemi compositi  che si affidino usino la biologia come guida o per quegli aspetti che ancora non conosciamo sufficientemente bene da poterli implementarli nell'hardware. Da tempo, un sogno della fantascienza è quello di un'interfaccia diretta fra cervello e computer e molta ricerca concreta si sta svolgendo in questa area: 

Le protesi artificiali sono un'area con un chiaro sbocco commerciale. Trasduttori fra tessuto nervoso e silicio sono realizzabili. Questo è un entusiasmante passo in avanti verso la comunicazione diretta.  

Un collegamento diretto con il cervello sembra realizzabile, se il traffico di bit è basso: data la flessibilità della capacità di apprendimento umana, non è necessario selezionare con precisione gli obiettivi dei neuroni. Anche solo 100 bit al secondo sarebbero meglio di interfacce a menù, per le vittime di emorragie cerebrali [che spesso soffrono di paralisi e possono solo comunicare attraverso l'uso di mezzi telematici - NdT].  

Un collegamento con il nervo ottico ha il potenziale di un'ampiezza di banda di circa 1 Mbit al secondo, ma implicherà una profonda comprensione del funzionamento della visione e l'installazione di una enorme rete di elettrodi, ognuno dei quali dovrà essere posizionato con estrema precisione. Se vogliamo aggiungere una connessione di banda larga alle reti già presenti nel cervello, il problema diventa ancora più ostico. Installare una rete di ricettori a banda larga nel cervello non sarà sufficiente. Ma la situazione sarebbe diversa se la rete a banda larga fosse presente nel momento in cui le strutture cerebrali si formano, cioè durante lo  sviluppo dell'embrione. Questo ci suggerisce di provare quanto segue:  

Esperimenti su embrioni di animali. Non mi aspetto alcun successo per l'A.I. nei primi anni di questa ricerca, ma il dare accesso a complesse strutture neurali simulate a dei cervelli in formazione potrebbe, alla lunga, produrre animali con addizionali reti sensoriali e con interessanti abilità intellettuali.  

Speravo che questa discussione sull'A.I. potesse rivelare approcci meno pericolosi alla Singolarità (dopotutto l'A.I. permette la nostra partecipazione in una specie di trascendenza). Purtroppo, però, l'unica cosa di cui sono convinto, al momento, è che se queste proposte vanno considerate dato che potrebbero fornire ulteriori opzioni, per quanto riguarda la sicurezza, alcuni di questi suggerimenti sono un tantino preoccupanti. L'uso di A.I. da parte di singoli esseri umani creerebbe una élite piuttosto sinistra. Come esseri umani, ci portiamo dietro milioni di anni di bagaglio evolutivo che ci fa considerare la competizione come un rischio mortale. Tale rischio potrebbe non essere però così letale nel mondo odierno, un mondo in cui chi  perde può a sua volta utilizzare i trucchi del vincitore e/o può essere cooptato a far parte delle attività dei vincenti. Una entità costruita de novo potrebbe, forse, essere molto più benigna di una basata su una logica che a sua volta si basi su zanne e artigli.  

Il problema non è solo che la Singolarità rappresenta l'uscita di palcoscenico dell'umanità, ma che contraddice le nostre nozioni di identità più profonde. Uno sguardo più ravvicinato alla nozione di super-umanità forte spiega perché.  

4 - Super-umanità forte e i limiti massimi che possiamo aspettarci  

Immagina di poter dar forma alla Singolarità in completo controllo. Immagina di poter realizzare i nostri sogni più ambiziosi. Cosa vorremmo vedere realizzato? Che l'umanità sia succeduta da se stessa, che qualsiasi ingiustizia sia temperata dalla nostra conoscenza delle nostre radici. Coloro rimasti inalterati, vorranno ricevere un trattamento benigno (forse dando loro perfino l'illusione di essere i padroni di schiavi dai poteri quasi divini). Potrebbe essere un'età dell'oro e che potrebbe anche portare ulteriore progresso (superando la barriera di Stent). L'immortalità (o se non altro, una vita lunga quanto si riuscirà a tenere in vita  l'universo) sarebbe a nostra disposizione.  

Ma in questo mondo luminoso e gentile, sarebbero i problemi filosofici ad essere preoccupanti. Una mente che rimanesse della stessa capacità non potrebbe vivere per sempre: dopo qualche migliaio d'anni, più che una persona sarebbe un disco che salta, ripetendosi all'infinito. Per vivere indefinitamente a lungo, la mente deve crescere... e una volta raggiunto un livello sufficientemente sviluppato e guardandosi indietro... quale senso di continuità potrebbe provare con l'anima che era originalmente? L'essere che essa è divenuta conterrebbe tutto ciò che conteneva l'originale, ma avrebbe anche quantità enormi di altri contenuti. E così, anche per l'individuo, è ancora valido il concetto di Cairns-Smith o Lynn Margulis: la nuova vita cresce incrementalmente dalla vecchia.  

Questo problema dell'"immortalità" si manifesta anche in modi molto più diretti. Il concetto di “io” e di coscienza è stato alla base del razionalismo da qualche secolo. Ora, però, il concetto di coscienza è sfidato dai ricercatori del settore dell'Intelligenza Artificiale e l'Amplificazione dell'Intelligenza attacca il nostro concetto di ego da un'altra direzione. Il mondo, post-Singolarità, comporterà dei network a banda estremamente larga. Sembra ragionevole aspettarsi che un aspetto centrale di entità super-umane “forti” sarà l'abilità di comunicare su varie ampiezze di banda, incluse quelle molto più “alte” della parola e della scrittura. Cosa accadrà quando parti dell'io  potranno essere copiati e fusi fra di loro, quando la consapevolezza di sé può essere aumentata o ridotta per adattarsi alla natura dei problemi presi in considerazione? Questi sono aspetti essenziali della super-umanità forte e della Singolarità. Prendenoli in considerazione, cominciamo ad intuire quanto fondamentalmente strana e diversa sarà l'era Post-umana, indipendentemente da quanto possa essere benigna o intelligentemente realizzata.  

Da un certo punto di vista, questa visione risponde a molti dei nostri sogni: un'era  senza fine, dove potersi realmente conoscere l'un l'altro e svelare i misteri più profondi. Da un altro punto di vista, invece, ci ricorda gli scenari meno positivi a cui ho accennato in precedenza.  

In pratica, credo che la nuova era sarà semplicemente troppo diversa per essere giudicata con lo schema classico del bene e del male. Questo schema si basa infatti su  menti isolate e immutabili, connesse da legami tenui e a bassa ampiezza di banda. Il  mondo post-Singolarità rientra invece nella più ampia tradizione di cambiamento e cooperazione che iniziò nel passato remoto (forse perfino prima del sorgere della vita biologica). Penso che alcuni concetti etici si adatteranno ad un'era simile. La ricerca nell'A.I. e nella comunicazione a banda larga ne miglioreranno la nostra comprensione. Per ora, vedo solo i bagliori di tutto questo. Chissà, forse ci sono regole per distinguere l'io dagli altri sulla base dell'ampiezza della banda di connessione. E se mente e coscienza saranno più labili che in passato, non significa che dovremo rinunciare a quanto più ci sta a cuore (sapere, memoria e pensiero).  

Penso che Freeman Dyson abbia espresso tutto ciò alla perfezione dicendo che "Dio è ciò che la mente diviene quando arriva al di là della nostra comprensione." (12)  

Fonti:  

1. Ulam, S., "Tribute to John  von Neumann," Bulletin of the American Mathematical Society, vol. 64. no. 3, May 1958, pp. 1-49.
2. Good, I.  J., "Speculations Concerning  the First  Ultraintelligent Machine," in  Advances  in  Computers,  vol 6,  Franz  L.  Alt  and  Morris Rubinoff, eds., 31-88, 1965, Academic Press.
3. Penrose, Roger,  The Emperor's New  Mind, Oxford University  Press, 1989.
4. Searle, John R., "Minds,  Brains, and Programs," in The  Behavioral and Brain Sciences, vol.  3, Cambridge University Press, 1980.
5. Moravec, Hans, Mind Children, Harvard University Press, 1988.
6. Stent, Gunther S., The Coming of the Golden Age: A View of the  End of Progress, The Natural History Press, 1969.
7. Drexler,  K. Eric,  Engines  of Creation,  Anchor  Press/Doubleday, 1986.
8. Minsky, Marvin, Society of Mind, Simon and Schuster, 1985
9. Cairns-Smith, A. G., Seven Clues  to the Origin of Life,  Cambridge University Press, 1985.
10. Margulis, Lynn and Dorian Sagan, Microcosmoss: Four Billion Years of Evolution From Our Microbial Ancestors, Summit Books, 1986.
11. Sims,  Karl,  "Interactive  Evolution  of  Dynamical  Systems," Thinking Machines Corporation, Technical Report Series (published in Toward a Practice of Autonomous Systems: Proceedings of  
the First European Conference on Artificial Life, Paris, MIT Press, December 1991.
12. Dyson, Freeman, Infinite in All Directions, Harper & Row, 1988.  

 Altre fonti:  

Alfvin, Hannes, writing  as Olof  Johanneson, "The End  of Man?",  Award Books, 1969.
Anderson, Poul, "Kings Who Die," If, March 1962, 8-36.
Asimov, Isaac, "Runaround,"  Astounding Science  Fiction, March  1942, 94.
Barrow, John D. and Frank J. Tipler, "The Anthropic Cosmological Principle", Oxford University Press, 1986.
Bear, Greg, "Blood Music," Analog Science Fiction-Science Fact,  June, 1983.
Conrad, Michael, et  al., "Towards an  Artificial Brain," BioSystems, vol. 23, 175-218, 1989.
Dyson, Freeman, "Physics and Biology  in an Open Universe," Review  of Modern Physics, vol.  51, 447-460, 1979.
Herbert, Frank, "Dune", Berkeley Books, 1985.
Kovacs, G. T. A., et al., "Regeneration Microelectrode Array for Peripheral Nerve Recording and Stimulation," IEEE Transactions on Biomedical Engineering, vol. 39, no. 9, 893-902.
Niven, Larry, "The Ethics of Madness," If, April 1967, 82-108.
Platt, Charles, private communication.
Rasmussen, S. et al.,  "Computational Connectionism within Neurons:  a Model of  Cytoskeletal Automata  Subserving Neural Networks," in  Emergent Computation, Stephanie Forrest, ed., 428-449, MIT Press, 1991.
Stapledon, Olaf, "The Starmaker", Berkeley Books, 1961.
Swanwick Michael, "Vacuum Flowers", serialized in Isaac Asimov's Science Fiction Magazine, December 1986 - February 1987.
Thearling, Kurt, "How We Will Build a Machine That Thinks," a workshop at Thinking Machines Corporation, August 24-26, 1992.
Vinge, Vernor, "Bookworm, Run!", Analog, March 1966, 8-40.
Vinge, Vernor, "True Names," Binary Star Number 5, Dell, 1981.
Vinge, Vernor, "First Word," Omni, January 1983, 10.  

(c) 1993 by Vernor Vinge (This article may be reproduced for noncommercial purposes if it is copied in its entirety, including this notice.)  

The original version of this article was presented at the VISION-21 Symposium sponsored by NASA Lewis Research Center and the Ohio Aerospace Institute, March 30-31, 1993. A slightly changed version appeared in the Winter 1993 issue of Whole Earth Review.

La versione originale dell'articolo (inglese)

 

Tecnofascismo? No grazie.

  • Una serie di articoli su sovrumanismo e dintorni e sui motivi che hanno spinto Estropico ad andarsene dalla Associazione Italiana Transumanisti.
  • Aggiornamenti (su Estropico Blog)

Varie