Il mito delle macchine senzienti

A human-like robot/Shutterstock
Fonte: un robot di tipo umano / Shutterstock

Alcuni dei migliori tecnici e scienziati di oggi esprimono pubblicamente le loro preoccupazioni su scenari apocalittici che potrebbero sorgere come risultato di macchine con motivazioni. Tra i paurosi ci sono i pesi massimi intellettuali come Stephen Hawking, Elon Musk e Bill Gates, che credono tutti che i progressi nel campo dell'apprendimento automatico daranno presto delle IA auto-consapevoli che cercano di distruggerci – o forse semplicemente ci abbandonano in modo apatico, molto come la schiuma che viene cancellata da un tergicristallo. Infatti, il dott. Hawking ha dichiarato alla BBC: "Lo sviluppo dell'intelligenza artificiale completa potrebbe significare la fine della razza umana".

In effetti, non c'è dubbio che la futura IA sarà capace di fare danni significativi. Ad esempio, è ipotizzabile che i robot possano essere programmati per funzionare come armi autonome tremendamente pericolose, a differenza di quanto visto in precedenza. Inoltre, è facile immaginare un'applicazione software non vincolata che si diffonde su Internet, mettendo a dura prova il nostro mezzo di scambio globale più efficiente e affidabile.

Ma questi scenari sono categoricamente diversi da quelli in cui le macchine decidono di accenderci, sconfiggerci, renderci schiavi o sterminarci. A questo proposito, siamo senza dubbio sicuri. In una nota più triste, è improbabile che un giorno un robot decida di fare amicizia con noi o di mostrarci amore senza essere specificamente richiesto dalle istruzioni per farlo.

Questo perché un tale comportamento intenzionale di un'intelligenza artificiale richiederebbe indubbiamente una mente, poiché l'intenzionalità può sorgere solo quando qualcosa possiede le proprie convinzioni, i propri desideri e le proprie motivazioni. Il tipo di IA che include queste caratteristiche è noto nella comunità scientifica come "Strong Artificial Intelligence". L'intelligenza artificiale forte, per definizione, dovrebbe possedere l'intera gamma di abilità cognitive umane. Ciò include auto-consapevolezza, senzienza e coscienza, poiché queste sono tutte caratteristiche della cognizione umana.

D'altra parte, la "debole intelligenza artificiale" si riferisce all'IA non-sensibile. L'Ipotesi IA debole afferma che i nostri robot, che funzionano con programmi per computer digitali, non possono avere stati coscienti, nessuna mente, nessuna consapevolezza soggettiva e nessuna azione. Tale intelligenza artificiale non può sperimentare il mondo qualitativamente e, sebbene possa mostrare un comportamento apparentemente intelligente, è per sempre limitata dalla mancanza di una mente.

L'incapacità di riconoscere l'importanza di questa distinzione forte / debole potrebbe contribuire alle preoccupazioni esistenziali di Hawking e Musk, entrambe le quali credono che siamo già sulla buona strada per sviluppare l'intelligenza artificiale forte (ovvero l'intelligenza artificiale generale). Per loro non è questione di "se", ma "quando".

Ma il nocciolo della questione è che tutta l'IA corrente è fondamentalmente un'IA debole, e questo si riflette nella totale assenza di qualsiasi comportamento intenzionale da parte dei computer odierni. Sebbene ci siano alcuni robot molto complessi e relativamente convincenti là fuori che sembrano essere vivi, a un esame più attento si rivelano tutti privi di motivazione come il comune calcolatore tascabile.

Questo perché cervelli e computer funzionano in modo molto diverso. Entrambi calcolano, ma solo uno lo capisce, e ci sono alcuni motivi molto convincenti per credere che questo non cambierà. Sembra che ci sia un ostacolo più tecnico che impedisce a IA forte di diventare realtà.

Le macchine di Turing non sono macchine pensanti

Tutti i computer digitali sono sistemi binari. Ciò significa che memorizzano ed elaborano le informazioni esclusivamente in termini di due stati, che sono rappresentati da simboli diversi, in questo caso 1 e 0. È un fatto interessante della natura che le cifre binarie possano essere usate per rappresentare la maggior parte delle cose; come numeri, lettere, colori, forme, immagini e persino audio con una precisione quasi perfetta.

Questo sistema a due simboli è il principio fondamentale su cui si basa tutto il digital computing. Tutto ciò che fa un computer comporta la manipolazione di due simboli in qualche modo. In quanto tali, possono essere pensati come un tipo pratico di macchina di Turing, una macchina astratta e ipotetica che calcola manipolando simboli.

Si dice che le operazioni di una macchina di Turing siano "sintattiche", nel senso che riconoscono solo i simboli e non il significato di quei simboli, cioè la loro semantica. Anche la parola "riconoscere" è fuorviante perché implica un'esperienza soggettiva, quindi forse è meglio dire semplicemente che i computer sono sensibili ai simboli, mentre il cervello è capace di comprensione semantica.

Non importa quanto sia veloce il computer, quanta memoria ha, o quanto sia complesso e di alto livello il linguaggio di programmazione. Gli scacchi di Jeopardy and Chess Watson e Deep Blue funzionano fondamentalmente come il tuo forno a microonde. In parole povere, una macchina per l'elaborazione di simboli rigorosa non può mai essere una macchina che capisce i simboli. L'influente filosofo John Searle ha abilmente descritto questo fatto per analogia nel suo famoso e molto controverso "Argomento della stanza cinese", che ha convinto le menti che "la sintassi non è sufficiente per la semantica" da quando è stata pubblicata nel 1980. E nonostante alcune confutazioni esoteriche sono stati messi fuori (il più comune è il "sistema di risposta"), nessuno colmare il divario tra sintassi e semantica. Ma anche se non si è completamente convinti sulla base del solo Argomento della Sala cinese, ciò non cambia il fatto che le macchine di Turing sono macchine che manipolano simboli e non macchine pensanti, una posizione presa dal grande fisico Richard Feynman più di dieci anni prima.

Feynman ha descritto il computer come "Un sistema di archiviazione glorificato, di alta classe, molto veloce ma stupido", gestito da un archivista infinitamente stupido (l'unità di elaborazione centrale) che segue ciecamente le istruzioni (il programma software). Qui l'impiegato non ha idea di niente – nemmeno lettere singole o numeri. In una famosa conferenza sull'euristica dei computer, Feynman ha espresso i suoi gravi dubbi riguardo alla possibilità di macchine veramente intelligenti, affermando che "Nessuno sa cosa facciamo o come definire una serie di passaggi che corrispondono a qualcosa di astratto come pensare".

Questi punti presentano ragioni molto convincenti per credere che non potremmo mai raggiungere un'IA forte, cioè agenti artificiali veramente intelligenti. Forse anche le più accurate simulazioni cerebrali non produrranno menti, né i programmi software produrranno consapevolezza. Potrebbe non essere nelle carte per un processore binario rigoroso. Non c'è nulla nell'elaborare simboli o computazioni che generano esperienze soggettive o fenomeni psicologici come sensazioni qualitative.

Sentendo questo, si potrebbe essere inclini a chiedere: "Se un computer non può essere cosciente, allora come può un cervello?" Dopo tutto, è un oggetto puramente fisico che funziona secondo la legge fisica. Utilizza persino l'attività elettrica per elaborare le informazioni, proprio come un computer. Eppure in qualche modo sperimentiamo il mondo soggettivamente – da una prospettiva in prima persona in cui si verificano sensazioni interiori, qualitative e ineffabili che sono accessibili solo a noi. Prendi ad esempio il modo in cui ti senti quando vedi una ragazza carina, bevi una birra, calpesti un chiodo o ascolti un'orchestra lunatica.

La verità è che gli scienziati stanno ancora cercando di capire tutto questo. Il modo in cui i fenomeni fisici, come i processi biochimici ed elettrici, creano sensazioni ed esperienze unificate è noto come "Hard Problem of Consciousness" ed è ampiamente riconosciuto da neuroscienziati e filosofi. Anche il neuroscienziato e autore popolare Sam Harris – che condivide le preoccupazioni di ribellione dei robot di Musk – riconosce il difficile problema quando afferma che se una macchina può essere cosciente è "una domanda aperta". Sfortunatamente non sembra rendersi pienamente conto che per le macchine che pongono una minaccia esistenziale derivante dai loro stessi interessi personali, è necessaria la consapevolezza.

Tuttavia, sebbene il problema della coscienza sia effettivamente difficile, non c'è ragione di credere che non sia risolvibile dalla scienza. Quindi che tipo di progressi abbiamo fatto finora?

La coscienza è un fenomeno biologico

Proprio come un computer, i neuroni comunicano tra loro scambiandosi segnali elettrici in modo binario. O un neurone si attiva o no, e questo è il modo in cui vengono eseguiti i calcoli neurali. Ma a differenza dei computer digitali, i cervelli contengono una serie di processi cellulari e molecolari analogici, reazioni biochimiche, forze elettrostatiche, innesco di neuroni sincronizzati globali a frequenze specifiche e connessioni strutturali e funzionali uniche con innumerevoli circuiti di retroazione.

Anche se un computer può creare accuratamente una rappresentazione digitale di tutte queste caratteristiche, che di per sé comporta molti ostacoli seri, una simulazione di un cervello non è ancora un cervello fisico. Esiste una differenza fondamentale tra la simulazione di un processo fisico e il processo fisico stesso. Questo può sembrare un punto controverso per molti ricercatori di apprendimento automatico, ma se considerato a lungo termine sembra tutt'altro che banale.

La simulazione non equivale alla duplicazione

L'ipotesi dell'IA debole afferma che i computer possono solo simulare il cervello e, secondo alcuni come John Searle, che ha coniato i termini Intelligenza forte e debole, una simulazione di un sistema cosciente è molto diversa dalla realtà. In altre parole, l'hardware della "macchina" è importante e le semplici rappresentazioni digitali dei meccanismi biologici non hanno il potere di far accadere nulla nel mondo reale.

Consideriamo un altro fenomeno biologico, come la fotosintesi. La fotosintesi si riferisce al processo mediante il quale le piante convertono la luce in energia. Questo processo richiede specifiche reazioni biochimiche solo fattibile dato un materiale che ha proprietà molecolari e atomiche specifiche. Una perfetta simulazione al computer – un'emulazione – della fotosintesi non sarà mai in grado di convertire la luce in energia, non importa quanto accurata, e non importa quale tipo di hardware fornisci al computer. Tuttavia, esistono in effetti macchine per la fotosintesi artificiale. Queste macchine non si limitano a simulare i meccanismi fisici alla base della fotosintesi nelle piante, ma piuttosto a duplicare le forze biochimiche ed elettrochimiche usando cellule fotoelettrochimiche che fanno scissione dell'acqua fotocatalitica.

In modo simile, una simulazione dell'acqua non avrà la qualità di "umidità", che è un prodotto di una formazione molecolare molto specifica di atomi di idrogeno e ossigeno tenuti insieme da legami elettrochimici. La liquidità emerge come uno stato fisico che è qualitativamente diverso da quello espresso da entrambe le molecole.

Anche la nuova teoria della coscienza dalle neuroscienze, Integrated Information Theory, rende molto chiaro che una simulazione al computer perfettamente accurata di un cervello non avrebbe coscienza come un vero cervello, proprio come una simulazione di un buco nero non causerà il computer e la stanza implodere. I neuroscienziati Giulio Tononi e Christof Koch, che hanno stabilito la teoria, non usano mezzi termini sull'argomento:

"L'IIT implica che i computer digitali, anche se il loro comportamento dovesse essere funzionalmente equivalente al nostro, e anche se dovessero eseguire simulazioni fedeli del cervello umano, sperimenterebbero quasi nulla".

Con questo in mente, possiamo ancora ipotizzare se possano esistere macchine non biologiche che supportano la coscienza, ma dobbiamo renderci conto che queste macchine potrebbero dover duplicare i processi elettrochimici essenziali (qualunque essi siano) che si verificano nel cervello durante la consapevolezza stati. Se ciò risulta possibile senza materiali organici – che hanno proprietà molecolari e atomiche uniche – richiederebbe presumibilmente qualcosa di più delle macchine di Turing, che sono processori puramente sintattici (manipolatori di simboli) e simulazioni digitali, che potrebbero non disporre dei meccanismi fisici necessari.

L'approccio migliore per ottenere un'IA forte richiede di scoprire in che modo il cervello fa quello che fa per primo, e l'errore più grande dei ricercatori di apprendimento automatico è pensare di poter prendere una scorciatoia attorno ad esso. Come scienziati e umani, dobbiamo essere ottimisti su ciò che possiamo realizzare. Allo stesso tempo, non dobbiamo essere eccessivamente fiduciosi in modi che ci guidano in direzioni sbagliate e ci impediscono di fare progressi reali.

Il mito dell'IA forte

Fin dagli anni '60, i ricercatori di IA hanno affermato che l'IA forte è proprio dietro l'angolo. Ma nonostante gli aumenti monumentali della memoria del computer, della velocità e della potenza di elaborazione, non siamo più vicini di prima. Quindi per ora, proprio come i bravi film di fantascienza del passato che descrivono scenari di apocalittica IA, i robot veramente intelligenti con esperienza cosciente interiore rimangono una fantasia fantasiosa.