David Chalmers e la Singolarità che probabilmente non verranno

David Chalmers è un filosofo della mente, meglio conosciuto per le sue argomentazioni sulla difficoltà di quello che definì il "difficile problema" della coscienza, che egli discute tipicamente attraverso un esperimento mentale con zombi che agiscono e parlano esattamente come gli umani, eppure non ho un pensiero cosciente (ho spiegato chiaramente cosa penso di quel genere di cose nel mio saggio su "The Zombification of Philosophy").

Ieri ho avuto il piacere di vedere Chalmers in azione dal vivo al Graduate Center della City University di New York. Non parlava di zombi, dicendoci invece i suoi pensieri sulla cosiddetta Singolarità, il presunto momento in cui l'intelligenza artificiale supererà l'intelligenza umana, risultando nell'infinito allentamento o nella successiva fase gloriosa dell'evoluzione umana – a seconda che di solito vedi il bicchiere mezzo vuoto o mezzo pieno. Il discorso mi ha chiarito quale sia il problema di Chalmers (a parte il suo taglio di capelli davvero brutto): legge troppa fantascienza ed è apparentemente incapace di uscire dalla necessaria sospensione dell'incredulità quando ritorna nel mondo reale. Lasciatemi spiegare.

L'argomentazione di Chalmers (e degli altri sostenitori della possibilità di una Singolarità) inizia con la semplice osservazione che le macchine hanno acquisito potenza di calcolo a un ritmo straordinario negli ultimi anni, una tendenza che si può estrapolare a un'esplosione prossima all'intelligenza del futuro. Peccato che, come ogni studente di statistica dovrebbe sapere, l'estrapolazione è un modo davvero pessimo di fare previsioni, a meno che non si possa ragionevolmente essere certi di comprendere i fenomeni causali sottostanti (che non è, nel caso dell'intelligenza). (Ho fatto una domanda in questo senso a Chalmers nel Q & A e lui ha negato di aver usato la parola estrapolazione, ho controllato con diversi colleghi oltre a vino e formaggio, e tutti hanno confermato che l'ha fatto – diverse volte.)

Comunque sia, Chalmers ha continuato a presentare la sua argomentazione principale per Singularity, che va più o meno così:

1. Ci sarà presto IA (cioè Intelligenza Artificiale)
2. Ci sarà presto una transizione da AI ad AI +
3. Ci sarà presto una transizione da AI + ad AI ++

Pertanto, ci sarà AI ++

Tutte e tre le premesse e la conclusione dove segue una dichiarazione tra parentesi secondo cui ciascuna di esse contiene solo "disattenti assenti", vale a dire, assente qualsiasi cosa che possa intralciare qualsiasi dei precedenti.

Ovviamente Chalmers era molto orgoglioso della sua argomentazione, ma avevo la sensazione che poche persone fossero impressionate, e io certamente non lo ero. Prima di tutto, si è costantemente rifiutato di definire cosa sia in realtà AI ++, AI +, o anche, AI, in realtà. Questo, in un discorso di filosofia, è un peccato piuttosto grave, perché l'analisi filosofica non decolla se non siamo ragionevolmente chiari su di cosa stiamo parlando. In effetti, gran parte dell'analisi filosofica mira a chiarire i concetti e le loro relazioni. Sareste stati duramente criticati (e sempre più frustrati) nel trovare qualsiasi analisi filosofica nel discorso di Chalmers.

Secondo, Chalmers non ha fornito una sola ragione per nessuna delle sue mosse, semplicemente affermando ogni premessa e aggiungendo che se l'intelligenza artificiale è possibile, allora non c'è ragione di credere che AI ​​+ (qualunque cosa sia) non sia anche possibile, anzi probabile, e presto. Ma, amico mio, se stai facendo un romanzo reclamare, l'onere della prova è su di te per sostenere che ci sono ragioni positive per pensare che ciò che stai suggerendo possa essere vero, non per il resto di noi per dimostrare che non è . Spostare l'onere della prova è il trucco più antico nella cassetta degli attrezzi retorica, e non uno che un filosofo che si rispetti dovrebbe schierare di fronte ai suoi pari (o in qualsiasi altro luogo, peraltro).

In terzo luogo, si noti la dichiarazione di non responsabilità genetica che nessuna delle premesse, così come la conclusione, in realtà non valgono se un "disertore" si mette in mezzo. Quando gli è stato chiesto durante il Q & A cosa intendesse per disertori, Chalmers ha praticamente detto tutto ciò che gli umani o la natura potrebbero lanciare allo sviluppo dell'intelligenza artificiale. Ma se questo è il caso, e se non ci viene fornita una classificazione e un'analisi di tali disertori, allora l'intero argomento equivale a "X è vero (a meno che qualcosa dimostri che X non è vero)". Non così impressionante.

L'altro elefante nella stanza, ovviamente, è il concetto stesso di "intelligenza", artificiale o umano. Questo è un concetto notoriamente difficile da decomprimere, e ancor più da misurare quantitativamente (che sarebbe necessario per dire la differenza tra AI e AI + o AI ++). Diverse persone hanno notato questo problema, incluso me stesso nel Q & A, ma Chalmers lo ha spazzato via cavillosamente dicendo che la sua argomentazione non dipende dall'intelligenza umana, dal potere computazionale o dall'intelligenza in un senso più ampio, ma solo da una quantità non specificata "G" che si associò rapidamente a un insieme non specificato di capacità cognitive attraverso una funzione di mappatura matematica altrettanto non specificata (aggiungendo che "sarebbe necessario lavorare di più" per dare corpo a tale nozione – non scherzo). Veramente? Ma aspetta un attimo, se avessimo iniziato tutta questa discussione sulla Singolarità usando un argomento basato sull'estrapolazione del potere computazionale, la nostra discussione non dovrebbe essere limitata al potere computazionale? (Che, inutile dirlo, non è affatto uguale all'intelligenza.) E se parliamo di intelligenza artificiale, cosa diavolo sta l '"io" lì dentro, se non l'intelligenza – presumibilmente di tipo umano?

In effetti, il problema dello sforzo dell'IA in generale è che abbiamo pochi progressi da mostrare dopo decenni di tentativi, probabilmente per il buon motivo che l'intelligenza umana non è algoritmica, almeno non nello stesso senso in cui sono i programmi per computer. Non sto certo invocando il misticismo o il dualismo qui, penso che l'intelligenza (e la coscienza) siano il risultato dell'attività di un substrato fisico del cervello, ma il fatto stesso che possiamo costruire macchine con un grado di potenza e velocità di calcolo che supera quelli della mente umana, e tuttavia non è affatto "intelligente", dovrebbe chiarire che il problema non è il calcolo della potenza o della velocità.

Dopo il dispiegamento del suddetto "argomento" altamente discutibile, le cose sono diventate bizzarre nel discorso di Chalmers. Ha rapidamente proceduto a dirci che A ++ avverrà tramite un'evoluzione simulata in un ambiente virtuale, rendendo così un mix sfocato e confuso di diverse nozioni come selezione naturale, selezione artificiale, evoluzione fisica ed evoluzione virtuale.

Il che ha sollevato naturalmente la domanda su come controlliamo la Singolarità e impediamo a "loro" di spingerci all'estinzione. La soluzione preferita da Chalmers è quella di impedire la "perdita" di AI ++ nel nostro mondo, o di selezionare i valori morali durante il processo (virtuale) evolutivo. Sciocco me, ho pensato che il modo più semplice per fermare la minaccia di AI ++ sarebbe semplicemente quello di staccare la spina dalle macchine che gestiscono il presunto mondo virtuale e farle finita. (Per inciso, cosa significa per l'esistenza di un'intelligenza virtuale? Come si "diffonde" nel nostro mondo? Come un ologramma Star Trek impazzito?)

Poi il livello di assurdità infondata si è intensificato ancora più velocemente: forse siamo di fatto un esempio di intelligenza virtuale, ha detto Chalmers, e il nostro Creatore potrebbe prepararsi a rifiutarci perché potremmo essere in perdita nel suo mondo . Ma se no, allora potremmo pensare a come integrarci in AI ++, che naturalmente potrebbe essere fatto "caricando" la nostra struttura neurale (la raccomandazione di Chalmers è un neurone alla volta) nell'intelligenza virtuale – ancora, qualunque cosa potrebbe significare.

Alla fine, Chalmers – evidentemente turbato dalla sua stessa mortalità (beh, chi non lo è?) – ha espresso la speranza che A ++ abbia la tecnologia (e presumo) di decodificare il suo cervello, forse da una serie di scansioni, libri e video di lui, e riportarlo in vita. Vedi, non pensa che vivrà abbastanza a lungo da vedere realmente accadere la Singolarità. E questa è l'unica parte del discorso su cui siamo d'accordo.

La ragione per cui sono andato avanti così a lungo sulle pessime prestazioni di Chalmers è perché questo è esattamente il genere di cosa che dà alla filosofia un brutto nome. È bello vedere i filosofi prendere un serio interesse per la scienza e portare gli strumenti e le prospettive della loro disciplina al tavolo di importanti dibattiti sociali sul futuro della tecnologia. Ma il tentativo diventa uno scherzo non particolarmente divertente quando un noto filosofo inizia a schierare una discussione davvero brutta e finisce per sembrare più cuckoo dei fan di trekkie alla loro convention annuale. Ora, se mi vuoi scusare, tornerò al prossimo episodio di Battlestar Galactica, in cui puoi trovare tutte le idee di base discusse da Chalmers presentate in un modo immensamente più divertente del suo discorso.