Nella serie televisiva cult degli anni '90, il Mystery Science Theatre 3000 , siamo trattati con due alieni e un tizio che si fa strada attraverso terribili vecchi film di serie B come Project Moonbase . Ad esempio, nel loro episodio che guarda il film del 1963, The Slime People: Up from the Bowels of the Earth, il personaggio principale chiama l'operatore al telefono in un aeroporto di Los Angeles deserto, e uno dei robot improvvisa, "Ciao. Questa è la razza umana. Non siamo in questo momento. Per favore parla chiaramente dopo il suono della bomba. "
Il Mystery Science Theatre 3000 non è più disponibile, ma se ti diverti a prendere in giro storie di fantascienza apocalittiche, riceverai qualcosa di più che a guardare le reazioni e ti farai pressioni sui proclami futuristici di Ray Kurzweil alla sua Earthbase Singularity University. Il più famoso annuncio di Kurzweil è che ci stiamo avvicinando rapidamente alla "singolarità", il momento in cui l'intelligenza artificiale supera l'intelligenza umana (o qualche tempo dopo). Dopo il suono di questa bomba, l'intelligenza artificiale creerà intelligenza artificiale sempre migliore, e tutti i tipi di adattamento colpiranno lo shan.
Non c'è carenza di scetticismo riguardo alla singolarità, quindi per scommettere sul mio terreno e rischiare di essere la prima batteria umana installata dopo la singolarità, ti dirò perché non c'è nessuna singolarità in arrivo. Non entro il 2028, non entro il 2045, non in qualsiasi momento nei prossimi 500 anni – molto dopo che sarò usato come batteria, o anche compost, per i nostri futuri maestri.
Cosa c'è che non va nell'idea di un'imminente singolarità? Le capacità computazionali non crescono esponenzialmente?
Sì. E saremo, in effetti, in grado di creare un'intelligenza artificiale sempre crescente.
Il problema è: quale intelligenza artificiale più intelligente dovremmo costruire?
Nell'evoluzione spesso cadiamo nella trappola di immaginare una scala lineare di animali – dai batteri agli umani – quando in realtà è un albero. E in AI possiamo cadere in una trappola simile. Ma non esiste una catena lineare di IA sempre più intelligenti. Invece, esiste una rete altamente complessa e ramificata di possibili AI. Per qualsiasi intelligenza artificiale ci sono molti altri che non sono né più né meno intelligenti – sono solo in modo diverso intelligente. E così, con l'avanzare dell'IA, può farlo in molti modi, e le nuove intelligenze saranno spesso assolutamente ineguagliabili l'una con l'altra. … e rigorosamente incomparabile per l'intelligenza umana. Non più intelligente degli umani e non meno. Proprio alieno.
Queste intelligenze artificiali aliene possono occasionalmente essere pulite, ma per la maggior parte noi esseri umani non ne faremo un grido. Siamo biologicamente incapaci (o per lo meno handicappati) di apprezzare l'intelligenza aliena e, se fossimo costruiti, sorrideremo educatamente e continueremo a ignorarlo. E anche se una buona parte del nostro disprezzo verso queste IA aliene sarebbe dovuta al nostro pregiudizio e al provincialismo terreno, ci sono anche buone ragioni per aspettarsi che l'IA aliena sia senza valore. Siamo interessati all'IA che fa ciò che facciamo, ma lo fa molto meglio. L'intelligenza aliena tenderà a fare qualcosa di sorprendente, ma non quello che facciamo.
Ecco perché la maggior parte dei ricercatori di IA puntano a intelligenze artificiali approssimativamente "simili ai mammiferi", intelligenze artificiali sufficientemente simili all'intelligenza umana che possiamo fare un confronto. "Ah, questa intelligenza artificiale è chiaramente meno intelligente di un umano, ma più intelligente di un cane. E quell'intelligenza artificiale è così intelligente che mi sento a disagio nel darmi il brasiliano. "I ricercatori di IA mirano a costruire intelligenze non strane, ma intelligenze terrestri di tipo mammale, con meccanismi cognitivi e percettivi che possiamo apprezzare. L'intelligenza artificiale super-intelligente non equivale a una singolarità a meno che non sia super-intelligente e approssimativamente simile ai mammiferi.
Ma per costruire un'intelligenza artificiale simile ai mammiferi dobbiamo capire i cervelli dei mammiferi, incluso il nostro. In particolare, dobbiamo decodificare il cervello, cioè determinare cosa fa , le sue funzioni . Senza il primo reverse engineering, i ricercatori di IA sono nella posizione di un ingegnere che ha chiesto di costruire un dispositivo, ma non hanno dato alcuna informazione su cosa dovrebbe fare.
L'ingegneria inversa è, infatti, parte integrante del prossimo futuro di Kurzweil: il cervello sarà decodificato in un paio di decenni, crede. Essendo io stesso un ingegnere elettronico neurobiologico, sono incoraggiato solo quando trovo i ricercatori – sia alla base lunare che nelle viscere della Terra – prendendo sul serio il disegno adattivo del cervello, qualcosa spesso ignorato o attivamente disapprovato all'interno delle neuroscienze. Si riscontra un simile riconoscimento di prima linea del reverse engineering nel cervello del gatto di IBM e nei progetti del cervello blu europeo.
E c'è il tuo problema per l'intervallo di tempo di diversi decenni per la singolarità! Ingegneria inversa: qualcosa di astronomicamente complesso come il cervello è, beh, astronomicamente difficile – forse il compito più difficile dell'universo. I progressi nella comprensione delle funzioni svolte dal cervello non sono qualcosa che viene semplicemente con più potere computazionale. In effetti, determinare la funzione svolta da qualche macchina (che sia un cervello o un programma per computer) non è in genere calcolabile (è uno di quei risultati di indecidibilità del 20 ° secolo).
Capire cosa un meccanismo biologico richiede più che mettere le mani sulla carne. Devi anche comprendere il comportamento dell'animale e l'ecologia in cui si è evoluto. I meccanismi biologici progettati dall'evoluzione per fare una cosa in circostanze naturali possono spesso fare un sacco di altre cose insensate in circostanze non naturali, ma solo le prime sono rilevanti per capire a cosa servono i meccanismi.
Dare un senso al cervello richiede la comprensione della "natura" in cui l'animale si trova all'interno. E così i progressi nell'IA richiedono qualcuno alquanto diverso dal tuo tradizionale ricercatore di intelligenza artificiale che è intriso di algoritmi, logica, reti neurali e spesso linguistica. I ricercatori dell'IA hanno bisogno di quel tipo di background computazionale, ma devono anche possedere le prospettive degli etologi dell'antichità, come Nikolaas Tinbergen e Konrad Lorenz.
Ma caratterizzare il comportamento e l'ecologia degli animali complessi deve essere fatto alla vecchia maniera: l'osservazione sul campo, e poi testare ipotesi creative sulla funzione biologica. Non ci sono scorciatoie per decodificare il cervello – non ci sarà fantasia per la futura macchina per scrutare all'interno dei meccanismi biologici e per discernere a cosa servono.
Il reverse engineering andrà avanti, e la crescita esponenziale della tecnologia sarà sicuramente di aiuto nel compito, ma non porterà ad una crescita esponenziale della velocità con cui invertiamo il cervello. Il 2025 e il 2045 – e sospetto 3000 – passeranno, e la maggior parte di ciò che farà il nostro cervello sarà ancora vago e misterioso.
Mark Changizi è professore di Human Cognition presso 2AI, e l'autore di The Vision Revolution (Benbella Books) e il libro imminente Harnessed: Come lingua e musica Mimicked Nature e Transformed Ape to Man (Libri di Benbella).