La vita emotiva delle macchine intelligenti

Quale singola domanda viene posta più frequentemente su Emotion AI?

Richard Yonck/Shutterstock

Fonte: Richard Yonck / Shutterstock

È passato poco più di un anno dalla pubblicazione del mio libro, Heart of the Machine , un esame approfondito delle potenziali ripercussioni tecniche e sociali del computing affettivo, una branca dell’informatica incentrata su sistemi in grado di leggere, interpretare, replicare e altrimenti interagire con le nostre emozioni. In quel periodo, ho avuto l’opportunità di parlare di questa entusiasmante tecnologia emergente a festival, letture pubbliche, conferenze, gruppi di riflessione e, naturalmente, nelle librerie. In tutta questa interazione con i lettori e il pubblico, c’è stata una domanda che è stata di gran lunga la più frequente: “Questo significa che questi dispositivi, computer o robot possono provare emozioni come facciamo noi?”

Anche se questo è esplicitamente affrontato nel libro, rispondo sempre con un inequivocabile, “No, non è così”. Se c’è tempo, spiegherò anche che mentre queste macchine e programmi possono alla fine sperimentare qualcosa di simile alle emozioni umane un giorno in futuro, questo non sarà lo stesso come lo è per le persone per diversi motivi molto importanti. Tuttavia, trovo interessante e anche un tantino illuminante della psiche umana che questa sia la prima domanda sulle labbra di tante persone.

È che siamo preoccupati di mantenere la nostra unicità come esseri emotivamente intelligenti? Siamo preoccupati del fatto che la natura “irrazionale” delle emozioni possa portare ad avere delle IA selvagge? Temiamo l’idea che le macchine potrebbero un giorno interagire con noi ai livelli più personali? O forse è il contrario? È possibile, anche probabile, che molti di noi vogliano davvero vedere lo sviluppo di macchine emozionali? Alcuni di noi lo desiderano segretamente, cercando una connessione che molte persone sentono mancano attualmente nelle loro vite?

Vale la pena esplorarlo un po ‘più da vicino. Prima di tutto, la ricerca sull’IA ha da tempo avuto l’obiettivo di raggiungere qualcosa di equivalente all’intelligenza umana – ciò che viene spesso chiamato intelligenza artificiale forte o intelligenza artificiale generale (AGI, in breve). Ma fino ad oggi la stragrande maggioranza dei successi si è verificata in applicazioni molto più limitate, solitamente definite IA ristretta. Comandi vocali, riconoscimento facciale, gioco degli scacchi, poker, persino veicoli autonomi – queste sono tutte applicazioni focalizzate dell’intelligenza artificiale. C’è poco senso comune o conoscenza generale, anche all’interno di un programma tanto capace quanto la versione di Watson che ha battuto Jennings e Rutter, i campioni umani di tutti i tempi del gioco, Jeopardy . Tutti questi programmi sono limitati all’esecuzione in un dominio molto specifico e dovrebbero essere applicati oltre i confini di quel dominio, si rompono o falliscono. Questo è ciò che è noto nella programmazione dei computer come fragilità del software .

Curiosamente, la ricerca ha dimostrato che gran parte dell’intelletto umano deve la sua flessibilità di pensiero e capacità di prendere decisioni sul fatto che siamo esseri emotivi. La nostra abilità nel determinare dove concentrare la nostra attenzione a breve e lungo termine, la nostra capacità di cogliere attraverso un eccesso di dettagli e dati, la nostra capacità di adattarci al mutare delle circostanze al volo, è guidata e moderata dai valori le emozioni si collocano in quel momento e situazione.

La serie HBO, Westworld è un grande esempio di questo. Anche se lo show è fiction, fa un ottimo lavoro di evidenziare l’importanza dell’emozione nell’intelligenza dei suoi host Android. È solo dopo che vengono introdotte connessioni emotive che questi ospiti diventano indistinguibili dagli ospiti umani, sviluppando la coscienza e una feroce volontà di vivere. Assenti alle nostre emozioni, saremmo molto simili a quei padroni di casa, veri automi, molto più fragili nelle nostre azioni quotidiane e nel prendere decisioni di quanto non lo siamo realmente. Certamente, senza le nostre emozioni, è anche altamente improbabile che saremmo sopravvissuti così a lungo come una specie.

Quindi, dato tutto questo, è possibile che l’instillazione dell’equivalente delle emozioni nelle IA possa aiutare ad affrontare parte della fragilità precedentemente discussa? Forse, anche se questo è un grande passo in avanti, così come un’idea stimolante da provare senza realmente implementarla e testarla. Ma fa emergere un’altra considerazione molto importante: come implementeremmo tale strategia? Per tutta la sorprendente velocità e capacità dell’intelligenza della macchina, dopo tutto è costruita su un substrato completamente diverso dall’intelligenza umana. Ciò significa che tu ed io abbiamo origine da una base biologica a partire da aminoacidi che portano a proteine, cellule, organi, sistemi e infine un centro di comando cognitivo derivato in modo simile noto come il cervello, con tutti i suoi neuroni, dendriti, assoni, gangli e centinaia di cellule correlate, corteccia e processi. D’altra parte, i computer e le IA iniziano da silicio “drogato” o da altri materiali semiconduttori. Questi sono organizzati in modo incrementale in transistor e altri elementi che a loro volta diventano circuiti, registri, bus, memoria e processori gestiti da routine software, moduli, API e interfacce utente. Tali macchine scuotono e manipolano bit in contrasto con l’uso del nostro corpo di molecole, ormoni, neuropeptidi e potenziali elettrici. Quindi, mentre possiamo sforzarci di emulare i processi biologici con il silicio, è improbabile che riusciremo a farlo in qualsiasi modo diretto. Così com’è, la maggior parte dei nostri precedenti successi nell’IA è dipesa dal riconoscere questa limitazione. In quasi tutti questi casi, abbiamo adattato la nostra ingegneria per realizzare compiti attraverso metodi più appropriati agli strumenti e ai materiali disponibili.

Ciò non significa che il disegno ispiratore della natura, la cosiddetta biomimetica, non possa essere utile. Ma questo approccio ha i suoi limiti, in particolare quando applicato a diversi substrati. Ad esempio, mentre i primi disegni di aeroplani si ispiravano agli uccelli, se i fratelli Wright insistessero nel mimare fedelmente il volo aviario, non sarebbero mai decollati. Invece hanno lavorato con i materiali a loro disposizione in quel momento per manipolare forze più generali, come sollevare, trascinare e spingere, per riuscire a farli volare nell’aria.

Tali differenze limitano ciò che possiamo fare per emulare le emozioni in un substrato non biologico. Forse la cosa più importante, mentre ci sono componenti cognitivi significativi che si integrano con la nostra esperienza di emozioni, questi provengono principalmente dal sistema endocrino del nostro corpo, il sistema di messaggeri chimici che dirige tanto comportamento animale. Ovviamente, i computer non hanno corpi e robot non hanno ormoni che si attivano in risposta alle condizioni ambientali e situazionali. I sistemi basati su regole possono e sono stati costruiti per emulare questa caratteristica della biologia, ma ancora una volta sono molto più fragili dei sistemi di messaggistica biologica attuali.

Questo non vuol dire che il compito sia impossibile. Forse certi tipi di reti neurali, come le reti generative avversarie (GAN), potrebbero un giorno essere addestrate a imitare i trigger e i comportamenti di un sistema endocrino? Non lo so con certezza, anche se sospetto che in tempo qualcosa del genere possa essere fattibile. Tuttavia, questi sarebbero ancora molto diversi dai messaggeri chimici su cui gli umani fanno affidamento e quindi sarebbero solo approssimazioni su come le nostre menti e i nostri corpi rispondono alle condizioni esterne ed interne.

Ci sono molte altre ragioni, l’intelligenza artificiale non sarà mai uguale all’intelligenza umana, anche se alla fine raggiungerà i livelli umani o addirittura la supererà. Nel frattempo, ci sono ancora ostacoli considerevoli da superare prima che arrivi quel giorno, forse verso la metà di questo secolo. (Questo è il consenso medio di diversi sondaggi di ricercatori di IA, anche se puoi trovare opinioni che vanno da cinque anni nel futuro a mai.)

Saranno necessarie nuove emozioni per ottenere l’intelligenza artificiale oltre un certo livello limitato di intelligenza generale? Credo che sia probabile, anche se ci sono molte altre sfide che dovranno essere superate. Ma forse, ancora più importante, la modellizzazione di un aspetto dell’intelligenza artificiale su sistemi emotivi umani-centrici potrebbe alla fine consentire a questi sistemi di condividere valori simili ai nostri. A parte le varie preoccupazioni sulle intelligenze superintelligenti ostili o indifferenti, questo è estremamente importante perché svilupperemo queste macchine per controllare i sistemi sempre più complessi nel nostro mondo che avanza rapidamente. Questa strategia sarebbe molto nel nostro interesse. Con frequenza crescente, non ci sarà tempo per l’intervento umano quando la nostra infrastruttura industriale ed elettronica sarà minacciata in futuro. Per questo motivo, saremo costretti a trasformare sempre più controllo sulle nostre macchine per mantenere il passo e dobbiamo essere in grado di fidarci di loro. Dobbiamo fare ben altro che sperare che un sistema che prende le decisioni al volo sia in linea con le nostre priorità, indipendentemente dal fatto che quel sistema stia pilotando un aereo passeggeri o operando una raffineria chimica altamente tossica.

Quindi, per ribadire: No, le macchine non sperimenteranno emozioni come facciamo noi, non per molto tempo, se mai. Ma nel breve periodo, potremmo scoprire che ci sono notevoli benefici nello sviluppo di metodi per emulare le emozioni umane nelle IA, portando a macchine intelligenti che possono provare, almeno un po ‘come facciamo noi. E chi lo sa? Se lo facciamo abbastanza bene, forse tra un decennio o due, alcuni di loro potrebbero addirittura essere i nostri nuovi migliori amici.

Riferimenti

Bostrom, N. Superintelligence. Percorsi, Pericoli, Strategie . La stampa dell’università di Oxford. Il 2014.

Damasio, A. Descartes ‘Error: Emotion, Reason, and Human Brain , Putnam. 1994.

Yonck, R. Cuore della macchina: il nostro futuro in un mondo di intelligenza emotiva artificiale. Arcade Publishing, NY. 2017.

Yonck, R. ” Toward a Standard Metric of Machine Intelligence”; World Future Review . 4: 61-70. Maggio 2012.