Un recente parafango in cui una Google Self-Driving Car è stata colpita da un autobus mentre tentava di fondersi di fronte ad essa, ha gettato un'ombra sul settore automobilistico autonomo. Come esempio della demoralizzazione provocata dall'incidente, un dirigente di Google ha affermato che potrebbero essere necessari tre decenni per risolvere il problema scoperto da questo arretramento. Il problema è che il computer dell'auto aveva previsto che l'autobus si sarebbe fermato per lasciar passare l'auto della fusione, ma l'autista non si è comportato come previsto. Google si è assunto la responsabilità dell'incidente, dichiarando anche che il conducente umano ha contribuito all'incidente (le mie parole) a essere scortese. (Per un resoconto dell'incidente di Google e delle sue conseguenze, vedi questo link: theverge.com).
Di recente, discutendo di questa storia con un appassionato di auto che guida da solo, ha affermato che il vero problema è la reazione pubblica. Ha sottolineato il fatto che i parafanghi nelle macchine azionate dall'uomo si verificano molto frequentemente, senza innescare molta preoccupazione, e che l'obiettivo di un'auto completamente autonoma è più vicino alla realtà di quanto la maggior parte delle persone capisca. Il problema di PR è ovviamente un problema, anche se lo vedo strettamente legato alla chimera di raggiungere la perfezione nella ricerca di evitamento degli incidenti. In un recente sondaggio AAA, il 75% dei conducenti ha dichiarato di essere estremamente riluttante a consegnare il controllo completo della propria guida alla propria auto. Probabilmente il numero di scettici diminuirà in modo sostanziale se si dimostrasse che le auto a guida autonoma sono assolutamente sicure. A mio avviso, alcuni incidenti mortali o quasi fatali potrebbero portare a mettere a rischio l'iniziativa dell'auto a guida automatica per molto tempo, forse per sempre. Qualcun altro oltre a un visionario del software crede davvero che una tale perfezione di sicurezza sia sempre raggiungibile, o che l'accettazione pubblica diffusa in assenza di quasi perfezione, sia mai probabile? A rischio di mettermi nella stessa categoria degli scettici che ridevano della dimostrazione di etere o di un numero qualsiasi di altre innovazioni, la mia risposta agli imprenditori autonomi alla guida è "onirica".
Quelli che credono che le auto a guida automatica siano vicine a un punto in realtà per la vettura completamente elettrica del modello Tesla-S, che ha una modalità auto-pilotante ("pilota automatico") che un guidatore può attivare. Secondo il mio amico. oggi si può guidare per centinaia di miglia sull'interstatale in una Tesla che si guida da soli, mentre si fa distraendo cose come leggere un giornale. Trovando che sorprendente, ho verificato l'affermazione e l'ho trovato un po 'esagerato. Secondo il fondatore e CEO di Tesla Elon Musk, l'opzione di auto-guida (che ha descritto come una versione Beta imperfetta) deve sempre essere usata con le mani sul volante, il che escluderebbe sicuramente la lettura di un giornale. Il muschio ha riconosciuto recentemente un paio di incidenti quasi catastrofici, ma ha incolpato quello su driver che hanno ignorato questo avvertimento, togliendo le mani dal volante. Questi incidenti riguardavano principalmente quelli che potrebbero essere definiti errori non sociali (ovvero, la lettura del terreno), ma quasi ogni decisione di guida, specialmente quando altre macchine fanno parte del terreno, richiede all'operatore un giudizio sociale, sia che l'operatore sia un umano o un computer. (Per un account di alcuni Tesla-S near misses, vedere technologyreview.com).
Il supporto per l'affermazione secondo cui oggi è possibile guidare centinaia di miglia con il pilota automatico Tesla può essere trovato in un viaggio campestre ben pubblicizzato preso in una Tesla-S che ha fatto il viaggio in tempi record. Ciò che non può essere generalmente noto, tuttavia, è che ci sono stati tre incidenti durante il viaggio, in cui un grave incidente è stato evitato in modo stretto. In uno di questi incidenti, l'auto entrò in una curva a 90 miglia all'ora (ben al di sopra del limite di velocità) e l'auto avrebbe perso il controllo se l'umano non avesse rapidamente preso il sopravvento. Il problema sembrava essere che l'algoritmo del computer della macchina richiedesse che seguisse il segnaposto o il segnale della linea centrale ad una distanza standard, ma i piloti esperti sanno che bisogna correggere per l'alta velocità (oltre al rallentamento) prendendo una curva più vicina di al solito all'apice della strada, al fine di ridurre il grado di rotazione della ruota necessario per negoziare la curva in modo sicuro. La conclusione qui sembra essere che l'auto non può ancora funzionare in modo autonomo ad alta velocità. Un altro incidente vicino si è verificato quando l'auto è stata confusa dall'azione di un'altra auto e ha attraversato la linea mediana della strada, guidando la Tesla-S nel traffico in arrivo e quella che potrebbe essere stata una fatale collisione frontale.
È interessante notare che, mentre Google in parte ha incolpato il conducente dell'autobus per il suo incidente, Tesla ha completamente incolpato i propri clienti di tali incidenti, avvisando i proprietari che in caso di incidente mentre era in modalità pilota automatico, la responsabilità finanziaria sarebbe interamente a carico del conducente. A cui dico "tanta fortuna, Elon, che lo dico a un giudice quando un cliente gravemente ferito o la famiglia del proprietario morto ti fa causa". In effetti, alcuni commentatori hanno incaricato Tesla di svolgere compiti etici e legali per rendere disponibile un autopilota imperfetto dispositivo quando è prevedibile che molti proprietari assumeranno erroneamente che si tratta di un veicolo completamente operativo e quindi completamente sicuro e autonomo. Le motivazioni di Tesla per l'immissione in produzione di un prodotto chiaramente non sviluppato? Molto probabilmente l'ego (che sostiene l'affermazione di Musk di essere davanti a Google e ad altri concorrenti nella corsa AI) e, ovviamente, monetario (convincere la gente ad acquistare i prodotti piuttosto costosi della compagnia).
Mentre sembra che le situazioni non sociali (come le linee centrali ambigue, confuse o mal progettate o le rampe di accesso) restino un punto fermo per l'industria automobilistica che si guida da soli, credo che il principale ostacolo al loro successo finale sia nel dominio sociale. Come illustrato dall'incidente dell'autobus, le decisioni di un'automobile che si guidano da sole si basano in parte sulle previsioni su quale potrebbe essere l'autista di un'altra auto, ma se sappiamo qualcosa sul comportamento umano non è del tutto prevedibile, razionale o cortese (a prova di questo, basta guardare ai recenti sviluppi politici in Medio Oriente o, per quella materia, negli Stati Uniti). Inoltre, i conducenti che condividono la strada con un veicolo autonomo possono avere problemi di vista, essere in uno stato alterato, disattento o agitato, o mancare di competenza di guida, ognuno dei quali può indurli a compiere improvvisi movimenti pericolosi che nessun computer tranne forse il più grande del mondo il super-computer sarà mai in grado di adattarsi abbastanza rapidamente. Il fatto è che un guidatore esperto e competente sta sempre "leggendo" il comportamento e le intenzioni degli altri guidatori, e sta facendo delle risposte in secondi, basate non sulle probabilità ma su inferenze e percezioni in tempo reale.
L'illustrazione per la base del giudizio sociale per molti incidenti può essere trovata nell'esperienza di principianti guidatori adolescenti, i cui genitori pagano premi assicurativi molto alti per un motivo. La mia signora taglia capelli mi ha recentemente raccontato la storia di suo figlio di 18 anni, che ha avuto due (fortunatamente) incidenti minori nei primi cinque giorni dopo aver ottenuto la sua licenza. Nessuno di loro era tecnicamente la sua colpa, ma resta il fatto che non sarebbe probabilmente successo se fosse stato un anno o due più vecchio. In uno degli incidenti, il giovane stava guidando quando una macchina entrò in strada da un vialetto sulla destra e scavò nella porta laterale del guidatore del neofita. La spiegazione del giovane è che si stava concentrando sulla strada da percorrere e non considerava la possibilità che accadesse una cosa del genere. Quasi certamente, c'erano segnali sottili, come l'altra macchina che si avvicinava alla strada e sembrava che potesse uscire. È anche probabile che lui stesso abbia contribuito inconsciamente al problema, ad esempio sembrando di segnalare che l'altra macchina potrebbe procedere. Un conducente esperto e attento è in sintonia con tali sottili segnali (essenzialmente sociali) ed è consapevole della necessità di impegnarsi in un flusso continuo di calcoli di valutazione del rischio. Un pilota inesperto, come questo giovanotto, è profondamente egocentrico, poiché considera solo il proprio punto di vista durante la guida e anche quando fa molto altro. A mio parere, non è chiaro per me come una macchina guidata da un computer sarebbe meglio di un guidatore neofita leggendo ed emettendo tali sottili indizi sociali.
Gli ingegneri del software sono bravi a risolvere i problemi fisici, ma non hanno ancora risolto o prestato molta attenzione ai problemi di giudizio sociale. La consapevolezza di questa realtà mi è venuta pochi anni fa in occasione di una conferenza annuale in Colorado che affronta l'applicazione della tecnologia alle persone con disabilità cognitive. Tutte le presentazioni erudite hanno riguardato l'applicazione di software e hardware a problemi fisici, come problemi di mobilità. Quando è arrivato il mio turno, ho parlato di un film che il pubblico aveva appena visto di un uomo con disabilità intellettiva, sostenuto dai suoi gentili vicini, che gli hanno permesso di continuare a vivere nel loro condominio di New York. Ognuna delle sfide che ha messo in pericolo il suo continuare a vivere nell'edificio è stata sociale, come la sua estrema ingenuità (il mio interesse speciale) che si riflette in cose come il prestito della chiave al suo appartamento a gente di strada (che terrorizzava i vicini, rubava cose e danneggiato l'edificio in vari modi). Quando ho sfidato le autorità informatiche (alcune leggendarie) che erano state riunite alla conferenza per dire in che modo la tecnologia potesse risolvere tali atteggiamenti di giudizio sociale (e la solitudine), la risposta era di silenzio.
Il movimento di auto-guida è interessante non solo come un fenomeno automobilistico, ma come un'illustrazione degli sviluppi nel campo dell'intelligenza artificiale (AI). Google è un esempio di un'azienda estremamente ottimista riguardo alla capacità dei suoi scienziati informatici, che utilizzano sempre maggiori progressi nella miniaturizzazione dei chip, per migliorare il funzionamento umano attraverso l'intelligenza artificiale. Forse il principale esempio di tale atteggiamento è Raymond Kurzweil, geniale inventore di molti dispositivi informatici (e qualcuno considerato un moderno Thomas Edison), che ora lavora a tempo pieno come futurologo residente di Google. Kurzweil ha scritto diversi libri e dato molti discorsi che esaltano la sua visione ottimistica del futuro del "transumanesimo" (l'uso di tecnologie sempre più sofisticate per migliorare l'intelligenza umana) e "singolarità" (l'uso della tecnologia per cambiare la biologia umana, come ad esempio curando malattia e prolungando la durata della vita umana). Il punto centrale di questi concetti è la credenza un po 'controverso di Kurzweil secondo cui l'essenza dell'intelligence è il riconoscimento del modello (qualcosa di positivo per i computer) e che gli scienziati informatici saranno quindi in grado di costruire una versione migliorata del cervello umano. Una guida automobilistica competente, che dipende in gran parte dal riconoscimento dei modelli, sembrerebbe quindi un'evidente estensione del concetto di intelligenza artificiale. Un problema con grandi geni (come Kurzweil) e grandi aziende (come Google) è che spesso hanno difficoltà a sapere quando hanno affrontato un "problema troppo lontano". La mia convinzione è quella di creare un'auto auto-guida capace di riconoscendo e rispondendo con successo alle centinaia di giudizi sociali e fisici, le sfide implicate nell'ottenere sicurezza dal punto A al punto B si rivelerà un problema che non può essere risolto nella vita di Kurzweil, anche se riesce a modificare la sua biochimica (prende 150 [giù da un massimo di 200] pillole al giorno) e vive per altri cento anni.
Copyright Stephen Greenspan