Il tallone d’Achille di AI Computer Vision

Il problema vincolante dell’IA e delle neuroscienze.

pixabay

Fonte: pixabay

Viaggeresti in un veicolo autonomo se sapessi che è stato soggetto a problemi visivi? Che ne dici di subire un trattamento del cancro basato sull’interpretazione computerizzata di immagini radiologiche come una radiografia, un’ecografia, una tomografia computerizzata, una PET o una risonanza magnetica, sapendo che la visione artificiale potrebbe facilmente essere ingannata? La visione artificiale ha un problema: richiede solo leggere modifiche nell’input dei dati per ingannare gli algoritmi di apprendimento automatico nel “vedere” le cose sbagliate.

I recenti progressi nella visione artificiale sono in gran parte dovuti al miglioramento delle capacità di riconoscimento del modello attraverso l’apprendimento profondo, un tipo di apprendimento basato sulla macchina. L’apprendimento automatico è un sottoinsieme dell’intelligenza artificiale in cui un computer è in grado di apprendere concetti dall’elaborazione dei dati di input sia attraverso l’apprendimento supervisionato in cui i dati di addestramento sono etichettati, o meno come nell’apprendimento non supervisionato o una combinazione senza programmazione esplicita. La profondità dell’apprendimento profondo si riferisce al numero di strati di elaborazione neurali artificiali nella sua rete neurale.

Un team di ricercatori di intelligenza artificiale (IA) con Kevin Eykholt, Ivan Evtimov e altri ricercatori dell’Università della California di Berkeley, dell’Università del Michigan, della Stony Brook University e dell’Università di Washington hanno scoperto che sono necessari solo lievi cambiamenti firmare usando adesivi in ​​bianco e nero significa causare reti neurali profonde (DNN) allo stato dell’arte per classificare erroneamente le immagini. Il team ha pubblicato i risultati in aprile 2018 su arXiv .

Uno degli attuali inconvenienti dell’apprendimento approfondito è la grande quantità di dati richiesti per il computer per la formazione. In netto contrasto, una volta che un bambino impara cos’è un uccello, lei o lui possono facilmente identificare un animale come un uccello senza dover imparare tutte le diverse specie di uccelli esistenti.

Varie regioni del cervello elaborano diversi tipi di input. Ad esempio, il lobo parietale è l’area del cervello in cui vengono elaborati input sensoriali per il tatto, la temperatura e il dolore. Il lobo occipitale interpreta la visione. Il lobo temporale svolge un ruolo nell’udire. Date le diverse regioni del cervello che elaborano input sensoriali in aree diverse, in che modo forma un’esperienza unificata? Questo descrive il problema di associazione.

Ad esempio, quando un aereo jet in alto nel cielo passa sopra la testa, il cervello sa che il suono in picchiata corrisponde ad esso. Il cervello riconosce che le ali, le code, la fusoliera e la scia di condensazione bianca appartengono al getto e non al cielo circostante, al sole o alle nuvole di sfondo. In qualche modo, il cervello umano è in grado di assorbire vari dati di input sensoriali come la vista, il suono, il gusto, l’olfatto e il tatto, e di comporre un’esperienza coesa. Tuttavia è un mistero per gli scienziati esattamente come fa il cervello.

Il professore di matematica e neuroscienze britannico Simon Stringer della Oxford Foundation for Theorectical Neuroscience and Artificial Intelligence sta attualmente ricercando neuroni nel cervello che agiscono da “neuroni leganti” e ha ambizioni di conferire “intelligenza simile a un ratto su una macchina entro 20 anni”.

Per ora, la soluzione alternativa per i ricercatori di intelligenza artificiale è mirare a ottenere una buona prestazione in media quando si tratta di interpretare correttamente le immagini visive.

“L’occhio vede solo ciò che la mente è pronta a comprendere”. – Robertson Davies

Copyright © 2019 Cami Rosso Tutti i diritti riservati.

Riferimenti

National Geographic. “Cervello”. Estratto il 16-16-2019 da https://www.nationalgeographic.com/science/health-and-human-body/human-body/brain/

Eykholt, Kevin, Evtimov, Ivan, Fernandes, Earlence, Li, Bo, Rahmati, Amir, Xiao, Chaowei, Prakash, Atul, Kohno, Tadayoshi, Song, Dawn. “Attacchi robusti del mondo fisico sulla classificazione visiva di Deep Learning.” ArXiv : 1707.08945v5. 10 aprile 2018.

Geddes, Linda. “Gli ‘eventi bizzarri’ che rendono le macchine allucinate.” BBC . 5 dicembre 2018.