Fonte: orla / istockphoto
Prima c’era la tastiera, poi il tocco e la voce per controllare i dispositivi e le app di calcolo. Qual’è il prossimo? Ricercatori del Mortimer B. Zuckerman Mind Brain Behaviour Institute alla Columbia University di New York ha annunciato “una prima scientifica” con l’invenzione di un’interfaccia cervello-computer (BCI) che traduce il pensiero umano in parlato con maggiore chiarezza e precisione rispetto alle soluzioni esistenti. Il gruppo di ricerca, guidato da Nima Mesgarani, Ph.D., ha pubblicato le loro scoperte il 29 gennaio 2019 in Scientific Reports , una rivista di ricerca sulla natura .
Un’interfaccia cervello-computer è una via di comunicazione bidirezionale tra cervello e computer. Molti progetti di ricerca BCI sono incentrati sugli usi neuroprotesici per coloro che hanno perso o alterato movimento, visione, udito o linguaggio, come quelli colpiti da ictus, lesioni del midollo spinale, sclerosi laterale amiotrofica (SLA), afasia (compromissione del linguaggio dovuta al cervello danno), danno cocleare e sindrome bloccata.
Fino a questo importante passo avanti, il processo di decodifica dei segnali cerebrali usava modelli di calcolo più semplici basati sulla regressione lineare per analizzare rappresentazioni visive delle frequenze sonore (spettrogrammi) che producevano un linguaggio inintelligibile. Mesgarani e il suo team di ricerca hanno combinato le ultime tecnologie innovative nella sintesi vocale con l’apprendimento profondo dell’IA per migliorare l’intelligibilità del linguaggio ricostruito, con risultati significativamente migliorati.
Mesgarani ha collaborato con il neurochirurgo Ashesh Dinesh Mehta, MD, Ph.D., presso il Northwell Health Physician Partners Neuroscience Institute per misurare le attività cerebrali dei pazienti affetti da epilessia focale farmacoresistente che erano già sottoposti a chirurgia cerebrale per lo studio.
L’elettrocorticografia invasiva (ECoG) è stata utilizzata per misurare l’attività neurale di cinque partecipanti allo studio che hanno ascoltato tutte le normali abilità uditive mentre ascoltavano quattro oratori presentando racconti per mezz’ora. I pattern neurali registrati sono stati utilizzati come input di dati per addestrare un vocoder, un processore audio che analizza e sintetizza la voce umana.
Dopo aver addestrato il vocoder, i ricercatori hanno registrato i segnali cerebrali degli stessi partecipanti mentre ascoltavano i parlanti con un numero compreso tra zero e nove. Questi segnali cerebrali registrati sono stati inseriti attraverso il vocoder, che a sua volta ha prodotto un discorso sintetizzato. Successivamente, i ricercatori hanno utilizzato reti neurali artificiali per perfezionare il discorso prodotto dal vocoder, quindi hanno 11 soggetti con udito normale ad ascoltare l’output.
I ricercatori hanno scoperto che l’utilizzo di una rete neurale profonda (DNN) con regressione non lineare migliora l’intelligibilità del 67 percento rispetto al metodo di base dell’utilizzo della regressione lineare per ricostruire lo spettrogramma uditivo. Questi partecipanti potevano capire e ripetere i suoni generati con la combinazione del vocoder DNN con un’accuratezza del 75%. Secondo i ricercatori, “i risultati degli studi mostrano il vantaggio superiore dei modelli di apprendimento approfondito rispetto ad altre tecniche, in particolare quando la quantità di dati di addestramento è elevata” e “l’aumento della quantità di dati di allenamento porta a una maggiore precisione di ricostruzione”.
I ricercatori hanno scoperto un “quadro generale che può essere usato per le tecnologie di neuroprotesi del linguaggio che possono risultare in un linguaggio ricostruito accurato e intelligibile dalla corteccia uditiva umana”. Considerano il loro cervello-a sistemi informatici come stato dell’arte e “un passo verso la prossima generazione di sistemi di interazione uomo-computer e canali di comunicazione più naturali per i pazienti affetti da paralisi e sindromi bloccate “.
L’ascesa dell’apprendimento profondo dell’intelligenza artificiale ha creato una fonte di possibili progressi scientifici attraverso le discipline, in particolare nel campo delle neuroscienze e dell’ingegneria biomedica. In futuro, i dispositivi informatici saranno gestiti dal pensiero umano?
Copyright © 2019 Cami Rosso Tutti i diritti riservati.
Riferimenti
Akbari, Hassan, Khalighinejad, Bahar, Herrero, Jose L., Mehta, Ashesh D., Mesgarani, Nima. “Verso la ricostruzione del linguaggio intelligibile dalla corteccia uditiva umana.” Rapporti scientifici . 29 gennaio 2019.