Dr. Chander
Fonte: credito fotografico: Rosso
La tecnologia può leggere nella tua mente? Divya Chander, MD, Ph.D., ha una risposta sorprendente a questa domanda. Chander è un neuroscienziato e un medico della facoltà presso la Stanford University e la Singularity University. Ha studiato a Harvard, all’Università della California a San Diego / Salk Institute, UCSF e Stanford. Il suo lavoro post-dottorato era in optogenetica presso il pionieristico laboratorio Deisseroth della Stanford University.
Nella presentazione di Chander alla Exponential Medicine di Singularity University, ha fatto riferimento all’esempio di un gruppo di ricerca di Berkeley che è stato in grado di utilizzare l’apprendimento automatico, un sottogruppo di intelligenza artificiale (AI) e risonanza magnetica funzionale (fMRI), per cercare di capire cosa il cervello vede. La fMRI misura l’attività cerebrale mostrando i cambiamenti emodinamici come l’ossigenazione, il volume e i cambiamenti nel flusso sanguigno. Ironia della sorte, ciò che sta accelerando le recenti scoperte in neuroscienza, IA e fMRI, non sono una nuova tecnologia. Invece, è la combinazione di utilizzare la tecnologia esistente in nuovi modi che ha portato a maggiori progressi verso un’interfaccia cervello-computer (BCI).
“Ora possiamo guardare nel cervello e vedere realmente quello che stai vedendo”, ha detto Chander. “Immagina dove questa tecnologia ci sta portando … Ora possiamo leggere i cervelli senza aprirli”.
Il team UC-Berkeley di Shinji Nishimooto, An T. Vue, Thomas Naselaris, Yuval Benjamini, Bin Yu e Jack L. Gallant hanno pubblicato “Reconstructing Visual Experiences from Brain Activity Evoked by Natural Movies” in Current Biology nel 2011. Sono stati in grado di ricostruire film naturali visti da un osservatore con un modello di codifica a due stadi. L’attività fMRI del soggetto che guarda il film è stata inserita in un algoritmo informatico che ha imparato ad associare i pattern visivi con l’attività cerebrale. Quindi questo algoritmo di ricostruzione del film è stato addestrato su video di YouTube dove ha predetto l’immagine che è stata vista nel film con risultati sorprendenti. Sorprendentemente, secondo il gruppo di ricerca, i risultati suggeriscono che un’interfaccia visuale cervello-computer “potrebbe essere fattibile”.
Chander fa riferimento a un team di ricercatori giapponesi che applicavano un approccio simile usando l’apprendimento automatico, l’EEG e l’fMRI per generare previsioni su ciò che sognava il dormiente. L’algoritmo ha previsto correttamente il 60% delle volte [1].
Chander ha dichiarato durante la sua presentazione di Medicina esponenziale che è possibile misurare il livello di coscienza. Menziona il lavoro del neuroscienziato Adrian Owen, che ha sviluppato una tecnica usando l’fMRI per comunicare con i pazienti in uno stato vegetativo misurando il cambiamento nel flusso sanguigno in alcune parti del cervello. “Ora possiamo utilizzare immagini non invasive per valutare gli stati di coscienza”, ha affermato Chander.
È fattibile un’interfaccia cervello-computer?
Imprenditori di successo sarebbero d’accordo sul fatto che un’interfaccia cervello-macchina sia realizzabile. Il mercato dell’interfaccia globale per computer con intelligenza cerebrale (BCI) raggiungerà gli 1,84 miliardi di dollari stimati entro il 2023 secondo il rapporto del settore di dicembre 2017 di Knowledge Sourcing Intelligence.
I leader innovativi stanno investendo attivamente nelle neuroscienze. Ad esempio, nel 2016 l’imprenditore di successo Bryan Johnson ha investito 100 milioni di dollari della propria fortuna in Kernel, una startup neuroscientifica che mira a fondere l’uomo con l’intelligenza artificiale attraverso un’interfaccia cervello-computer [2]. Il pioniere di Trailing Johnson in questo segmento, Elon Musk ha seguito l’esempio e ha co-fondato la Neuralink Corporation nel 2017 con un obiettivo simile di costruire un’interfaccia cervello-computer [3].
Facebook ha un team di 60 ingegneri che cercano di creare un’interfaccia cervello-computer che consenta agli utenti di digitare con la mente in modo non invasivo [4]. Secondo TechCrunch, il team di Facebook sta collaborando con diverse organizzazioni di ricerca accademiche in questo progetto, vale a dire Johns Hopkins Medicine e l’Applied Physics Laboratory della John Hopkins University, la Washington University School of Medicine a St. Louis, UC Berkeley e UC San Francisco.
“Stiamo diventando sintetici. Ora siamo in grado di integrarci con l’elettronica e cose in silicio per far avanzare le terapie umane … tutto perché abbiamo violato il codice neuro. “ – Divya Chander
La neuroscienza e l’intelligenza artificiale si sono combinate per fare incredibili scoperte nelle interfacce cervello-computer. L’applicazione di questa tecnologia combinata può aiutare allo stesso modo sia i disabili neurologici che i disabili. Una volta messa a punto, questa intuizione può essere utilizzata non solo nell’assistenza sanitaria e nella medicina, ma anche in tutti i settori in molteplici funzioni commerciali. L’umanità è all’inizio di una rivoluzione nelle neuroscienze.
Riferimenti
1. Stromberg, Joseph. “Gli scienziati capiscono quello che vedi mentre stai sognando” . Smithsonian.com. 4 aprile 2013.
2. Bryan Johnson. URL: https://bryanjohnson.co/. 3 agosto 2018.
3. Scafo, Dana. “Elon Musk’s Neuralink ottiene $ 27 milioni per costruire computer del cervello.” Bloomberg . 25 agosto 2017.
4. Constine, Josh. “Facebook sta costruendo interfacce cervello-computer per la digitazione e l’udito della pelle.” TechCrunch . 19 aprile 2017.