Potrebbe il tuo cervello memorizzare tutte le informazioni sul web?

Il titolo sembra scandaloso. Ma i dati di supporto provengono dalla ricerca presso il più prestigioso Istituto Salk. Altri ricercatori avevano fatto enormi stime di capacità di stoccaggio per i cervelli, ma questa nuova stima è 10 volte maggiore. La stima è dell'ordine dei petabyte, così come dell'intero World Wide Web.

Come fa qualcuno a inventare tali stime? Qual è la premessa di base? Innanzitutto, la memoria è quantificata in termini di numero di bit di informazioni che possono essere memorizzati e recuperati. Nel caso del cervello, la domanda è quanta informazione può essere immagazzinata in una sinapsi, la giunzione comunicante tra i neuroni. Le dimensioni e la forza operativa di una sinapsi sono le variabili chiave: la forza può essere misurata in bit e punti di forza in correlazione con la dimensione sinaptica di umber e dimensione. Sotto ingrandimento elevato, le sinapsi sembrano un mazzo di perline su una corda. Il cervello appena nato, ci sono relativamente poche "perle", ma queste aumentano di numero e di dimensioni man mano che il bambino cresce e impara cose. Purtroppo, nella vecchiaia, molte di queste perle scompaiono a meno che il cervello non sia tenuto molto attivo.

Nello studio di Salk sui cervelli di ratto, le micrografie elettroniche della struttura di formazione della memoria, l'ippocampo, hanno permesso la ricostruzione 3-D e il rilevamento dei diametri delle sinapsi, che sono le strutture sinaptiche bersaglio nei neuroni. La forza sinaptica è correlata alla capacità di stoccaggio e la forza è misurata dalle dimensioni delle sinapsi, che appaiono come una perlina rotonda attaccata a un gambo o collo alla membrana neuronale di supporto. La dimensione della perla varia con la forza sinaptica perché la forza sinaptica è creata da un meccanismo più molecolare per la mediazione della comunicazione sinaptica. Pertanto, la dimensione della microsfera è un proxy per la forza sinaptica e la capacità di memorizzazione.

Gli investigatori hanno scoperto che un piccolo cubo di tessuto cerebrale conteneva 26 diverse dimensioni di perle, ciascuna associata a una forza sinaptica distinta. Gli autori affermano che questo equivale a un approssimativo 4,7 bit di informazione ad ogni sinapsi. Moltiplica 4,7 volte i trilioni di sinapsi e neuroni nel cervello e ottieni una fenomenale capacità di memoria.

Mentre ammiro l'elegante complessità di questi metodi di ricerca, penso che le interpretazioni siano un po 'semplicistiche. Ci sono alcuni avvertimenti che gli autori hanno trascurato. Per uno, si presume che il numero di bit di memoria sia uguale al logaritmo del numero di dimensioni dei talloni. Il "bit" è un'unità di informazioni nelle comunicazioni digitali. La teoria dell'informazione sostiene che un bit è la probabilità di una variabile casuale binaria che è 0 o 1, o più genericamente definita come presente o assente. Bisogna prendere alcune libertà per applicare questo concetto alla memoria nel cervello, perché il cervello non è un computer digitale. È un computer biologico analogico.

Poi c'è il problema che l'ippocampo si occupa solo della formazione di memorie dichiarative ed episodiche, non di memorie procedurali come la digitazione tattile o la riproduzione del pianoforte. Pertanto, la capacità di memorizzazione, qualunque essa sia, non è stimata per le memorie procedurali. In secondo luogo, i ricordi dichiarativi e episodici non sono memorizzati nell'ippocampo, ma piuttosto memorizzati in modo distribuito in tutto il cervello. Poiché le misure sinaptiche sono state fatte solo su tessuto ippocampale, non ci sono dati per il resto del cervello.

Ma c'è un problema più grande. Come si fa a sapere quanti bit ci vogliono per rappresentare diversi ricordi? Non tutte le memorie sono uguali e sicuramente non tutte richiedono lo stesso numero di bit di memoria.

In realtà, il numero esatto di bit di informazioni che il cervello può memorizzare è piuttosto irrilevante. Con ogni misura, l'esperienza comune insegna che nessuno utilizza tutta la sua capacità di memoria. Inoltre, la quantità di informazioni che una determinata persona immagazzina varia profondamente a seconda di variabili quali la motivazione a ricordare le cose, l'uso della mnemonica e il livello di istruzione. La domanda che deve essere soddisfatta, dato che abbiamo una grande quantità di capacità di archiviazione inutilizzata, è "Perché non ne ricordiamo più di noi?" Libri come il mio Memory Power 101 forniscono alcune risposte pratiche.

Fonte:

Bartol, Thomas M. et al. (2015). Limite superiore neuroconnomico sulla variabilità della plasticità sinaptica. Elife. 30 novembre. Http://dx.doi.org/10.7554/eLife.10778