Il Neuroimaging fornisce le risposte migliori?

Nei molti anni in cui ho esaminato i documenti e ho concesso applicazioni nelle neuroscienze, ho visto un'evoluzione del nostro modo di pensare, dall'affidarsi completamente dei dati comportamentali e clinici a una quasi cieca dipendenza dai dati di neuroimaging. Quando parlo di neuroimaging qui, ho in mente una definizione ristretta che include solo metodi funzionali di imaging che consentono una chiara risoluzione spaziale. Ciò significa principalmente risonanza magnetica funzionale (fMRI), magnetoencephalongraphy (MEG) e tomografia ad emissione di positroni (PET), ma esclude l'elettroencefalogramma (EEG) poiché è noto che ha una scarsa risoluzione spaziale (Srinivasan, 1999).

Quello che trovo spesso è che gli sviluppi delle neuroimmagini hanno portato molti ricercatori a perdere di vista la distinzione tra evidenza empirica e teoria. Per illustrare questo punto, consideriamo un risultato empirico che suggerisce che la corteccia cingolata anteriore ventrale "si illumina" sotto neuroimaging quando le donne, ma non gli uomini, eseguono la rotazione mentale (Butler et al., 2007). Ora, qualcuno potrebbe essere tentato di fare un ulteriore passo avanti e costruire una teoria in cui la corteccia cingolata anteriore ventrale è coinvolta nella rotazione mentale per le donne ma non per gli uomini. Dopo un po ', potremmo dimenticare che questa teoria si basa su una (per quanto ne so) reperto di risonanza magnetica non replicato. Quindi, potremmo perdere di vista la distinzione tra prove teoriche ed empiriche.

Questo problema è aggravato dal fatto che molti ricercatori sembrano ignorare il fatto che molti risultati ottenuti con le neuroimmagini sono stati difficili da replicare tra laboratori e attività. Si deve solo considerare la meta-analisi sulle attività di neuroimaging con rotazione mentale condotta da Zacks (2008) per vedere un'illustrazione di questo punto. L'appendice nel suo articolo è particolarmente utile nel mostrare la mancanza di accordo tra gli studi in termini di coordinate in cui l'attivazione è ottenuta sotto rotazione mentale. Naturalmente, dovremmo aspettarci che siano coinvolte diverse aree. Tuttavia, ciò che è più problematico è che c'è molta variabilità tra gli studi. Ciò sarebbe dovuto in parte alla varietà dei dettagli metodologici dei compiti utilizzati e al fatto che la maggior parte dei ricercatori non si preoccupa di convalidare i loro compiti con un campione più ampio prima di procedere a uno studio di neuroimaging (Voyer et al., 2006). Dopotutto, uno studio di neuroimaging è molto più sexy di uno studio di validazione! Quest'ultimo punto è particolarmente triste poiché alcuni editori di riviste sembrano credere che l'unico modo per studiare il cervello sia fare un esperimento di neuroimaging. Immagino che alcune persone abbiano perso di vista il fatto che tutti i comportamenti derivano dal cervello. Pertanto, qualsiasi compito è uno studio del cervello a un certo livello!

Forse uno degli aspetti più trascurati dei metodi di neuroimaging è che il modo in cui viene determinata l'attivazione significativa dipende spesso da molteplici test di significatività. I bei colori mostrati sulla figura tipica trovata in una carta di neuroimaging in genere riflettono un risultato t-test o un livello di significatività. Se siamo fortunati, gli autori potrebbero dire che è stata applicata una correzione per confronti multipli, anche se raramente viene specificata oltre. Essenzialmente, se calcoliamo solo un confronto pixel-attivo dell'attivazione attraverso condizioni sperimentali (ad esempio, baseline rispetto a sperimentale) e ci concentriamo su un'area 100 x 100 pixel, calcoleremo 10.000 t-test (100 x 100). Con una correzione Bonferroni, consideriamo quindi significativo a p <.05 qualsiasi test dove p <.000005. È quello che i ricercatori stanno effettivamente facendo? Non è chiaro. Tuttavia, stavo recentemente rivedendo un documento in cui gli autori utilizzavano p = .001 come livello di significatività per qualsiasi confronto. Se usassero un'area di 100 x 100 pixel, avrebbero comunque un enorme rischio di errori nei test delle ipotesi statistiche. Ciò può anche essere aggravato dal fatto che alcuni ricercatori includono il maggior numero possibile di regioni di interesse per migliorare le loro possibilità di ottenere risultati significativi. Se hai mai letto un documento in cui è implementato questo tipo di spedizione di pesca, dovresti essere cauto! Ci dovrebbe sempre essere almeno una base empirica della ricerca passata per selezionare specifiche regioni di interesse.

Mentre leggi questo post, potresti pensare che io odio il neuroimaging. In realtà, questo non è il caso! Penso che la neuroimaging sia la strada da percorrere per il futuro delle neuroscienze in quanto ha il potenziale per portare ad un alto livello di comprensione di come funziona il cervello. Tuttavia, il punto del mio post è di avvertirti di essere critico quando leggi questo tipo di ricerca. Dopotutto, come tutto ciò che facciamo in psicologia, la ricerca di neuroimaging si basa su probabilità e manipolazioni sperimentali. I problemi di affidabilità e validità delle misurazioni si applicano alle neuroimmagini, proprio come fanno per altri metodi di indagine, insieme alla corretta applicazione dei metodi statistici. Per fortuna, gli esperti di neuroimaging sono piuttosto consapevoli delle sue carenze statistiche e ci sono un sacco di brave persone che lavorano su soluzioni. Non sono interessato a queste persone. Ciò che mi spaventa è quando le persone danno per scontato gli studi di neuroimaging e li usano per promuovere la propria agenda (vedi Halpern et al., 2011 per le critiche su un esempio di tali abusi). Se tutti iniziamo a considerare i risultati della ricerca in modo critico (neuroimaging o altro), tale abuso sarà ridotto al minimo!