I big data soddisfano la salute comportamentale

Dr. Big Brother, diagnosticando che ti piaccia o no.

Pixabay

Fonte: Pixabay

Chi possiede i dati che generi, mentre ti impegni online ed elettronicamente? Che dire delle informazioni che vengono create SU DI TE? Hai qualche possibilità di vedere quell’informazione, tanto meno di eliminarla o controllarla? Per molti resoconti, questa sembra essere una delle battaglie sociali e legali di più ampia portata dei tempi moderni. Ora, questi dati stanno raggiungendo un luogo che ha avuto la massima riservatezza e protezione della privacy: la tua salute mentale.

Quando Facebook ha rivelato che Cambridge Analytica, e una serie di altri gruppi, ha avuto accesso ai dati riguardanti milioni di utenti di Facebook, abbiamo iniziato ad avere una vasta portata di questo problema. Usando i dati generati da e su singole persone, queste aziende sono state in grado di indirizzare pubblicità mirate e impegni elettronici, intesi a influenzare il modo in cui le persone votano, acquistano e spendono.

BJ Fogg è uno psicologo della Stanford University, che ha creato lo Stanford Persuasive Technology Lab, dove i ricercatori sviluppano tecniche per “cambiare gli esseri umani” e “cambiare ciò che la gente pensa e ciò che le persone fanno …” Il suo lavoro ha influenzato molti nella Silicon Valley, e gli sforzi moderni per usare la tecnologia in modi più sofisticati per influenzare il comportamento, inclusa la salute. Questi sforzi portano a software e dispositivi che sono più adatti a richiedere e comandare l’attenzione e il tempo delle persone. Mantenendo le persone incollate su schermi e dispositivi, più frequentemente utilizzando software e piattaforme di social media, le pubblicità collocate su queste piattaforme ottengono maggiore visibilità, generando maggiori entrate.

Dopamine Labs è un altro gruppo che usa “brain hacking” per aumentare il coinvolgimento degli utenti e “dare agli utenti le nostre perfette esplosioni di dopamina … Un’esplosione di dopamina non si sente solo bene: ha dimostrato di ricablare comportamenti e abitudini degli utenti”. (In realtà non è così che funziona la dopamina, ma tutti amano usare la dopamina per sembrare intelligenti …)

Pixabay

Fonte: Pixabay

I documenti trapelati da Facebook hanno dimostrato che l’azienda era in grado di identificare e rispondere quando gli utenti, in particolare gli adolescenti, si sentivano insicuri, senza valore, stressati, ansiosi o sopraffatti. Nel 2014, Facebook ha affrontato critiche quando ha condotto un esperimento sugli utenti, al fine di testare e ispirare gli effetti che poteva creare attraverso “contagio emotivo” e alterando i segnali emotivi che gli utenti hanno ricevuto.

Forse non è affatto male, però? Dopotutto, Facebook utilizza ora un sistema di intelligenza artificiale per rilevare e identificare gli utenti che potrebbero essere suicidi. Se rilevato, un individuo che sta facendo dichiarazioni suicide può essere contattato da un moderatore di Facebook, o ricevere informazioni su risorse locali o primi soccorritori (polizia o soccorso antincendio). In alcuni casi, i membri del team di sicurezza di Facebook contattano anche i primi soccorritori e il 911 in cui si trova l’utente di Facebook, informandoli del rischio di suicidio rilevato. In questi casi, i primi soccorritori possono quindi eseguire un “controllo per il benessere” e visitare l’individuo identificato. Questo è uno strumento comune utilizzato dai professionisti della salute mentale quando diventano consapevoli del rischio in un paziente. Si noti che gli utenti di Facebook non possono al momento rinunciare a questo processo e non hanno acconsentito a monitorare la salute mentale e il rischio di suicidio. Come clinico autorizzato, quando incontro un paziente, devo spiegare, in anticipo, che se credo che siano un pericolo per sé o per gli altri, ho il mandato di denunciarli. Sepolto nei nuovi termini di servizio di Facebook è una nota che usano i loro dati per “rilevare quando qualcuno ha bisogno di aiuto”, anche se le informazioni dettagliate a cui Facebook si collega in tale divulgazione non chiariscono che i risponditori di emergenza possono essere contattati da Facebook per vostro conto .

Mindstrong Health, un’altra startup di Palo Alto, ha una piattaforma che monitora l’uso degli smartphone delle persone per le indicazioni della depressione. È stato co-fondato dal Dr. Thomas Insel, ex direttore del National Institute of Mental Health. La compagnia partecipa anche alla ricerca guardando i segni elettronici del trauma.

Questi sono tutti problemi che riguardano i dati generati dagli utenti, in cui vengono analizzati i comportamenti della persona reale. Ma per quanto riguarda i dati su di te e sulla tua salute mentale? Anche quei dati sono là fuori. È stato oggetto di numerose violazioni dei dati, presso la VA, da organizzazioni di assistenza gestita e fornitori di servizi sanitari. I dati su di te, sulle tue diagnosi di salute mentale e sui trattamenti che hai ricevuto, inclusi i farmaci, sono tutti disponibili per l’acquisizione.

Pixabay

Fonte: Pixabay

Altri gruppi stanno anche raccogliendo e condividendo informazioni su di te e sulle tue esigenze di salute comportamentale. Tre sono diversi nuovi software e progetti elettronici che hanno piattaforme per i soccorritori di emergenza e le forze dell’ordine per creare database sui cittadini con problemi o esigenze di salute comportamentale, affinché i rispondenti accedano quando interagiscono con tali individui. RideAlong, un interessante progetto basato a Seattle, ha valutato attentamente quale personale delle forze dell’ordine può accedere o modificare le informazioni che conservano nel proprio sistema e ha deciso che le informazioni sulle diagnosi, ad esempio, non dovrebbero essere identificate. Tuttavia, non ci sono ancora disposizioni in base alle quali una persona possa effettivamente conoscere o modificare qualsiasi informazione su di essa memorizzata in questo sistema. Ho sentito gente di questa compagnia presente e, mentre prendono sul serio la riservatezza, vogliono anche fornire alle forze dell’ordine uno strumento per condividere le informazioni – su di te.

Collective Medical Technologies è una società dell’Oregon con una piattaforma simile, che crea, tiene traccia e condivide un database di informazioni affidabili sulle persone che si recano al pronto soccorso dell’ospedale. Il database può essere consultato solo dagli operatori sanitari e dai fornitori di assistenza gestita, ma contiene informazioni sul perché le persone si recano al pronto soccorso, quale trattamento hanno ricevuto e sulle tecniche che sono state utili per ridurle se fossero agitate. Un fornitore di salute comportamentale come me (Fair disclosure, I, e l’organizzazione che conduco, sono ora un operatore sanitario partecipante in questo progetto) può anche essere informato se uno dei miei pazienti si presenta al pronto soccorso, in modo da poter essere in grado per raggiungere e impegnarsi nel loro trattamento. Di nuovo, dato che questi dati sono generati sulle persone, non dalla persona, e sono condivisi da entità soggette a leggi sulla riservatezza, le singole persone non devono acconsentire, e potrebbero anche non sapere che loro oi loro dati sono in questo sistema.

I dati sulla tua storia di diagnosi e trattamento della salute comportamentale sono usati per guidare le decisioni prese da te da parte delle forze dell’ordine, compagnie tecnologiche, compagnie assicurative gestite, stati e governi, e molti, molti altri gruppi che hanno accesso a tali informazioni. Questa cronologia potrebbe aiutarti ad avere maggiore accesso al supporto, ma potrebbe anche essere usato per limitare le tue opzioni e scelte. Dr. Big Brother, diagnosticando che ti piaccia o no.

Pixabay

Fonte: Pixabay

Come operatore di salute comportamentale coinvolto nella politica a livello statale e nazionale, ho visto questo recente aumento dell’estrazione e dell’analisi dei dati nel mondo della salute comportamentale. Sono in conflitto per tutto questo, per essere perfettamente onesto. Posso sicuramente vedere molti luoghi in cui queste informazioni possono salvare vite, prevenire tragedie e aiutare le persone a ricevere aiuto. Ma, mi viene sempre in mente la fantascienza distopica in cui lo stato oi sistemi di intelligenza artificiale rilevano segni di infelicità e si sforzano di cambiare o modificare quelle persone e i loro sentimenti. Abbiamo il diritto di essere infelici? Avevano artisti famosi e geni come Van Gogh, Robin Williams, Anthony Bourdain – tutti individui con storie di noti problemi di salute comportamentale – rilevati e trattati, che non sarebbero morti e continuarono a produrre un lavoro incredibile. Ma, che diritto avrebbero avuto, di fare una scelta per essere malati di mente e lasciati soli?

I dati sulla tua salute comportamentale, mentale ed emotiva sono raccolti e analizzati. Verranno utilizzati grandi set di dati come questo. Questa informazione non viene raccolta solo perché possa sedersi lì. Come sarà usato, e con il suo permesso, fa parte di una grande e spaventosa domanda che, proprio ora, non siamo parte della risposta.