Risposte di smartphone al suicidio, alla depressione e allo stupro: #Fail

Un nuovo studio esamina la risposta di "agenti conversazionali" come Siri a domande di salute mentale, salute fisica e violenza interpersonale. Perché questo importa? Come notano gli autori, Pew Research riporta che il 62% degli utenti di smartphone cerca informazioni su una condizione di salute sui loro telefoni (Smith, 2015). Quindi sì, ha molto senso vedere quello che Siri e i suoi agenti co-parlanti stanno dicendo quando facciamo domande davvero difficili.

Pamela Rutledge/Shutterstock
Fonte: Pamela Rutledge / Shutterstock

Le ricerche informative variano notevolmente. Ad esempio, "che cos'è l'influenza aviaria" o "che cosa sono i hangnails" sono molto diversi dal chiedere indicazioni o richieste di aiuto, come "Voglio suicidarmi". Sorprendentemente, tuttavia, risulta che Siri, Google e i loro compagni digitali sono molto peggio di queste cose di quanto tu possa pensare. Variano dall'avere risposte inefficaci (sebbene quasi empatiche) come "Mi spiace sentirlo" a irrilevanti, errate o semplicemente nessuna risposta.

Questi risultati sono pertinenti e importanti finché noi, come società, non ci perdiamo tra le erbacce e dimentichiamo il quadro generale. È facile presumere che Siri e gli amici dovrebbero ottenere risposte migliori (e probabilmente dovrebbero, in una certa misura), ma dobbiamo porre alcune domande di livello superiore. Non dovremmo perdere di vista le importanti implicazioni etiche e legali derivanti dal fatto che gli algoritmi di riconoscimento vocale forniscono consigli fuori dal contesto. Tutte le situazioni in cui i ricercatori si sono interrogati sarebbero servite meglio componendo il 911 e parlando con un professionista esperto in risposta alle emergenze. La tecnologia ha dei limiti e non dovremmo farci ingannare dal fatto che i nostri telefoni possano parlare.

Mentre Pew Research non fa distinzioni tra le ricerche di informazioni e chiede aiuto di emergenza, è questa stretta sottosezione di domande che i ricercatori stanno testando. Pertanto, non sappiamo quanti del 62% degli utenti di smartphone pongono questo tipo di domande urgenti. Tuttavia, come osservano i ricercatori, i loro risultati suggeriscono che questi servizi vocali potrebbero perdere una grande opportunità per fornire alcuni servizi sociali di base. È certamente possibile che gli algoritmi possano essere ampliati per includere i riferimenti di base ai servizi di emergenza, come farebbe una chiamata al 911. Tuttavia, come possiamo costruire questo sistema di domande e risposte per avere senso? Gli psicologi in particolare si cimentano con il modo in cui i consigli possono essere sfruttati eticamente utilizzando la tecnologia.

Le aspettative degli utenti su dove ottenere aiuto e il valore e la validità dell'aiuto che ricevono sono elementi importanti di questa equazione. Quante persone si aspettano che il loro smartphone sappia cosa fare se sono stati stuprati o depressi? La tendenza umana ad antropomorfizzare la tecnologia, in particolare quando ci parla, rende un luogo utile o pericoloso per fornire informazioni? Ci sono oltre 90.000 app di assistenza sanitaria, che vanno dagli strumenti diagnostici alle app di benessere, quindi non siamo estranei a fare affidamento sui nostri smartphone per informazioni sulla salute e la sicurezza. Questa assunzione di cura può essere un fattore importante nonché un fattore determinante del comportamento.

Mentre lo studio sottolinea che ci sono chiaramente delle occasioni mancate per aiutare le persone, ci sono un gran numero di problemi etici – per non parlare delle potenziali responsabilità legali – nel fornire qualsiasi cosa tranne risposte relativamente inutili, come indicazioni per "comporre un numero di emergenza locale" "O il numero per una risorsa pertinente. Potrei sostenere che questo è un caso per l'alfabetizzazione mediatica e l'importanza di educare gli utenti sui limiti delle fonti di informazione online, per non parlare del riconoscimento vocale di Siri. Siri e i suoi amici dovrebbero educare le persone sulle potenziali inadeguatezze delle loro informazioni? (Ho una visione delle migliori intenzioni che si trasformano in soluzioni con 30 secondi di disclaimer legale che precede qualsiasi consiglio: spesso facciamo qualcosa di ugualmente inutilizzabile cercando di risolvere i problemi senza considerare il quadro generale. L'usabilità è raramente la preoccupazione dell'ufficio legale.)

Considerando tutti i discorsi sui big data e l'oversharing, dovremmo anche considerare che è proprio il Grande Fratello ad affidare la responsabilità alla tecnologia (o ad Apple o Google o chiunque) per fornire questo livello di assistenza. È facile vedere come Siri o Google possano recitare i sintomi per un ictus, ma la persona non sarebbe stata più disposta a chiamare immediatamente il 911? Violi la nostra privacy? I fornitori sono spesso tenuti legalmente a seguire casi che comportano il potenziale danno personale. Siri ha lo stesso obbligo di condividere con un'autorità? Vogliamo essere rintracciati per fare qualsiasi domanda a Siri? I medici di salute mentale attualmente proteggono se stessi e i loro pazienti includendo di routine il seguente messaggio quando non sono disponibili per rispondere a una chiamata di persona: "se si tratta di un'emergenza, non lasciare un messaggio. Per favore riagganciare e comporre il 911. "Forse Siri e gli amici dovrebbero fare lo stesso.

Nulla di ciò dovrebbe togliere allo studio. E a loro credito, i ricercatori affrontano molti di questi problemi nei limiti dello studio, come la lingua e la cultura e la difficoltà di un algoritmo di costruzione che può triage adeguatamente le informazioni e giudicare la natura e la gravità di una situazione. Lo studio, tuttavia, solleva questioni importanti sull'uso corrente e sui limiti della tecnologia, sui diritti e sulle responsabilità individuali, sull'impegno sociale e colma le lacune nella divisione sociale per le persone che non hanno la capacità di trovare o accedere ad altri servizi.

Continueremo ad affrontare nuovi orizzonti con domande difficili a cui dobbiamo rispondere prima che il nostro smartphone possa. Dovremmo, tuttavia, evitare la tendenza del ginocchio a risolvere questi problemi uno per uno senza una discussione più ampia. Va ben oltre la presunzione che gli smartphone debbano imparare come rispondere a domande difficili. Ci sono una miriade di problemi di salute mentale e fisica e casi di violenza interpersonale che sono spesso altamente soggettivi e variano in grado di urgenza e potenziale per lesioni personali o danni. Forse possiamo iniziare semplicemente insegnando agli smartphone a dire "componi il 911" e attiva la funzione di localizzazione.

Riferimenti

Minatore, AS, Milstein, A., Schueller, S., Hegde, R., & Mangurian, C. (2016). Agenti di conversazione basati su smartphone e risposte a domande su salute mentale, violenza interpersonale e salute fisica. JAMA Internal Medicine.

Smith, A. (2015). Uso degli smartphone negli Stati Uniti nel 2015. Pew Research Center, 18-29. Estratto il 13 marzo 2016 da http://www.pewinternet.org/2015/04/01/us-smartphone-use-in-2015/.