Un proyecto de investigación intenta unir las tecnologías del aprendizaje automático y los biosensores que rastrean el estado de ánimo de las personas para generar un sistema de alerta temprana para pacientes de alto riesgo.
CAMBRIDGE, Massachusetts — En marzo, Katelin Cruz salió de su última hospitalización psiquiátrica con una combinación de sentimientos que le resultaba conocida. Por un lado, se sentía aliviada al dejar la sala, donde los auxiliares le quitaban las agujetas de los zapatos y a veces la seguían hasta la ducha para asegurarse de que no se hiciera daño.
Sin embargo, su vida en el exterior era tan inestable como siempre, señaló en una entrevista, con una pila de cuentas sin pagar y sin un hogar permanente. Era fácil volver a tener pensamientos suicidas. Para los pacientes frágiles, las semanas posteriores a ser dados de alta de un centro psiquiátrico son un periodo notoriamente difícil.
Esta vez, sin embargo, Cruz, de 29 años, salió del hospital como integrante de un vasto proyecto de investigación que intenta utilizar los avances de la inteligencia artificial para hacer algo que durante siglos ha eludido el alcance de los psiquiatras: predecir quién es probable que intente suicidarse, cuándo es probable que esa persona lo haga y, entonces, intervenir.
En su muñeca llevaba una pulsera electrónica Fitbit, programada para registrar su sueño y su actividad física. En su celular, una aplicación recogía datos sobre su estado de ánimo, sus movimientos y sus interacciones sociales. Cada dispositivo proporcionaba un flujo continuo de información a un equipo de investigadores pertenecientes al departamento de psicología de la Universidad de Harvard.
Matthew K. Nock, psicólogo de Harvard y uno de los principales investigadores sobre el suicidio en Estados Unidos, espera unir esas tecnologías en una especie de sistema de alerta temprana que podría utilizarse cuando un paciente en riesgo se da de alta del hospital.
Nock ofrece este ejemplo de cómo podría funcionar: el sensor informa que el sueño de una paciente está alterado, ella declara un estado de ánimo bajo en los cuestionarios y el GPS muestra que no sale de casa. Pero un acelerómetro en su teléfono muestra que se mueve mucho, lo que sugiere agitación. El algoritmo marca a la paciente. Suena una notificación en el tablero. Y, en el momento justo, un médico llama por teléfono o le envía un mensaje.
Hay muchas razones para dudar de que un algoritmo pueda alcanzar ese nivel de precisión. El suicidio es un evento tan poco común, incluso entre las personas con mayor riesgo, que cualquier esfuerzo por predecirlo dará como resultado falsos positivos, lo que obligará a intervenir a personas que tal vez no lo necesiten. Los falsos negativos podrían imponer responsabilidad legal a los médicos.
[…]
Para los psiquiatras, pocas tareas son más angustiosas que atender a los pacientes que saben que están en riesgo de suicidio mientras están en casa y sin supervisión.
Cada vez más, los sistemas de cuidado a la salud recurren al aprendizaje automático para tomar esta decisión. Se utilizan algoritmos basados en amplios conjuntos de datos —extraídos de las historias clínicas electrónicas, así como de otros factores— para asignar a los pacientes una puntuación de riesgo, de modo que las personas con un riesgo excepcionalmente alto puedan recibir atención adicional.
“Muchas personas no quieren que un humano se ponga en contacto con ellas cuando están en alto riesgo”, dijo. “No quiere decir que vayamos a sustituir a los humanos por máquinas, pero probablemente puedan ser mucho más eficientes de lo que somos ahora”, dijo Nock.
Fuente: nytimes.com
Autora: Ellen Barry