Si usted o alguien que conoce puede estar considerando suicidarse, comuníquese con el 988 Línea de Vida de Suicidio y Crisis llamando o enviando un mensaje de texto al 9-8-8, o al Línea de texto de crisis enviando un mensaje de texto con HOME al 741741.
Mensajes de texto, publicaciones de Instagram y perfiles de TikTok. Los padres a menudo advierten a sus hijos que no compartan demasiada información en línea, preocupados por cómo se utilizan todos esos datos. Pero un estudiante de secundaria de Texas quiere usar esa huella digital para salvar vidas.
Siddhu Pachipala es un estudiante de último año en The Woodlands College Park High School, en un suburbio a las afueras de Houston. Ha estado pensando en psicología desde séptimo grado, cuando leyó Pensando, Rápido y Lento por el psicólogo Daniel Kahneman.
Preocupado por el suicidio adolescente, Pachipala vio un papel para la inteligencia artificial en la detección de riesgos antes de que sea demasiado tarde. Desde su punto de vista, lleva demasiado tiempo ayudar a los niños cuando están sufriendo.
Los seres queridos a menudo pasan por alto las primeras señales de advertencia de suicidio, como sentimientos persistentes de desesperanza, cambios en el estado de ánimo y patrones de sueño. «Así que es difícil hacer que las personas sean detectadas», dice Pachipala.
Para una feria de ciencias local, diseñó una aplicación que usa IA para escanear texto en busca de signos de riesgo de suicidio. Él cree que algún día podría ayudar a reemplazar los métodos obsoletos de diagnóstico.
“Nuestros patrones de escritura pueden reflejar lo que estamos pensando, pero en realidad no se ha extendido hasta este punto”, dijo.
La aplicación le valió reconocimiento nacional, un viaje a DC y un discurso en nombre de sus compañeros. Es uno de los muchos esfuerzos en curso para usar la IA para ayudar a los jóvenes con su salud mental y para identificar mejor cuándo están en riesgo.
Los expertos señalan que este tipo de IA, llamado procesamiento de lenguaje natural, existe desde mediados de la década de 1990. Y, no es una panacea. «El aprendizaje automático nos está ayudando a mejorar. A medida que obtenemos más y más datos, podemos mejorar el sistema», dice Matt Nock, profesor de psicología en la Universidad de Harvard, que estudia las autolesiones en jóvenes. «Pero los bots de chat no van a ser la panacea».
El psicólogo de Colorado Nathaan Demers, que supervisa los sitios web y las aplicaciones de salud mental, dice que las herramientas personalizadas como las de Pachipala podrían ayudar a llenar un vacío. «Cuando entras en CVS, está ese manguito de presión arterial», dijo Demers. “Y tal vez esa es la primera vez que alguien se da cuenta, ‘Oh, tengo presión arterial alta. No tenía idea’. «
No ha visto la aplicación de Pachipala, pero teoriza que las innovaciones como la suya aumentan la conciencia sobre los problemas de salud mental subyacentes que de otro modo podrían pasar desapercibidos.
Edificio SuiSensor
Pachipala se dedicó a diseñar una aplicación que alguien pudiera descargar para realizar una autoevaluación de su riesgo de suicidio. Podrían usar sus resultados para abogar por sus necesidades de atención y conectarse con los proveedores. Después de muchas noches pasadas codificando, había SuiSensor.
Usando datos de muestra de un estudio médico, basado en entradas de diario de adultos, dijo Pachipala SuiSensor predijo el riesgo de suicidio con un 98% de precisión. Aunque era solo un prototipo, la aplicación también podía generar una lista de contactos de médicos locales.
En el otoño de su último año de secundaria, Pachipala ingresó su investigación en Regeneron Science Talent Search, una competencia nacional de ciencias y matemáticas de 81 años.
Allí, los paneles de jueces lo interrogaron sobre su conocimiento de la psicología y la ciencia general con preguntas como: «Explica cómo hierve la pasta… OK, ahora digamos que llevamos eso al espacio. ¿Qué sucede ahora?». recordó Pachipala. «Saliste de esos paneles y estabas maltratado y magullado, pero mejor por eso».
Se colocó noveno en general en la competencia y se llevó a casa un premio de $50,000.
Los jueces encontraron que «su trabajo sugiere que la semántica en la escritura de un individuo podría estar correlacionada con su salud psicológica y el riesgo de suicidio». Si bien la aplicación no se puede descargar actualmente, Pachipala espera que, como estudiante universitario en el MIT, pueda continuar trabajando en ella.
«Creo que no hacemos eso lo suficiente: tratar de abordar [suicide intervention] desde una perspectiva de innovación», dijo. «Creo que nos hemos mantenido en el statu quo durante mucho tiempo».
Aplicaciones actuales de salud mental de IA
¿Cómo encaja su invento en los esfuerzos más amplios para utilizar la IA en la salud mental? Los expertos señalan que hay muchos esfuerzos de este tipo en marcha, y Matt Nock, por ejemplo, expresó su preocupación por las falsas alarmas. Aplica el aprendizaje automático a los registros de salud electrónicos para identificar a las personas que están en riesgo de suicidio.
«La mayoría de nuestras predicciones son falsos positivos», dijo. «¿Hay algún costo ahí? ¿Hace daño decirle a alguien que está en riesgo de suicidio cuando en realidad no es así?»
Y a la experta en privacidad de datos, Elizabeth Laird, le preocupa la implementación de tales enfoques en las escuelas en particular, dada la falta de investigación. Dirige el Proyecto Equidad en Tecnología Cívica del Centro para la Democracia y la Tecnología (CDT).
Si bien reconoce que «tenemos una crisis de salud mental y deberíamos hacer todo lo posible para evitar que los estudiantes se lastimen a sí mismos», se muestra escéptica sobre la falta de «evidencia independiente de que estas herramientas hagan eso».
Toda esta atención sobre la IA se produce cuando las tasas (y el riesgo) de suicidio juvenil van en aumento. Aunque hay un retraso en los datos, los Centros para el Control y la Prevención de Enfermedades (CDC) informan que el suicidio es la segunda causa de muerte entre los jóvenes y adultos jóvenes de 10 a 24 años en los EE. UU.
Esfuerzos como el de Pachipala encajan en una amplia gama de herramientas respaldadas por IA disponibles para rastrear la salud mental de los jóvenes, accesibles tanto para médicos como para no profesionales. Algunas escuelas están utilizando software de monitoreo de actividad que escanea los dispositivos en busca de señales de advertencia de que un estudiante se está haciendo daño a sí mismo oa otros. Sin embargo, una preocupación es que una vez que surjan estas banderas rojas, esa información se puede usar para disciplinar a los estudiantes en lugar de apoyarlos, «y que esa disciplina caiga en líneas raciales», dijo Laird.
Según una encuesta compartida por Laird, el 70% de los maestros cuyas escuelas usan software de seguimiento de datos dijeron que se usaba para disciplinar a los estudiantes. Las escuelas pueden mantenerse dentro de los límites de las leyes de privacidad de los registros de los estudiantes, pero no implementan medidas de seguridad que los protejan de consecuencias no deseadas, dijo Laird.
“La conversación en torno a la privacidad ha pasado de ser solo una cuestión de cumplimiento legal a lo que es realmente ético y correcto”, dijo. Ella señala los datos de la encuesta que muestran que casi 1 de cada 3 estudiantes LGBTQ+ informan que han sido expulsados, o conocen a alguien que ha sido expulsado, como consecuencia del software de monitoreo de actividades.
Matt Nock, el investigador de Harvard, reconoce el lugar de la IA en los números. Utiliza tecnología de aprendizaje automático similar a la de Pachipala para analizar registros médicos. Pero enfatiza que se necesita mucha más experimentación para examinar las evaluaciones computacionales.
«Mucho de este trabajo tiene buenas intenciones, tratando de usar el aprendizaje automático, la inteligencia artificial para mejorar la salud mental de las personas… pero a menos que investiguemos, no sabremos si esta es la solución correcta». él dijo.
Más estudiantes y familias recurren a las escuelas para recibir apoyo de salud mental. El software que escanea las palabras de los jóvenes y, por extensión, los pensamientos, es un enfoque para tomar el pulso a la salud mental de los jóvenes. Pero no puede reemplazar la interacción humana, dijo Nock.
«Esperamos que la tecnología nos ayude a saber mejor quién está en riesgo y cuándo», dijo. «Pero la gente quiere ver humanos, quiere hablar con humanos».