X CERRAR
BackVolver a noticias

Un estudio aplica la Inteligencia Artificial para detectar conductas suicidas en las redes sociales

19/05/2021 | COMUNICACIÓN


Fuente INFOCOP.- Actualmente, un número significativo de personas con problemas de salud mental no recibe tratamiento debido a una serie de barreras, entre ellas, dificultades para acceder a los servicios de salud mental, la reducida disponibilidad de profesionales de la salud, la falta de información, el estigma y la discriminación en torno a los problemas de salud mental. Por el contrario, el acceso a Internet y el uso de las redes sociales han aumentado significativamente, proporcionando a los/as expertos/as y pacientes un medio de comunicación que puede contribuir al desarrollo de métodos para detectar problemas de salud mental entre los usuarios y las usuarias de las redes sociales.

Así lo afirma un estudio publicado en la revista Journal of Medical Internet Research bajo el título Detection of Suicidal Ideation on Social Media: Multimodal, Relational, and Behavioral Analysis (Detección de la ideación suicida en los medios sociales: análisis multimodal, relacional y conductual). 

El estudio, llevado a cabo por investigadores del Departamento de Tecnologías de la Información y las Comunicaciones de la Universidad Pompeu Fabra (UPF), con la colaboración del Centro de Visión por Computador de la UAB y del Hospital Parc Taulí de Sabadell, presenta el proyecto STOP (Suicide Prevention in Social Platforms), una metodología para detectar el riesgo de suicidio entre usuarios y usuarias de las redes sociales mediante la aplicación de la Inteligencia Artificial.

Para tal fin, se han caracterizado a los usuarios y las usuarias en función de sus escritos, patrones de publicación, relaciones con otros/as usuarios/as e imágenes publicadas, y se han analizado los datos conductuales, relacionales y multimodales extraídos de las múltiples plataformas sociales (Reddit, Instagram y Twitter) así como elementos identificados por los especialistas durante las consultas que han sido mapeados a las redes sociales, desarrollando modelos de aprendizaje automático para detectar usuarios en riesgo.

Con el fin de hacer una clasificación más precisa capaz de distinguir a las personas en riesgo de los casos control, incluso cuando el tema debatido es similar, se ha evaluado también el desempeño de los métodos predictivos en dos grupos de control: usuarios/as con publicaciones que no suelen usar términos relacionados con problemas de salud mental y/o suicidio (grupo control genérico) y usuarios/as que hacen uso de términos relacionados con el suicidio (grupo control focalizado).

El análisis de los datos revela diferencias estadísticamente significativas entre las características conductuales y del texto en el grupo de riesgo de ideación suicida en comparación con los grupos control.

Se observa que el grupo de riesgo tiende a hablar más en primera persona, haciendo uso de negaciones y de términos relacionados con sentimientos, principalmente la ansiedad. Se detectan también diferencias en el número de amigos (menor entre los usuarios de riesgo) y la longitud media del tweet publicado (menor número de palabras en el caso de los usuarios en riesgo). En palabras de los autores, los/as usuarios/as en riesgo, “suelen tener menor cantidad de amigos (cuentas que siguen), escriben textos con menor cantidad de caracteres y tienen mayor actividad durante los fines de semana y por la noche”.

El estudio concluye que los tipos de atributos analizados son clave para detectar patrones de conducta suicida. Si bien las características basadas en el texto se erigen como las más relevantes para el modelo (por ej., autorreferencias, número de tweets publicados, etc.), la combinación de datos textuales, con datos visuales, relacionales y de comportamiento -en lugar del uso exclusivo de cada modalidad por separado-, incrementa aún más la precisión para detectar a los usuarios y las usuarias de riesgo.

Tal y como manifiestan sus autores, esta es la primera investigación que aborda el problema de suicidio analizando texto en castellano a la vez que se tiene en cuenta el historial de publicaciones (tweets) de cada usuario y usuaria, todo ello mediante una metodología exhaustiva que recopila datos relacionados con el suicidio, revisada por expertos en salud mental. Según señalan, la contribución principal de este trabajo es la exploración de imágenes, junto con aspectos que normalmente son considerados por los especialistas, entre ellos, las interacciones entre usuarios/as, el análisis de patrones de sueño y la existencia de factores de riesgo.

Ramírez-Cifuentes, D., Freire, A., Baeza-Yates, R., Puntí, J., Medina-Bravo, P., Velazquez, D. A., Gonfaus, J.M. & Gonzàlez, J. (2020). Detection of suicidal ideation on social media: multimodal, relational, and behavioral analysis. Journal of Medical Internet Research, 22(7), e17758. 

111

 

En copmadrid.org utilizamos cookies propias y de terceros para desempeñar nuestros servicios, elaborar información estadística y prestar servicios concretos de páginas externas a copmadrid.org.

Puedes aceptar el uso de cookies pulsando el botón de “Aceptar” o configurar/rechazar su uso pulsando “Configurar/Rechazar”. Podrás cambiar de opinión sobre tu elección en cualquier momento visitando nuestra  Política de Cookies.