Borrar
Salvados por la Red

Salvados por la Red

Investigadores españoles desarrollan una inteligencia artificial que detecta tendencias autodestructivas en internet. «Los suicidas dan pistas»

INÉS GALLASTEGUI

Lunes, 4 de febrero 2019, 10:20

Necesitas ser suscriptor para acceder a esta funcionalidad.

Compartir

Un chico de 14 años se suicidó el 2 de noviembre en un centro comercial en Marbella. Poco antes había anunciado en redes sociales su intención de matarse junto a una amiga. El personal de seguridad del complejo llegó a tiempo para salvar a la niña. No está claro si esta muerte fue el resultado de un reto adolescente destinado a atraer atención o el abrupto final de una depresión gestada durante meses. En todo caso, la trágica noticia pone de manifiesto el importante papel que juegan las comunidades virtuales en las vidas de mucha gente, hasta el punto de confiar en ellas para proclamar al mundo algo tan íntimo como el deseo de terminar con todo. Investigadores de la Universidad de Alicante (UA) quieren aprovechar esa singularidad para crear un sistema de inteligencia artificial que detecte en los mensajes y entradas publicados en internet palabras clave y patrones de escritura que alerten de un posible riesgo de suicidio. En España diez personas se quitaron la vida cada día de 2016.

«No es verdad que los suicidas no avisen», asegura el profesor de la UA José Manuel Gómez, responsable del equipo de ingenieros informáticos, criminólogos y lingüistas detrás de la Plataforma Life!, un proyecto de investigación, divulgación y ciencia ciudadana que, tras desarrollarse durante dos años gracias a la Fundación BBVA, busca ahora financiación para poner a punto una aplicación capaz de salvar vidas.

La mitad de las personas que cometen autolisis, resalta Gómez, nunca ha acudido a un profesional de la salud mental y una parte de ellas utiliza internet para desahogarse o expresar sus sentimientos. ¿Qué tienen de particular los posts y comentarios de estos usuarios? El equipo de Life! ha analizado más de un centenar de textos extraídos de redes sociales, como Whatsapp, Twitter y Facebook, y foros en los que se habla de depresión, suicidio y su superación, como Forocoches o Reddit.

Palabras como 'hastío', 'soledad', 'angustia', 'vacío', 'melancolía', 'depresión', 'dolor' y 'muerte' son algunas de las más repetidas en los documentos, explica la criminóloga Saray Zafra, miembro del equipo que realiza su tesis doctoral sobre este tema. También contaron con unos pocos documentos especialmente valiosos: notas de suicidio y otros mensajes escritos antes de una autoagresión cedidos por supervivientes o familiares. «Tengo una soledad llena de rostros», «No puedo más», «No tiene sentido vivir» o «Qué angustia de vida» son algunas de las frases contenidas en esas desoladoras cartas.

En su contexto

  • 3.569 personas, el 75% de ellas varones, se quitaron la vida en España en 2016. Son más del doble que las muertes ocurridas en accidentes de tráfico, 12 veces más que los homicidios y 80 veces más que las causadas por la violencia machista, recuerda el Observatorio del Suicidio. La cifra se mantiene estable entre 3.100 y 3.900 desde que empezó el siglo, lo que hace una suma de 60.000.

  • Tragedia juvenil El suicidio es la segunda causa de muerte juvenil, solo por detrás del cáncer, y la primera por causas no naturales en el conjunto de la población. En 2016 se quitaron la vida 12 niños y niñas de menos de 15 años y 247 jóvenes de 15 a 29.

  • 7,46 suicidios por 100.000 habitantes al año se registran en España, con el máximo en Galicia (11,08) y el mínimo en Madrid (4,73). Es una tasa baja si se compara con la de Japón (17,6) o EE UU (13,5). Los países con más casos de autolisis son Lituania (29,8) y Corea del Sur (28,7) y los que menos, Turquía (2,6) y Sudáfrica (1,2).

  • A quién recurrir El Teléfono de la Esperanza (717 003 717) recibe una media de cinco llamadas diarias de personas en riesgo suicida. La Barandilla gestiona el Teléfono Contra el Suicidio (910 380 600) y ANAR atiende los problemas de niños y adolescentes desde su línea gratuita y confidencial (900 20 20 10).

El sistema de inteligencia artificial ha sido entrenado para detectar esas pistas y está aprendiendo a evaluar si el riesgo es 'inmediato' -el usuario ha anunciado que se va a matar-, 'urgente', 'posible' o 'inexistente'. En este momento ya coincide con los expertos humanos en esa valoración del peligro en un 73% de los casos. Pero tanto los investigadores como las máquinas aún tienen mucho que aprender: por ejemplo, si existe una sintaxis que denote tendencias autodestructivas, qué significa el uso anómalo de mayúsculas o exclamaciones, qué importancia tiene la hora a la que se publican esos posts y qué aportan las fotografías que los acompañan.

«Hablar del suicidio no incita a hacerlo»

El Observatorio del Suicidio de la Fundación Salud Mental España rechaza algunos mitos sobre este tema tabú por excelencia. El primero: no es verdad que hablar del suicidio incite a cometerlo. «Abordar de manera adecuada las ideas suicidas facilita su superación». El segundo: es falso que quien va a quitarse la vida no 'avisa'. «Muchos suicidios están precedidos por señales de alerta que nunca deben subestimarse». Para la fundación, hacen falta políticas y programas de prevención, casi inexistentes hoy. Es necesario incidir en adolescentes y ancianos; formar e informar a padres y profesionales de la educación y la sanidad; y evitar el oscurantismo y el estigma.

¿Cómo funcionará la plataforma? Primero, una 'araña' de internet rastreará redes sociales públicas en busca de las palabras clave. El sistema inteligente evaluará el riesgo y alertará a un especialista para que este responda al mensaje sospechoso sin conocer ni revelar en ningún momento la identidad del usuario. Los investigadores de la UA mantienen contacto con el Teléfono de la Esperanza y otras organizaciones, como la Asociación Barandilla, la Red AIPIS, la Fundación ANAR y la Fundación Salud Mental España. Los trabajadores o voluntarios de estas organizaciones, explica, tendrían que comprometerse a no tratar de identificar al autor de un texto presuntamente suicida. Su objetivo sería intentar que el sujeto en supuesto riesgo decida, por voluntad propia, establecer contacto con ellos por teléfono o hablar con alguien de su propio entorno. En estos casos, asegura Gómez, los 'bots' -asistentes virtuales que conversan o solucionan problemas para el internauta- no sirven de nada. «Podríamos salvar muchas vidas si contásemos con estos recursos», afirma.

Salvada por el algoritmo

El director del proyecto recuerda que tanto Google como Facebook, Twitter o Instagram disponen de un sistema que permite denunciar de forma manual mensajes de otros usuarios que expresen tendencias autoagresivas. La red social de Mark Zuckerberg asegura haber creado un algoritmo que detecta esas conductas y remite la alerta a revisores humanos en sus centros operativos de Estados Unidos. Además, mantiene un acuerdo con la organización Samaritans -similar al Teléfono de la Esperanza en España- para que sus especialistas presten ayuda rápida al individuo en peligro.

La prensa argentina se hizo eco hace un año del caso de una mujer que publicó en un grupo de Facebook un mensaje de despedida. El algoritmo de la red social lanzó la alerta a sus revisores en California y estos avisaron a las autoridades argentinas, que investigaron el perfil y el IP de la mujer. Tres horas después la Policía irrumpió en su casa y encontró a la señora aturdida tras haber tomado algún fármaco. Se salvó.

Pero también hay ejemplos de lo contrario. El padre de Molly Russell, una niña británica de 14 años que se quitó la vida en 2017, culpa a Instagram de haber contribuido a la muerte de su hija, que accedió a «contenido estremecedor» sobre depresión, autolesiones y suicidio. Con el problema añadido, afirma el padre, de que los algoritmos hacen que, si un usuario busca esos textos e imágenes deprimentes, la red social le sugiere más del mismo tipo. Instagram dice eliminar todos los contenidos que promueven «los trastornos alimenticios, las autolesiones o el suicidio». Pero es muy fácil encontrar esa clase de perfiles cambiando alguna letra a 'hashtags' como 'selfharm' (autolesión) o 'suicide' (suicidio). En España la inducción al suicidio está penada con entre 4 y 8 años de prisión.

Un 'violenciómetro' contra el ciberacoso

Las tecnologías de procesamiento del lenguaje natural también pueden dirigirse hacia otros objetivos de interés social. Investigadores del mismo grupo en la Universidad de Alicante han enfocado su trabajo a la detección de situaciones de acoso escolar a través de las redes sociales. Su objetivo es crear un software capaz de aprender, a partir de ejemplos reales, a identificar posts o mensajes violentos y activar «una alerta o chivato», explica el catedrático Patricio Martínez Barco. No se trata solo de que este robot no humanoide aprenda a reconocer insultos o contenidos agresivos, subraya, sino también de que sepa valorar el contexto, incluso el histórico de mensajes.

El software está en fase de investigación, pero ya se han logrado muy buenos resultados y este 'violenciómetro' descubre indicios de acoso con un 80% de aciertos. «Tecnológicamente es perfectamente viable, pero hay que superar una serie de problemas legales, especialmente el tema de la privacidad», admite Martínez. Para salvar ese escollo, el equipo científico se plantea el uso de su aplicación en tres supuestos. En primer lugar, para que los propios niños o adolescentes se la instalen en su móvil y esta les ayude a detectar cuándo están siendo víctimas de acoso. Hay que tener en cuenta que a menudo los chavales reciben mensajes desagradables pero no son capaces de ponerle nombre a lo que les ocurre y, por tanto, no piden ayuda para salir de ello. Y viceversa: hay 'matones' que envían contenidos violentos como si fueran bromas cuando, en realidad, pueden estar causando un gran daño a sus destinatarios. En tercer lugar, podrían ser los padres los que recibiesen la alerta si sus hijos son atacados.

Los investigadores confían en que su 'app' antiacoso, que podría alertar cuando un mensaje enviado o recibido roza el 'bullying' mediante una carita triste, esté disponible en un par de años.

Reporta un error en esta noticia

* Campos obligatorios