“Me voy a su1c1d4r”, así, escrito con números, para que los algoritmos no lo detecten. O la versión anglosajona, “Sue of Cide”, como si fuese el nombre de una mujer, de nuevo, para que una inteligencia artificial no sepa que se está hablando de suicidio. Otro más: “unlive”, en español, “desvivir”. Muchas formas de hablar de lo mismo, de quitarse la vida, y todas con el mismo objetivo, crear un segundo lenguaje que pueda esquivar los sistemas algorítmicos que bloquean cualquier mención a autolesiones en redes sociales.
En TikTok, por ejemplo, el hashtag #pleaseunaliveme tiene 24,4 millones de visualizaciones. El #unliveme, 3,5 millones. El #sueofcide 28,9 mil. #su1c1d4r, 18,1 mil. Y así, con una retahíla más de términos que sirven para lo mismo, “usar palabras fonéticamente similares que hablen del tema”, apunta Ricardo de Pascual, doctor en psicología clínica y de la salud.
Otro contenido recurrente en la ‘app’ son los bailes. TikTok, que empezó como una plataforma musical, premia el contenido con danza. Así, algunos usuarios que deciden contar su experiencia con las autolesiones lo hacen a través de un vídeo donde, siguiendo una coreografía de moda, sobreponen textos con historias explícitas de autolesión y suicidio y que, prácticamente, sirven de guía introductoria a aquellos que quieran emularlo. ¿Resultado? No solo evitan la censura, sino que sirve de altavoz de su mensaje.
La ‘tiktoker’ Kalya Williams, con 80.000 seguidores, ha dedicado gran parte del contenido de su cuenta a hablar sobre su estancia en alas de psiquiatría, siempre usando este léxico digital para evitar la censura. Según aseguraba en un vídeo, “usar estas palabras falsas te permite hablar del tema de forma más ligera y restarle importancia”. Añade, además, que “en ningún momento se promueve el suicidio, sino que se habla de sus consecuencias y se comparte de forma comunitaria para acompañar a aquellos que estén en un momento de inflexión”.
Hablar sin obsesionarse
De Pascual coincide hasta cierto punto: “El humor es una forma importante de relacionarse con estas cosas”, y aunque bailar frente a la cámara contando un intento de suicidio parezca banalizar esta experiencia, el experto remarca que “es importante permitir a las personas que hablen de las cosas que les hacen sufrir, de una forma que les resulte cómoda, por muy ajena o rara que nos puedan resultar”. Aun así, cree que “hablar mucho de un tema lo vuelve importante en nuestra vida” y que “aquello de lo que más hablemos, será aquello que reciba más atención y por lo tanto entramos en un círculo vicioso que hace que hablemos todavía más de ello”.
Este refuerzo social se hace todavía más palpable en TikTok. Según un estudio conducido por la Universidad de Roma Tor Vergata, el algoritmo de la ‘app’ está diseñado para captar la atención analizando lo que atrapa al usuario, aunque no lo haya buscado directamente. Por ejemplo, si se hace viral un video del hashtag #su1c1d10 y aleatoriamente le aparece a un adolescente en su página principal y lo mira entero, el algoritmo entenderá que le parece interesante, y le seguirá promocionando esos vídeos. Al final, como concluía el informe, esto podría derivar en conductas obsesivas por parte del usuario.
Por supuesto, a TikTok le preocupa este contenido, especialmente después de que en 2021 un vídeo de un suicidio se viralizase sin que ningún tipo de moderador restringiera su alcance, lo que obligó a la plataforma a crear una nueva política de control. De hecho, el 15% del contenido eliminado diariamente es, según sus datos, porque promueve las autolesiones.
TikTok no es la única que batalla contra estos códigos anticensura. Instagram, Facebook, YouTube o ReddIt se topan con lo mismo, porque, a pesar de que si buscas ‘suicidio’, ‘depresión’, ‘anorexia’ o ‘autolesiones’ te derivan automáticamente a ayuda profesional, es fácil encontrar contenidos similares. Incluso en YouTube, uno de los principales problemas con los que se están topando los moderadores es que existen canales que, usando estos códigos lingüísticos, logran monetizar vídeos sobre el suicidio, lucrándose con contenido perjudicial para adolescentes.
Ojo con las historias de superación
Otro problema del algoritmo ya no es solo que le cueste detectar las piruetas lingüísticas de sus usuarios, sino que muchas veces el contenido nocivo se esconde tras historias de superación. Por ejemplo, en pleno ‘boom’ de la salud mental, surgen cuentas contra las autolesiones, hablando de lo mucho que les arruinó la vida intentar suicidarse o no tratar a tiempo una anorexia o una depresión. Y, aunque a priori esto parezca positivo, existe una competición entre estos creadores de contenido para ver quién sufre más, alimentando así, paradójicamente, un contenido que llega a romantizar las autolesiones como vía de escape ante una realidad cada vez más precaria para la juventud.
De hecho, según el estudio de la Universidad de Roma, que se centraba en el caso de una joven anoréxica que se autolesionaba, todos estos vídeos de sufrimiento explícito le sirvieron como una detallada guía con el paso a paso a seguir, aunque la idea original del vídeo fuese alertar de estos peligros.
Cuentan las psicólogas Núria Pomés, Alba Cobos y Cristina Domínguez, fundadoras de la cooperativa de psicología Espai Nacre, que uno de los factores de riesgo que conduce a las autolesiones es el entorno social del joven que, ante “la creciente e insoportable angustia social” y la percepción del futuro como algo cada vez más negro, ven el “hablar del dolor como una forma de comunicarse entre iguales”, lo cual puede provocar que su socialización orbite alrededor del tema.
Así, sumar la facilidad con la que esta información sortea la censura al cóctel de la desigualdad, las políticas públicas insuficientes y el sufrimiento generacional, genera que, como advierten las expertas, “las autolesiones (no suicidas) estén en aumento”.
Para los adultos: si se detectan estas conductas, no hay una fórmula mágica para paliarlas, pero “cuando hay vínculo y el joven se siente acompañado y no juzgado, lo comunica relativamente rápido”.