El Consejo Audiovisual de Andalucía (CAA) ha publicado un informe en el que analiza la presencia y el tratamiento de contenidos de riesgo relacionados con el suicidio, las autolesiones y los trastornos de la conducta alimentaria (TCA) en las principales redes sociales, poniendo de relieve tanto los avances en los sistemas de prevención de las plataformas como las debilidades que todavía permiten la circulación de materiales potencialmente perjudiciales, especialmente entre la población joven.
El estudio, basado en un análisis empírico del funcionamiento de los motores de búsqueda internos de plataformas como TikTok, X, Facebook, Instagram y YouTube, constata que, ante la introducción de términos directamente asociados a estas conductas, las redes activan de forma generalizada mensajes de advertencia, paneles de ayuda y enlaces a recursos especializados. Estos mecanismos incluyen teléfonos de apoyo y avisos de carácter preventivo, lo que el CAA valora como un paso positivo en la protección de la salud mental.
No obstante, el informe alerta de que estas barreras iniciales no siempre resultan suficientes. El Consejo advierte de que, mediante el uso de términos alterados deliberadamente —una práctica extendida para esquivar los filtros automáticos—, es posible acceder en determinadas plataformas a contenidos que normalizan prácticas autolesivas, muestran ideaciones suicidas o promueven comportamientos asociados a los TCA, así como a perfiles y comunidades donde este tipo de mensajes se refuerzan mutuamente.
Se demanda mayor supervisión
La investigación pone el foco, además, en la generación de dinámicas de grupo y sentimiento de comunidad en torno a experiencias personales compartidas sin supervisión ni contextualización profesional. Estas interacciones, especialmente cuando carecen de moderación efectiva, pueden favorecer la banalización o legitimación de conductas de riesgo, incrementando la vulnerabilidad de los usuarios más jóvenes.
El CAA subraya que el comportamiento de las plataformas no es homogéneo. Mientras algunas ofrecen una respuesta más restrictiva y preventiva, otras permiten mayor margen de acceso a contenidos sensibles una vez superada la primera capa de advertencias. Esta disparidad, señala el Consejo, evidencia la necesidad de homogeneizar y reforzar los criterios de moderación, particularmente en lo relativo a la detección de estrategias diseñadas para eludir los controles.
Afecta a la salud mental
El informe contextualiza esta preocupación en un escenario de creciente relevancia de los problemas de salud mental entre adolescentes y jóvenes, y recuerda que la protección de la infancia y la adolescencia en el entorno digital es una responsabilidad compartida. En este sentido, el CAA valora los esfuerzos actuales de las plataformas, pero les insta a profundizar en medidas más rigurosas y sostenidas que limiten de manera real y efectiva la difusión de contenidos potencialmente dañinos.
Con esta publicación, el Consejo Audiovisual de Andalucía reafirma su compromiso con la protección de los menores y la promoción de un uso seguro de las redes sociales, y refuerza su papel como autoridad garante de los derechos en el ecosistema audiovisual digital. El informe se remite, además, a las plataformas analizadas y a las instituciones competentes, con el objetivo de contribuir a una respuesta coordinada frente a unos riesgos que trascienden el ámbito estrictamente tecnológico y afectan de manera directa a la salud pública y al bienestar social.



