TikTok prohibirá a los menores de 18 años usar filtros que alteren la apariencia para proteger su salud mental. La medida, basada en un estudio de la ONG Internet Matters, distingue entre filtros «divertidos» y los que cambian la apariencia de forma sutil. Aplicada globalmente, busca concienciar sobre los efectos negativos de estos filtros.
El contexto de una decisión global
«Las plataformas como TikTok tienen la responsabilidad de crear un entorno seguro porque son muy influyentes en los menores. Tienen que evitar contenidos que puedan dañar la autoestima o fomentar problemas como ansiedad o depresión», comentó Evelin Chucas, experta en Ética informática de la Universidad de Lima. Según ella, estas plataformas también deberían ofrecer herramientas que promuevan un uso saludable y educar sobre el impacto de lo que consumimos en línea.
El anuncio llega en un contexto de creciente escrutinio hacia la plataforma. El mes pasado, catorce fiscales estatales de Estados Unidos denunciaron a TikTok por dañar la salud mental de menores, acusándola de promover un sistema de contenidos adictivo y lucrativo, en el que los «filtros de belleza» desempeñan un papel relevante. Estudios citados por los fiscales señalan que el 50 % de las menores no se sienten atractivas sin editar sus rostros y que el 77 % busca cambiar u ocultar partes de su cuerpo usando estas herramientas.
Medidas y dilemas éticos
Chucas también destacó que «la clave está en implementar medidas como verificar la edad sin recopilar datos sensibles. Por ejemplo, usar métodos que respeten la privacidad, como la verificación basada en patrones de actividad y no en documentos personales. También se necesita monitorear y ajustar las restricciones para que no sean fáciles de burlar, pero sin invadir la privacidad».
Con 175 millones de usuarios mensuales en Europa, TikTok asegura estar reforzando sus medidas de protección. La empresa elimina mensualmente seis millones de cuentas creadas por menores de 13 años —la edad mínima para usar la plataforma— y colabora con ONG, legisladores y expertos para mejorar su seguridad, incluyendo el uso de tecnología de aprendizaje automático. Asimismo, ofrecerá líneas de ayuda locales en 13 países europeos para asistir a quienes reporten contenidos sensibles relacionados con suicidio, autolesiones y acoso.
Más allá de la prohibición
Sin embargo, Evelin Chucas considera que «no es suficiente. Es un buen comienzo, pero debe ir acompañado de educación digital para que los menores entiendan cómo estos filtros afectan su percepción personal. También sería útil que las plataformas promuevan contenido positivo, como mensajes sobre autoestima y salud mental, además de ofrecer opciones para reportar o limitar el acceso a filtros».
La experta también señaló los dilemas éticos que plantea el uso de inteligencia artificial para moderar contenidos sensibles relacionados con la salud mental. «El problema es que la inteligencia artificial no siempre entiende el contexto. Puede eliminar contenido útil (como alguien hablando de su experiencia para ayudar a otros) o dejar pasar cosas dañinas. Además, hay riesgo de sesgos en los algoritmos que podrían discriminar o no tratar a todos los usuarios por igual», explicó.
Más allá de la prohibición
Esta medida de TikTok no solo busca proteger la autoestima y el bienestar de los jóvenes, sino que también podría marcar un precedente en la industria tecnológica. Según Chucas, si la plataforma logra implementarla con éxito, otras empresas podrían adoptar políticas similares, impulsando regulaciones más estrictas y fomentando un debate sobre estándares éticos para proteger mejor a los menores en internet.
Por: Alvaro Timoteo Rojas