TikTok alimenta a los adolescentes con una dieta de oscuridad

Tik Tok

Los videos de autolesiones, publicaciones tristes y trastornos alimentarios abundan en la popular aplicación.


Las llamadas para prohibir TikTok en los EE. UU. son cada vez más fuertes. Los líderes gubernamentales están tratando de mantener la popular plataforma de videos sociales propiedad de China fuera de las escuelas, los trabajadores públicos e incluso estados enteros, con el argumento de que los datos de los usuarios podrían terminar en las manos equivocadas.

Sin embargo, la privacidad de los datos podría ser menos preocupante que el poder del algoritmo de TikTok. Especialmente si eres padre.

Un estudio reciente descubrió que cuando los investigadores creaban cuentas pertenecientes a niños ficticios de 13 años, rápidamente se inundaban con videos sobre trastornos alimentarios, imagen corporal, autolesiones y suicidio.

Si eso suena familiar, una investigación del Wall Street Journal en 2021 descubrió que TikTok dirige a los espectadores a contenido peligroso. Desde entonces, TikTok ha fortalecido los controles parentales y prometió un algoritmo más equilibrado, pero el nuevo estudio sugiere que la experiencia de la aplicación para los adolescentes ha cambiado poco.

Lo que los adolescentes ven en las redes sociales puede afectarlos psicológicamente de manera negativa. Mucha investigación respalda esto. La evidencia más simple se puede encontrar en mi columna anterior sobre adolescentes que desarrollaron tics físicos después de ver videos repetidos de TikTok de personas que mostraban un comportamiento similar al del síndrome de Tourette.

Una portavoz de TikTok dijo que la empresa tiene un equipo de más de 40.000 personas que moderan el contenido. En los últimos tres meses de 2022, TikTok dijo que eliminó alrededor de 85 millones de publicaciones consideradas en violación de sus pautas comunitarias, de las cuales el 2,8% eran contenido de suicidio, autolesiones y trastornos alimentarios. También considera la eliminación de contenido marcado por los usuarios. “Estamos abiertos a la retroalimentación y el escrutinio, y buscamos involucrarnos de manera constructiva con los socios”, agregó la portavoz.

Dos tercios de los adolescentes de EE. UU. usan TikTok, y el 16 % de todos los adolescentes de EE. UU. dicen que lo usan casi constantemente, según el Centro de Investigación Pew. El uso frecuente de las redes sociales por parte de los niños, junto con el potencial de los algoritmos para atraer a los adolescentes a las peligrosas madrigueras de los conejos, es un factor en las nuevas recomendaciones de la Asociación Estadounidense de Psicología para el uso de las redes sociales por parte de los adolescentes.

Esta semana, el grupo dijo que los padres deben controlar el desplazamiento de las redes sociales de sus hijos más pequeños y estar atentos a un uso problemático. La APA también insta a los padres y a las empresas de tecnología a estar más atentos al contenido que anima a los niños a hacerse daño.

‘Cada 39 segundos’

El Centro para contrarrestar el odio digital, una organización sin fines de lucro que trabaja para detener la propagación del odio y la desinformación en línea, probó lo que ven los adolescentes en TikTok. En agosto pasado, los investigadores crearon ocho cuentas de TikTok para que pareciera que pertenecían a niños de 13 años en los EE. UU., el Reino Unido, Canadá y Australia. Durante 30 minutos, los investigadores detrás de las cuentas se detuvieron brevemente en los videos que la página For You de la plataforma les mostró sobre imagen corporal y salud mental, y tocaron el corazón para darles me gusta.

TikTok recomendó casi de inmediato videos sobre suicidio y trastornos alimentarios, dijeron los investigadores. Los videos sobre la imagen corporal y la salud mental aparecieron en las páginas Para ti de las cuentas cada 39 segundos, agregaron.

Después de que los investigadores publicaran sus hallazgos, muchos de los videos que marcaron desaparecieron de TikTok, pero muchas de las cuentas que publicaron el material permanecen. Esas cuentas incluyen otros videos que promueven dietas restrictivas y hablan sobre autolesiones y suicidio.

TikTok elimina contenido que claramente viola sus pautas, por ejemplo, al referirse directamente al suicidio. Sin embargo, es posible que los videos en los que las personas describan sus propios sentimientos suicidas no se consideren una infracción y no estén sujetos al escrutinio del moderador. Incluso podrían ser útiles para algunas personas. Sin embargo, los psicólogos infantiles dicen que estos también pueden tener un efecto dañino.

Los ejecutivos de TikTok han dicho que la plataforma puede ser un lugar para compartir sentimientos sobre experiencias difíciles y citan a expertos que apoyan la idea de que lidiar activamente con las emociones difíciles puede ser útil tanto para los espectadores como para los que publican. Dijeron que TikTok tiene como objetivo eliminar videos que promuevan o glorifiquen la autolesión al tiempo que permite contenido educativo o de recuperación.

La compañía dijo que ajusta continuamente su algoritmo para evitar recomendar repetidamente una gama limitada de contenido a los espectadores.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.