Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / TikTok

TikTok está teniendo problemas para borrar el video donde alguien se quita la vida

Varios usuarios de TikTok comenzaron a subir advertencias el domingo y el lunes explicando a sus seguidores cómo comienza el clip.

TikTok está teniendo problemas para borrar el video donde alguien se quita la vida

Un video que muestra a un hombre disparándose con una escopeta comenzó a circular en TikTok este fin de semana. La compañía ha estado trabajando a contrarreloj para evitar que se propague aún más, pero algunos usuarios dicen que el clip perturbador sigue apareciendo en sus feeds, lo que ha generado preocupaciones sobre la eficacia de los sistemas de moderación de TikTok.

Un portavoz de TikTok confirmó a Forbes que “clips de un suicidio” habían aparecido en la plataforma el domingo por la noche después de que el video se transmitiera originalmente en un directo de Facebook. Un portavoz de Facebook confirmó a Gizmodo que el video en cuestión se originó en su plataforma el mes pasado y se refirió al hombre en las imágenes como “Ronnie” en un comunicado enviado por correo electrónico.

Puede leer la declaración de Facebook en su totalidad a continuación:

“Eliminamos el video original de Facebook el mes pasado el día que se transmitió y hemos utilizado tecnología de automatización para eliminar copias y subidas desde ese momento. Nuestros pensamientos permanecen con la familia y los amigos de Ronnie durante este momento difícil”.

Varios usuarios de TikTok comenzaron a subir advertencias el domingo y el lunes explicando a sus seguidores cómo comienza el clip, en el que un hombre de cabello largo y barba habla por teléfono, para que puedan deslizar antes de que ver algo espeluznante. Según señala The Verge, algunos usuarios afirman haber encontrado el clip oculto dentro de otros tiktoks sin ninguna relación, indica Gizmodo.

Si bien el video viola las normas de TikTok, la compañía ha tenido dificultades para contener la situación. Probablemente porque TikTok, a diferencia de otras plataformas de redes sociales como Facebook y Twitter, se basa en gran medida en la página “Para ti” generada algorítmicamente para descubrir contenido e impulsar la participación, lo que hace que sea aún más difícil evitar que los usuarios se tropiecen involuntariamente con un video.

“Nuestros sistemas han detectado y marcado automáticamente estos clips por violar nuestras políticas de contenido al mostrar, glorificar o promover el suicidio”, dijo un portavoz de TikTok a The Verge. “Estamos baneando las cuentas que intentan subir estos clips repetidamente, y apreciamos a los miembros de nuestra comunidad que han informado del contenido y advierten a otros para que no vean o compartan dichos videos en cualquier plataforma por respeto a la persona y su familia”.

“Si alguien en nuestra comunidad está luchando contra pensamientos suicidas o está preocupado por alguien que lo esté, lo alentamos a buscar apoyo y brindamos acceso a líneas directas desde nuestra aplicación y en nuestro Centro de seguridad”, agregó el portavoz.

Si bien son varias las plataformas de redes sociales que han visto cuestionadas sus prácticas de moderación, la supervisión de TikTok en este caso es especialmente atroz porque repite casi exactamente lo mismo que ha sucedido antes. En febrero, un joven de 19 años transmitió en vivo su suicidio en la plataforma y TikTok esperó casi tres horas después de enterarse del incidente antes de comunicarse con las autoridades, según documentos internos vistos por The Intercept.

Eso de por sí es suficientemente horrible, pero más aún si tienes en cuenta que aproximadamente un tercio de sus usuarios son supuestamente menores de 14 años.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados