En el mes de septiembre, TikTok removió casi 4 millones de videos cortos, en vivos o anuncios considerados como dañinos y que violan las reglas de convivencia de la plataforma digital en la Unión Europea (UE).
Además, la aplicación recibió alrededor de 35 mil reportes de contenido nocivo por parte de las personas usuarias, de los cuales determinó que 28% sí infringía sus políticas y la Ley de Servicios Digitales (DSA, por sus siglas en inglés).
TikTok fue una de las siete primeras empresas de Internet en publicar su informe de transparencia, siguiendo las nuevas normas de la Unión Europea en el marco de la DSA. La ley ahora les ordena brindar reportes semestrales a las plataformas con más de 45 millones de usuarios y profundizar su información sobre la moderación de contenido.
En su reporte, TikTok detalla que también removió 38 mil 626 contenidos por infringir las políticas de privacidad, e igualmente restringió más de 13 millones 975 mil videos cortos o en vivo y 137 mil 881 servicios.
La plataforma baja de Internet o restringe el contenido cuando traspasan las reglas de la comunidad, referentes a la seguridad, buen comportamiento, civilidad, salud mental, privacidad, bienes regulados y actividades comerciales, religión, contenido sexual, violencia, actividades peligrosas, contenido falso y engañoso, e integridad y autenticidad.
Para llevar a cabo esta tarea, TikTok dijo que cuenta con 6 mil 125 moderadores de contenido enfocados en las diferentes lenguas que se hablan en la Unión Europea (inglés, alemán, italiano, español, francés, etcétera), además de 395 moderadores que revisan perfiles o fotografías.
Aprobada el año pasado, la DSA obliga a las grandes plataformas en línea, redes sociales y mercados digitales, como TikTok, Meta y Amazon, a intensificar sus esfuerzos para proteger a los usuarios e impone nuevas medidas de transparencia sobre los algoritmos.
Snapchat fue otra de las empresas de Internet que ya publicaron su reporte de transparencia conforme la nueva ley. Durante el primer semestre del año, en Europa hubo 4 millones 265 mil reportes por contenido dañino y cuentas que infringían las normas.
La red social detalló que cuenta con 2 mil 198 moderadores de contenido en las lenguas que se hablan en la Unión Europea, los cuales se encargan de revisar los incidentes que se observan en una región con un promedio de 102 millones de usuarios registrados que usan la aplicación al menos una vez al mes.
Por otro lado, la gigante de comercio electrónico Amazon dio a conocer que en la primera mitad de 2023 resolvió 283 mil 220 notificaciones de contenido a través de sus mecanismos y herramientas de denuncia. Del total, realizó 810 mil 170 acciones sobre avisos considerados válidos
La plataforma también tomó acciones respecto a 274 millones de contenidos en la Unión Europea en ese periodo, debido a violaciones de políticas o por considerarse ilegales. 84 millones 200 mil de los contenidos fueron removidos y 133 millones fueron desactivados.
Al igual que el resto de plataformas, redes sociales y mercados digitales, Amazon ha automatizado buena parte de su moderación de contenido. La empresa dijo que 73 millones de las acciones tomadas en contra de contenido dañino o ilegal (productos o anuncios) fueron completamente automatizadas y, según sus cálculos, 97% estuvieron en lo correcto.
LinkedIn, Pinterest, Zalando y Bing también ya dieron a conocer sus informes de transparencia en la Unión Europea bajo la DSA. El resto ―incluida Meta― tienen hasta el 6 de noviembre para hacerlo.