Bruselas sacrifica la confidencialidad de los intercambios en nombre de la lucha contra la pornografía infantil
Una nueva propuesta de la Comisión Europea quiere obligar a los proveedores de mensajería y alojamiento a instalar puertas traseras en sus servicios para luchar contra el contenido de pornografía infantil en línea. Es una táctica clásica de los gobiernos occidentales, con un objetivo aparentemente inexpugnable pero que conlleva graves riesgos para el respeto de la vida privada bajo el agua. Temiendo por la seguridad y confidencialidad de los intercambios, muchas voces se alzan en contra de estas nuevas obligaciones.
Se trata de una nueva propuesta legislativa que preocupa mucho a los defensores de la privacidad que la Comisión Europea acaba de presentar recientemente. Para luchar contra la pornografía infantil en línea, propone imponer nuevas obligaciones a los proveedores y anfitriones de servicios de comunicación.
El hallazgo es particularmente preocupante: en 2021 se informaron en todo el mundo más de 85 millones de fotos y videos que mostraban abuso sexual infantil. La fundación Internet Watch, ha observado así un aumento del 64% en las denuncias de abusos sexuales contra niños en 2021, en comparación con 2020.
Sin embargo, la autorregulación utilizada hasta ahora por las plataformas online funciona mal, juzga Bruselas. De hecho, hasta el 95% de todas las denuncias de abuso sexual infantil que se recibieron en 2020 provinieron de la red social Facebook, “mientras que hay pruebas claras de que el problema no es”. A modo de comparación, Twitter solo reportó 65,000 en 2020. Meta, la empresa matriz de Facebook, es simplemente la empresa más entusiasta en sus informes y la que ha implementado la mayoría de los sistemas de detección de empujes.
Asimismo, “la propuesta presentada establece obligaciones claras para que las empresas detecten y denuncien el abuso infantil, con estas obligaciones respaldadas por fuertes garantías que protegen la privacidad de todos, incluidos los niños”, resumió Ylva Johansson, Comisaria europea de Asuntos de Interior.
El texto prevé una obligación de evaluación del riesgo. El objetivo es comprobar el riesgo de que el servicio se utilice para difundir pornografía infantil o incluso para permitirse el “grooming” (una práctica destinada a solicitar a los niños con fines sexuales haciéndose amigo de ellos y, en general, ganándose su confianza). Las plataformas tendrán hasta tres meses después de la entrada en vigor del texto para realizar este análisis. Dependiendo del resultado, tendrán que asumir obligaciones de mitigación.
La Comisión también prevé una obligación de detección para los proveedores que hayan “recibido una orden de detección” de una autoridad judicial o una autoridad administrativa independiente de un Estado miembro. Para ello, deben ejecutar tecnologías que sean “eficientes”, “suficientemente fiables” y “lo menos intrusivas” posibles. La idea es la siguiente, no deben permitir extraer información distinta de la “estrictamente necesaria para la detección” de contenidos ilícitos.
El informe será procesado por un nuevo organismo creado por el texto: el centro independiente de la UE responsable de cuestiones de abuso sexual de niños. Será responsable de identificar informes erróneos y enviar informes legítimos a las autoridades policiales pertinentes.