El gigante informático Apple dio a conocer nuevas herramientas, para detectar imágenes de abuso sexual infantil cargadas en su servidor iCloud y posiblemente informarlas a las autoridades.
Dijo el grupo en su sitio “queremos ayudar a proteger a los niños y niñas de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, limitando la difusión de pornografía infantil”.
Apple planea usar herramientas criptográficas que analicen y conviertan imágenes a un número específico para esa imagen. El grupo planea comparar las fotos cargadas a iCloud con las almacenadas en un archivo administrado por la Central Nacional para Niños Desaparecidos y Explotados (NCMEC). El grupo asegura que no tiene acceso directo a la imagen. Cuando una foto se parece a la del archivo, Apple la revisará manualmente, deshabilitará la cuenta del usuario si es necesario y enviará un informe al centro.
El grupo también está planeando nuevas herramientas para notificar a los niños – niñas y padres reunidos en una cuenta de Family Sharing cuando se envían fotos explícitas a la aplicación mensajes. Las fotos se volverán borrosas y se remitirá al niño y niña a los mensajes de prevención, se le advertirá que no está obligado a abrir la imagen. Los padres pueden optar por recibir un mensaje cuando su hijo e hija abra fotos si así lo desean.
Se implementarán protecciones similares para los niños y niñas que envíen fotos sexualmente explícitas.
El grupo también fortalecerá la información de prevención que difunde la asistente de voz Siri cuando los niños – niñas o los padres piden consejo sobre determinadas situaciones.
Siri y Search también pueden intervenir cuando los usuarios buscan imágenes de pornografía infantil advirtiéndoles que dicho contenido es problemático.
Estas herramientas estarán disponibles gradualmente con las próximas actualizaciones de los sistemas operativos en iPhone, iPad, iWatch e iMac.