Apple revela nuevos esfuerzos para combatir las imágenes de abuso infantil

En una sesión informativa el jueves por la tarde, Apple confirmó los planes informados anteriormente para implementar nueva tecnología dentro de iOS, macOS, watchOS e iMessage que detectará posibles imágenes de abuso infantil, pero aclaró detalles cruciales del proyecto en curso. Para los dispositivos en los EE. UU., Las nuevas versiones de iOS y iPadOS que se lanzarán este otoño tienen “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM [child sexual abuse material] en línea, mientras se diseña para la privacidad del usuario “.

El proyecto también se detalla en una nueva página de “Seguridad infantil” en el sitio web de Apple. La implementación más invasiva y potencialmente controvertida es el sistema que realiza un escaneo en el dispositivo antes de que se haga una copia de seguridad de una imagen en iCloud. A partir de la descripción, el escaneo no se produce hasta que se realiza una copia de seguridad de un archivo en iCloud, y Apple solo recibe datos sobre una coincidencia si los cupones criptográficos (cargados en iCloud junto con la imagen) para una cuenta en particular cumplen con un umbral de CSAM conocido coincidente. .

Durante años, Apple ha utilizado sistemas hash para buscar imágenes de abuso infantil enviadas por correo electrónico, en línea con sistemas similares en Gmail y otros proveedores de correo electrónico en la nube. El programa anunciado hoy aplicará los mismos escaneos a las imágenes de usuario almacenadas en iCloud Photos, incluso si las imágenes nunca se envían a otro usuario o se comparten de otra manera.

Deberías leer:   Rachel Levine jura como la primera almirante cuatro estrellas transgénero en la historia de Estados Unidos: ¿quién es?

En un PDF proporcionado junto con el informe, Apple justificó sus movimientos para el escaneo de imágenes al describir varias restricciones que se incluyen para proteger la privacidad:

Apple no aprende nada sobre imágenes que no coinciden con el CSAM conocido

base de datos.

Apple no puede acceder a los metadatos ni a los derivados visuales de las imágenes CSAM coincidentes hasta que

Se supera el umbral de coincidencias para una cuenta de Fotos de iCloud.

El riesgo de que el sistema marque incorrectamente una cuenta es extremadamente bajo. Además,

Apple revisa manualmente todos los informes realizados al NCMEC para garantizar la precisión de los informes.

Los usuarios no pueden acceder ni ver la base de datos de imágenes CSAM conocidas.

Los usuarios no pueden identificar qué imágenes fueron marcadas como CSAM por el sistema

Los nuevos detalles se basan en las preocupaciones filtradas a principios de esta semana, pero también agregan una serie de salvaguardas que deberían proteger contra los riesgos de privacidad de dicho sistema. En particular, el sistema de umbral asegura que los errores aislados no generarán alertas, lo que permite a Apple apuntar a una tasa de error de una alerta falsa por billón de usuarios por año. El sistema de hash también se limita al material marcado por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y las imágenes cargadas en Fotos de iCloud. Una vez que se genera una alerta, Apple y NCMEC la revisan antes de alertar a las autoridades policiales, lo que proporciona una protección adicional contra el sistema que se utiliza para detectar contenido que no es CSAM.

Deberías leer:   Estados Unidos anunció su plan para vacunar contra el coronavirus a niños de 5 a 11 años

Apple encargó evaluaciones técnicas del sistema a tres criptógrafos independientes (PDF 1, 2 y 3), quienes lo encontraron matemáticamente sólido. “En mi opinión, este sistema probablemente aumentará significativamente la probabilidad de que se encuentren personas que poseen o trafican con dichas imágenes (usuarios dañinos); esto debería ayudar a proteger a los niños ”, dijo el profesor David Forsyth, presidente de ciencias de la computación en la Universidad de Illinois, en una de las evaluaciones. “La precisión del sistema de coincidencia, combinada con el umbral, hace que sea muy poco probable que se revelen imágenes que no son imágenes CSAM conocidas”.

Sin embargo, Apple dijo que es probable que se agreguen otros grupos de seguridad infantil como fuentes de hash a medida que se expanda el programa, y ​​la compañía no se comprometió a hacer que la lista de socios esté disponible públicamente en el futuro. Es probable que eso aumente la ansiedad sobre cómo el gobierno chino podría explotar el sistema, que durante mucho tiempo ha buscado un mayor acceso a los datos de los usuarios de iPhone dentro del país.

Deberías leer:   Italia sofoca la resistencia antivacuna en Trieste y reafirma el uso del pasaporte sanitario para trabajar

Mensajes de muestra que advierten a niños y padres cuando se detectan fotos sexualmente explícitas.
Foto: Apple

Junto con las nuevas medidas en iCloud Photos, Apple agregó dos sistemas adicionales para proteger a los jóvenes propietarios de iPhone en riesgo de abuso infantil. La aplicación Messages ya realizó un escaneo en el dispositivo de los archivos adjuntos de imágenes para las cuentas de los niños para detectar contenido que es potencialmente sexualmente explícito. Una vez detectado, el contenido se difumina y aparece una advertencia. Una nueva configuración que los padres pueden habilitar en sus cuentas familiares de iCloud activará un mensaje que le indicará al niño que si ven (entrante) o envían (saliente) la imagen detectada, sus padres recibirán un mensaje al respecto.

Apple también está actualizando cómo Siri y la aplicación de búsqueda responden a las consultas sobre imágenes de abuso infantil. Bajo el nuevo sistema, las aplicaciones “explicarán a los usuarios que el interés en este tema es dañino y problemático, y proporcionarán recursos de socios para obtener ayuda con este problema”.

Las ultimas noticias de California, editadas por los corresponsales en California. Si quieres sumarte no dudes en contactarnos.