Apple informará a la ley sobre imágenes de abuso sexual infantil en iCloud

Steve Proehl | Corbis inédito | imágenes falsas

Apple informará a las autoridades de las imágenes de explotación infantil cargadas en iCloud en Estados Unidos, dijo la compañía el jueves.

El nuevo sistema detectará imágenes llamadas Material de abuso sexual infantil (CSAM) mediante un proceso llamado hash, donde las imágenes se transforman en números únicos que corresponden a esa imagen.

Apple comenzó a probar el sistema el jueves, pero la mayoría de los usuarios de iPhone de EE. UU. No serán parte de él hasta una actualización de iOS 15 a finales de este año, dijo Apple.

La medida pone a Apple en línea con otros servicios en la nube que ya escanean los archivos de los usuarios, a menudo utilizando sistemas de hash, en busca de contenido que viole sus términos de servicio, incluidas las imágenes de explotación infantil.

También representa una prueba para Apple, que dice que su sistema es más privado para los usuarios que los enfoques anteriores para eliminar imágenes ilegales de abuso sexual infantil, porque utiliza criptografía sofisticada tanto en los servidores de Apple como en los dispositivos de los usuarios y no escanea imágenes reales. solo hashes.

Pero muchos usuarios sensibles a la privacidad aún rechazan el software que notifica a los gobiernos sobre el contenido de un dispositivo o en la nube, y pueden reaccionar negativamente a este anuncio, especialmente porque Apple ha defendido enérgicamente el cifrado de dispositivos y opera en países con menos protecciones de voz que el nosotros

Los funcionarios encargados de hacer cumplir la ley de todo el mundo también han presionado a Apple para que debilite el cifrado de iMessage y otros servicios de software como iCloud para investigar la explotación infantil o el terrorismo. El anuncio del jueves es una forma de que Apple aborde algunos de esos problemas sin renunciar a algunos de sus principios de ingeniería en torno a la privacidad del usuario.

Cómo funciona

Antes de que una imagen se almacene en iCloud de Apple, Apple compara el hash de la imagen con una base de datos de hash proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Esa base de datos se distribuirá en el código de iOS comenzando con una actualización a iOS 15. El proceso de emparejamiento se realiza en el iPhone del usuario, no en la nube, dijo Apple.

Si Apple detecta una cierta cantidad de archivos infractores en una cuenta de iCloud, el sistema cargará un archivo que le permitirá a Apple descifrar y ver las imágenes de esa cuenta. Una persona revisará manualmente las imágenes para confirmar si coinciden o no.

Apple solo podrá revisar imágenes que coincidan con el contenido que ya se conoce y se informó a estas bases de datos; por ejemplo, no podrá detectar las fotos de los padres de sus hijos en el baño, ya que estas imágenes no serán parte de la base de datos del NCMEC.

Si la persona que realiza la revisión manual concluye que el sistema no cometió un error, Apple deshabilitará la cuenta de iCloud del usuario y enviará un informe al NCMEC o notificará a la policía si es necesario. Los usuarios pueden presentar una apelación a Apple si creen que su cuenta fue marcada por error, dijo un representante de Apple.

El sistema solo funciona con imágenes cargadas en iCloud, que los usuarios pueden apagar, dijo Apple. Las fotos u otras imágenes de un dispositivo que no se hayan cargado en los servidores de Apple no formarán parte del sistema.

Algunos investigadores de seguridad han expresado su preocupación de que esta tecnología pueda eventualmente usarse para identificar otros tipos de imágenes, como fotos de una protesta política. Apple dijo que su sistema está construido para que solo funcione y solo pueda funcionar con imágenes catalogadas por NCMEC u otras organizaciones de seguridad infantil, y que la forma en que construye la criptografía evita que se use para otros fines.

Apple no puede agregar hash adicionales a la base de datos, dijo. Apple dijo que está presentando su sistema a expertos en criptografía para certificar que puede detectar imágenes ilegales de explotación infantil sin comprometer la privacidad del usuario.

Apple dio a conocer la función el jueves junto con otras funciones destinadas a proteger a los niños de los depredadores. En una función separada, Apple utilizará el aprendizaje automático en el iPhone de un niño con una cuenta familiar para difuminar las imágenes que pueden contener desnudez, y los padres pueden optar por recibir una alerta cuando un niño menor de 13 años recibe contenido sexual en iMessage. Apple también actualizó a Siri con información sobre cómo denunciar la explotación infantil.

Salir de la versión móvil