Apple rechazará las demandas para usar el sistema CSAM para la vigilancia

Steve Proehl | Corbis inédito | imágenes falsas

Apple defendió su nuevo sistema para escanear iCloud en busca de materiales ilegales de abuso sexual infantil (CSAM) el lunes durante una controversia en curso sobre si el sistema reduce la privacidad de los usuarios de Apple y podría ser utilizado por los gobiernos para vigilar a los ciudadanos.

La semana pasada, Apple anunció que había comenzado a probar un sistema que utiliza criptografía sofisticada para identificar cuándo los usuarios cargan colecciones de pornografía infantil conocida en su servicio de almacenamiento en la nube. Dice que puede hacer esto sin conocer el contenido de las fotos de un usuario almacenadas en sus servidores.

Apple reiteró el lunes que su sistema es más privado que los utilizados por empresas como Google y Microsoft porque su sistema utiliza tanto sus servidores como software que se ejecuta en iPhones.

Los defensores de la privacidad y los comentaristas de tecnología están preocupados porque el nuevo sistema de Apple, que incluye software que se instalará en los iPhone de las personas a través de una actualización de iOS, podría ampliarse en algunos países a través de nuevas leyes para verificar otros tipos de imágenes, como fotos con contenido político. de solo pornografía infantil.

Apple dijo en un documento publicado en su sitio web el domingo que los gobiernos no pueden obligarlo a agregar imágenes que no sean CSAM a una lista hash, o el archivo de números que corresponden a imágenes conocidas de abuso infantil que Apple distribuirá a los iPhones para habilitar el sistema.

«Apple rechazará tales demandas. La capacidad de detección CSAM de Apple está construida únicamente para detectar imágenes CSAM conocidas almacenadas en iCloud Photos que han sido identificadas por expertos en NCMEC y otros grupos de seguridad infantil», dijo Apple en el documento. «Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro».

Continuó: «Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla».

Algunos criptógrafos están preocupados sobre lo que podría suceder si un país como China aprobara una ley que diga que el sistema también debe incluir imágenes políticamente sensibles. El director ejecutivo de Apple, Tim Cook, ha dicho anteriormente que la empresa sigue las leyes de todos los países en los que realiza negocios.

Las empresas en los EE. UU. Deben reportar CSAM al Centro Nacional para Niños Desaparecidos y Explotados y enfrentan multas de hasta $ 300,000 cuando descubren imágenes ilegales y no las reportan.

Una reputación de privacidad

La reputación de Apple de defender la privacidad se ha cultivado durante años a través de sus acciones y marketing. En 2016, Apple se enfrentó al FBI en la corte para proteger la integridad de sus sistemas de cifrado en el dispositivo en la investigación de un tirador masivo.

Pero Apple también se ha enfrentado a una presión significativa por parte de los funcionarios encargados de hacer cumplir la ley sobre la posibilidad de que los delincuentes «se apaguen» o utilicen herramientas de privacidad y cifrado para evitar que los mensajes u otra información estén al alcance de las fuerzas del orden.

La controversia sobre el nuevo sistema de Apple, y si se trata de vigilar a los usuarios, amenaza la reputación pública de Apple de construir dispositivos seguros y privados, que la compañía ha utilizado para ingresar a nuevos mercados en finanzas personales y atención médica.

A los críticos les preocupa que el sistema funcione parcialmente en un iPhone, en lugar de escanear solo las fotos que se han subido a los servidores de la empresa. Los competidores de Apple normalmente solo escanean fotos almacenadas en sus servidores.

«Es realmente decepcionante que Apple se obsesionó tanto con su visión particular de la privacidad que terminó traicionando el punto de apoyo del control del usuario: poder confiar en que su dispositivo es verdaderamente suyo», escribió el comentarista de tecnología Ben Thompson en un boletín informativo el lunes.

Apple continúa defendiendo sus sistemas como una mejora genuina que protege a los niños y reducirá la cantidad de CSAM que se crea al mismo tiempo que protege la privacidad del usuario del iPhone.

Apple dijo que su sistema es significativamente más fuerte y más privado que los sistemas anteriores por cada métrica de privacidad que la compañía rastrea y que hizo todo lo posible para construir un mejor sistema para detectar estas imágenes ilegales.

A diferencia de los sistemas actuales, que se ejecutan en la nube y no pueden ser inspeccionados por investigadores de seguridad, el sistema de Apple se puede inspeccionar a través de su distribución en iOS, dijo un representante de Apple. Al mover parte del procesamiento al dispositivo del usuario, la empresa puede obtener propiedades de privacidad más sólidas, como la capacidad de encontrar coincidencias de CSAM sin ejecutar software en los servidores de Apple que verifican cada foto.

Apple dijo el lunes que su sistema no escanea bibliotecas de fotos privadas que no se hayan subido a iCloud.

Apple también confirmó que procesará las fotos que ya se han subido a iCloud. Los cambios se implementarán a través de una actualización de iPhone a finales de este año, después de lo cual se alertará a los usuarios de que Apple está comenzando a verificar las tiendas de fotos en iCloud con una lista de huellas dactilares que corresponden a CSAM conocido, dijo Apple.

Salir de la versión móvil