[ad_1]
En diciembre, Apple dijo que negó los intentos de desarrollar una herramienta de escaneo de fotografías de iCloud respetuosa con la privacidad para detectar material de abuso sexual infantil (CSAM) en la plataforma. Anunciado originalmente en agosto de 2021, el proyecto ha sido controvertido desde sus inicios. Apple lo suspendió por primera vez en septiembre en respuesta a las preocupaciones de investigadores y grupos de derechos digitales de que dicha herramienta sería inevitablemente utilizada indebidamente y explotada para comprometer la privacidad y seguridad de todos los usuarios de iCloud. Esta semana, un nuevo grupo de seguridad infantil llamado Heat Initiative le dijo a Apple que está organizando una campaña para exigir que la compañía «detecte, informe y elimine» material de abuso sexual infantil de iCloud y brinde a los usuarios más herramientas para agregar CSAM a las empresas de informes de iCloud.
Hoy, en un movimiento poco común, Apple respondió a la iniciativa Heat explicando las razones para abandonar el desarrollo de su capacidad de escaneo CSAM de iCloud y, en cambio, centrarse en un conjunto de herramientas y recursos para los usuarios en el dispositivo, denominados colectivamente funciones de seguridad de las comunicaciones. La respuesta de la compañía a la iniciativa Heat, que Apple compartió con WIRED esta mañana, ofrece una visión poco común no solo de la lógica detrás del paso a la seguridad de las comunicaciones, sino también de sus puntos de vista más amplios sobre la creación de mecanismos de elusión de la privacidad del usuario, como B. Cifrado, para monitorear datos. Esta postura es relevante para el debate más amplio sobre el cifrado, particularmente ahora que países como el Reino Unido consideran aprobar leyes que requerirían que las empresas de tecnología accedan a los datos de los usuarios para cumplir con las solicitudes de las fuerzas del orden.
«El material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coerción e influencia que deja a los niños vulnerables a ello», escribió Erik Neuenschwander, director de privacidad del usuario y seguridad infantil de Apple, en la respuesta de la compañía a la iniciativa Heat. Sin embargo, agregó que después de trabajar con varios investigadores de privacidad y seguridad, grupos de derechos digitales y defensores de la seguridad infantil, la compañía había llegado a la conclusión de que no podía continuar con el desarrollo de un mecanismo de escaneo CSAM, incluso si lo hiciera específicamente diseñado para proteger. privacidad.
«Escanear los datos de iCloud almacenados de forma privada de cada usuario crearía nuevos vectores de amenaza para que los ladrones de datos los encuentren y exploten», escribió Neuenschwander. «También conllevaría el riesgo de consecuencias no deseadas. El escaneo en busca de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y podría crear el deseo de escanear otros sistemas de mensajería cifrada en todos los tipos de contenido».
WIRED no pudo comunicarse de inmediato con Heat Initiative para comentar sobre la respuesta de Apple. El grupo está dirigido por Sarah Gardner, ex vicepresidenta de Asuntos Exteriores de la organización sin fines de lucro Thorn, que aboga por el uso de nuevas tecnologías para combatir la explotación infantil y el tráfico sexual en línea. En 2021, Thorn elogió el plan de Apple para desarrollar una capacidad de escaneo CSAM de iCloud. Gardner dijo en un correo electrónico al director ejecutivo Tim Cook el miércoles 30 de agosto, que Apple también compartió con WIRED, que Heat Initiative consideró que la decisión de Apple de eliminar la función era «decepcionante».
«Creemos firmemente que la solución que usted propone no sólo convierte a Apple en el líder mundial en privacidad del usuario, sino que también promete eliminar millones de imágenes y vídeos de abuso sexual infantil de iCloud», escribió Gardner a Cook. «Soy parte de una iniciativa en evolución que involucra a expertos y defensores de la seguridad infantil preocupados que tienen la intención de dialogar con usted y su empresa, Apple, sobre su continuo retraso en la implementación de tecnología crítica… El abuso sexual infantil es un tema difícil que nadie quiere abordar. hablar.” sobre por qué está siendo silenciado y dejado atrás. Estamos aquí para asegurarnos de que eso no suceda”.
[ad_2]