[ad_1]
Clearview AI, la controvertida empresa de reconocimiento facial que extrae selfies y otros datos personales de Internet sin consentimiento para alimentar un servicio de comparación de identidades impulsado por IA que vende a las fuerzas del orden y otros, ha sido multada nuevamente en Europa.
Esto se produce después de que no respondiera a una orden del año pasado de la CNIL, la autoridad francesa de protección de datos, para detener el procesamiento ilegal de la información de los ciudadanos franceses y borrar sus datos.
Clearview respondió a esta orden haciendo que el regulador fuera «fantasma», agregando una tercera violación de GDPR (falta de cooperación con el regulador) a su registro anterior.
Aquí está el resumen de la CNIL de las violaciones de Clearview:
- Procesamiento ilegal de datos personales (violación del Art. 6 RGPD)
- Derechos individuales no respetados (Artículos 12, 15 y 17 del RGPD)
- Falta de cooperación con la CNIL (Artículo 31 del RGPD)
“Clearview AI tenía dos meses para cumplir con las órdenes formuladas en la solicitud y justificarlas ante la CNIL. Sin embargo, esto no sucedió no responder a esta comunicación formal”, escribió hoy la CNIL en un comunicado de prensa anunciando la sanción. [emphasis its].
“Por lo tanto, el presidente de la CNIL ha decidido remitir el asunto al comité selecto a cargo de imponer sanciones. Con base en la información puesta en su conocimiento, el Comité Selecto decidió imponer una multa máxima de 20 millones de eurossegún el artículo 83 del RGPD [General Data Protection Regulation].»
GDPR tiene sanciones de hasta el 4% de la facturación anual global de una empresa para las infracciones más graves, o 20 millones de euros, lo que sea mayor. Pero el comunicado de prensa de la CNIL deja claro que está imponiendo aquí la cantidad máxima posible.
Sin embargo, queda por ver si Francia verá ni un centavo de este dinero de Clearview.
El stripper de privacidad con sede en EE. UU. se ha enfrentado a una serie de sanciones de otros reguladores de privacidad en toda Europa en los últimos meses, incluidas multas de 20 millones de euros de Italia y Grecia; y una sanción menor en el Reino Unido. Pero no está claro que haya entregado dinero a ninguna de esas agencias, y tienen recursos limitados (y medios legales) para tratar de rastrear los pagos de Clearview fuera de sus propias fronteras.
Por lo tanto, las sanciones del RGPD en su mayoría parecen una advertencia para mantenerse alejado de Europa.
La agencia de relaciones públicas de Clearview, LakPR Group, nos envió esta declaración luego de la sanción de la CNIL, que atribuye al director ejecutivo Hoan Ton-That:
“No hay forma de determinar si una persona tiene ciudadanía francesa solo a partir de una foto pública encontrada en Internet y, por lo tanto, es imposible eliminar los datos de los residentes franceses. Clearview AI solo recopila información disponible públicamente en Internet, al igual que cualquier otro motor de búsqueda como Google, Bing o DuckDuckGo”.
La declaración reitera las afirmaciones anteriores de Clearview de que no tiene un lugar de negocios en Francia o la UE y no realiza ninguna actividad que «de otro modo significaría que está sujeto al RGPD», dice, y agrega: «La base de datos de Clearview AI de imágenes disponibles públicamente se recopila legítimamente, al igual que cualquier otro motor de búsqueda como Google”.
(Nota: en papel, el RGPD tiene un alcance extraterritorial, por lo que sus argumentos anteriores no tienen sentido, mientras que su afirmación de que no está haciendo nada que lo someta al RGPD parece absurda dado que tiene una base de datos de más de 20 mil millones de imágenes acumuladas. en todo el mundo, y Europa es, um, parte del planeta Tierra…)
La declaración de Ton-That también reitera una afirmación muy citada en las declaraciones públicas de Clearview, en respuesta a la avalancha de sanciones regulatorias que su negocio está trayendo, de que desarrolló su tecnología de reconocimiento facial con el «propósito de hacer que las comunidades sean más seguras y… Para ayudar aplicación de la ley para resolver problemas atroces crímenes contra niños, ancianos y otras víctimas de actos sin escrúpulos” – no monetizar a través de la explotación ilegal de la privacidad de las personas – en cualquier caso un motivo “puro” no haría ninguna diferencia en su obligación bajo la ley europea un una Base jurídica para el tratamiento de los datos de las personas físicas en absoluto.
“Recopilamos datos públicos solo de Internet abierto y cumplimos con todos los estándares legales y de privacidad. Me rompe el corazón que algunos en Francia, donde no hacemos negocios, estén malinterpretando la tecnología de Clearview AI a la sociedad. Mis intenciones y las de mi empresa siempre han sido ayudar a las comunidades y su gente a vivir una vida mejor y más segura”, concluye el PR de Clearview.
Cada vez que ha recibido una sanción de un regulador internacional, ha hecho lo mismo: negar que haya cometido una infracción y refutar que el organismo extranjero tenga jurisdicción sobre sus asuntos, de ahí su estrategia, con el fin de eludir su propia anarquía en datos. procesamiento, simplemente por no cooperar con las autoridades reguladoras fuera de los Estados Unidos.
Obviamente, esto solo funciona si planea que sus ejecutivos/empleados senior nunca pongan un pie en las áreas donde su empresa está bajo sanciones y renuncien a cualquier noción de vender los servicios sancionados a clientes extranjeros. (El año pasado, la Agencia Sueca de Protección de Datos también multó a una agencia de policía local por usar Clearview ilegalmente, por lo que los reguladores europeos también pueden tomar medidas enérgicas contra cualquier demanda local si es necesario).
En su tierra natal, Clearview finalmente tuvo que enfrentar algunas líneas rojas legales en los últimos tiempos.
A principios de este año, acordó resolver una demanda que lo acusaba de violar una ley de Illinois que prohíbe el uso de datos biométricos por parte de personas sin consentimiento. El acuerdo incluía que Clearview aceptó algunas limitaciones en su capacidad para vender su software a la mayoría de las empresas de EE. UU., pero aun así promocionó el resultado como una «gran victoria» y afirmó que podría evitar el veredicto vendiendo su algoritmo (en lugar de acceder a su base de datos) — a empresas privadas en los EE. UU.
La necesidad de empoderar a los reguladores para ordenar la eliminación (o el retiro del mercado) de algoritmos entrenados en datos procesados ilegítimamente parece ser una actualización importante de sus cajas de herramientas si queremos evitar una distopía impulsada por la IA.
Y da la casualidad de que la próxima ley de IA de la UE puede incluir tal poder, dependiendo del análisis legal del marco propuesto.
El bloque también presentó recientemente un plan para una política de responsabilidad de IA, con el que pretende promover el cumplimiento de la ley de IA más amplia, al vincular el cumplimiento con un riesgo reducido de que los constructores, operadores, usuarios, etc. de modelos de IA tengan éxito. demandado si es probable que sus productos causen una variedad de daños, incluida la privacidad de las personas.
[ad_2]