[ad_1]

Microsoft ha cambiado su política que prohíbe a los departamentos de policía de EE. UU. utilizar IA generativa para el reconocimiento facial a través del servicio Azure OpenAI, el contenedor totalmente administrado y centrado en la empresa de la compañía en torno a las tecnologías OpenAI.

El miércoles, se agregó un texto a los términos de servicio del servicio Azure OpenAI que prohíbe que las integraciones con el servicio Azure OpenAI sean utilizadas «por o para» los departamentos de policía para el reconocimiento facial en los EE. UU., incluidas las integraciones con los modelos de análisis de texto y voz de OpenAI.

Un nuevo punto separado cubre «cualquier agencia policial en todo el mundo» y prohíbe específicamente el uso de «tecnología de reconocimiento facial en tiempo real» en cámaras móviles, como cámaras corporales y cámaras de tablero, para intentar identificar a una persona en entornos «salvajes no controlados». .

Los cambios en los términos se producen una semana después de que Axon, un fabricante de tecnología y productos de armas para militares y fuerzas del orden, anunciara un nuevo producto que utiliza el modelo de texto generativo GPT-4 de OpenAI para resumir el audio de las cámaras corporales. Los críticos se apresuraron a señalar peligros potenciales, como alucinaciones (incluso los mejores modelos generativos de IA ahora inventan hechos) y prejuicios raciales que surgen de los datos del entrenamiento (lo cual es particularmente preocupante ya que las personas de color tienen muchas más probabilidades de ser detenidas por la policía). ). que sus colegas blancos).

No está claro si Axon utilizó GPT-4 a través del servicio Azure OpenAI y, de ser así, si la política actualizada fue en respuesta al lanzamiento del producto de Axon. OpenAI había restringido previamente el uso de sus modelos para reconocimiento facial a través de sus API. Nos hemos puesto en contacto con Axon, Microsoft y OpenAI y actualizaremos esta publicación si recibimos respuesta.

Las nuevas condiciones dan margen de maniobra a Microsoft.

La prohibición total del uso del servicio Azure OpenAI se aplica solo en Estados Unidos, No internacional, policía. Y no cubre el reconocimiento facial que se hace con estacionario Cámaras en revisado Entornos como una oficina administrativa (aunque los términos prohíben cualquier uso de reconocimiento facial por parte de la policía de EE. UU.).

Esto se alinea con el enfoque reciente de Microsoft y su socio cercano OpenAI hacia los contratos de defensa y aplicación de la ley relacionados con la IA.

En enero, un informe de Bloomberg reveló que OpenAI estaba trabajando con el Pentágono en una serie de proyectos, incluidas capacidades de ciberseguridad, una desviación de la prohibición anterior de la startup de proporcionar su IA al ejército. Por otra parte, según The Intercept, Microsoft ha propuesto utilizar la herramienta de imágenes DALL-E de OpenAI para ayudar al Departamento de Defensa (DoD) a desarrollar software para realizar operaciones militares.

El servicio Azure OpenAI estuvo disponible en el producto Azure Government de Microsoft en febrero, proporcionando capacidades adicionales de cumplimiento y gestión para agencias gubernamentales, incluidas las fuerzas del orden. En una publicación de blog, Candice Ling, vicepresidenta senior de la división gubernamental de Microsoft, Microsoft Federal, prometió que el servicio Azure OpenAI sería «presentado para aprobación adicional» al Departamento de Defensa para cargas de trabajo en apoyo de misiones de defensa.

Actualizar: Después de la publicación, Microsoft dijo que el cambio de términos de servicio originales contenía un error y que la prohibición en realidad solo se aplica al reconocimiento facial en los EE. UU. Esta no es una prohibición general para que los departamentos de policía utilicen el servicio.

[ad_2]