[ad_1]
«El marco permite un conjunto de requisitos obligatorios para que las agencias federales establezcan salvaguardas para el uso de la IA para que podamos obtener los beneficios y permitir que el público confíe en los servicios proporcionados por el gobierno federal», dijo Jason Miller, subdirector de OMB para la gestión.
El borrador del memorando destaca usos específicos de la IA en los que la tecnología puede afectar los derechos o la seguridad, incluso en la atención médica, la vivienda y la aplicación de la ley, todas situaciones en las que los algoritmos históricamente han resultado en discriminación o denegación de servicios.
Los ejemplos de posibles riesgos de seguridad mencionados en el borrador de la OMB incluyen la automatización de infraestructura crítica como presas y vehículos autónomos como el robotaxis Cruise, que fueron cerrados en California la semana pasada y están siendo investigados por reguladores federales y estatales después de que un peatón fuera atropellado. atropellado por un vehículo atropellado fue remolcado 20 pies. Los ejemplos de cómo la IA podría violar los derechos de los ciudadanos en el borrador del memorando incluyen vigilancia policial predictiva, IA que puede bloquear el discurso protegido, software de detección de plagio o emociones, algoritmos de selección de inquilinos y sistemas relacionados con la inmigración o la custodia de los niños que pueden afectar a los niños.
Según la OMB, las agencias federales utilizan actualmente más de 700 algoritmos, aunque los inventarios proporcionados por las agencias federales están incompletos. Miller dice que el borrador del memorando requiere que las agencias federales revelen más sobre los algoritmos que utilizan. «Esperamos mejorar la capacidad de las agencias para identificar e informar sobre sus casos de uso en las próximas semanas y meses», afirma.
La vicepresidenta Kamala Harris mencionó el memorando de la OMB, entre otras iniciativas responsables de IA, en un discurso hoy en la Embajada de Estados Unidos en Londres para la Cumbre de Seguridad de IA del Reino Unido esta semana. Dijo que si bien algunas voces en la política de IA se centran en riesgos catastróficos, como el papel que la IA podría desempeñar algún día en los ciberataques o el desarrollo de armas biológicas, la IA ya está amplificando los prejuicios y la desinformación y afectan a las personas a diario. impactar a las comunidades.
Merve Hickok, autora de un libro de próxima aparición sobre políticas de adquisición de IA y presidenta del Centro para la IA y la Política Digital, una organización sin fines de lucro, acoge con satisfacción que el memorando de la OMB requiera que las agencias justifiquen su uso de la IA y otorguen a individuos específicos la responsabilidad de la tecnología a asignar. Se trata de una forma potencialmente eficaz de garantizar que la IA no se incorpore a todos los programas gubernamentales, afirma Hickok, que también es profesor de la Universidad de Michigan.
Pero teme que proporcionar exenciones podría socavar estos mecanismos. «Me preocuparía que viéramos que las agencias hicieran un uso extensivo de esta exención, en particular las fuerzas del orden, la seguridad nacional y la vigilancia», dice. «Una vez que reciben la exención, ésta puede durar indefinidamente».
[ad_2]