Miembros del sector público, el sector privado y la academia se reunieron el mes pasado para el segundo Simposio del Foro de Políticas de IA para examinar las direcciones críticas y los problemas planteados por la inteligencia artificial en nuestras economías y sociedades.
El evento virtual, organizado por el AI Policy Forum (AIPF), un esfuerzo del MIT Schwarzman College of Computing para conectar los principios de alto nivel de la política de IA con las prácticas y las compensaciones de la gobernanza, reunió a varios panelistas distinguidos para profundizar más profundo en cuatro temas transversales: derecho, auditoría, salud y movilidad.
Durante el último año ha habido cambios significativos en el panorama regulatorio y de políticas en torno a la IA en varios países, sobre todo en Europa con el desarrollo de la Ley de Inteligencia Artificial de la Unión Europea, el primer intento de un regulador importante de proponer una ley de inteligencia artificial. En los Estados Unidos, la Ley de Iniciativa Nacional de IA de 2020, que entró en vigencia en enero de 2021, establece un programa coordinado en todo el gobierno federal para acelerar la investigación y aplicación de IA para la prosperidad económica y las ganancias de seguridad. Finalmente, China promulgó recientemente varias nuevas regulaciones propias.
Cada uno de estos desarrollos representa un enfoque diferente de la legislación de IA, pero ¿qué hace que una ley de IA sea buena? ¿Y cuándo debería basarse la legislación de IA en normas vinculantes con sanciones en lugar de directrices voluntarias?
Jonathan Zittrain, profesor de derecho internacional en la Facultad de Derecho de Harvard y director del Centro Berkman Klein para Internet y la Sociedad, dice que el enfoque de autorregulación adoptado durante la expansión de Internet tuvo sus limitaciones, ya que las empresas lucharon por alinear sus intereses con los de conciliar los de su propia industria y público.
«Una lección podría ser que es una buena idea que el gobierno representativo tome medidas desde el principio», dice. “Solo los desafía el hecho de que parece haber dos fases en este entorno regulatorio. Primero, demasiado pronto para decirlo, y segundo, demasiado tarde para hacer algo al respecto. Creo que mucha gente diría que todavía estamos en la etapa inicial de la IA, pero dado que no hay una zona intermedia antes de que sea demasiado tarde, es posible que aún necesite regulación».
Un tema que siguió surgiendo durante el primer panel sobre leyes de IA, una conversación moderada por Dan Huttenlocher, decano del MIT Schwarzman College of Computing y presidente del AI Policy Forum, fue la noción de confianza. «Si me dijeras la verdad constantemente, diría que eres una persona honesta. Si la IA pudiera ofrecer algo similar, algo que pueda decir que es consistente y equitativo, entonces diría que es una IA confiable”, dice Bitange Ndemo, profesor de Emprendimiento en la Universidad de Nairobi y exsecretario permanente del Ministerio de Información y Tecnología de Kenia. Comunicaciones.
Eva Kaili, vicepresidenta del Parlamento Europeo, añade: «En Europa, cada vez que usas algo, como cualquier medicamento, sabes que ha sido revisado. Sabes que puedes confiar en él. Sabes que los controles están ahí. Necesitamos hacer lo mismo con la IA”. Kalli enfatiza además que generar confianza en los sistemas de IA no solo llevará a las personas a usar más aplicaciones de manera segura, sino que la propia IA se beneficiará a medida que genere mayores cantidades de datos.
El rápido aumento de la aplicabilidad de la IA en todos los campos ha llevado a la necesidad de abordar tanto las oportunidades como los desafíos que presentan las nuevas tecnologías y el impacto que tienen en cuestiones sociales y éticas como la privacidad, la equidad, el sesgo, la transparencia y la responsabilidad. En el cuidado de la salud, por ejemplo, las nuevas técnicas de aprendizaje automático se han mostrado tremendamente prometedoras para mejorar la calidad y la eficiencia, pero los problemas de equidad, acceso y privacidad de datos, seguridad y confiabilidad, e inmunología y vigilancia de la salud global siguen siendo frecuentes.
Marzyeh Ghassemi del MIT, profesor asistente en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación y el Departamento de Ingeniería y Ciencias Médicas, y David Sontag, profesor asociado de Ingeniería Eléctrica y Ciencias de la Computación, colaboraron con Ziad Obermeyer, profesor asociado de política y gestión de la salud en la Escuela de Salud Pública de la Universidad de California en Berkeley para organizar AIPF Health Wide Reach, una serie de sesiones para discutir el intercambio de datos y los problemas de privacidad en la IA clínica. Los organizadores reunieron a expertos de todo el mundo involucrados en IA, políticas y salud con el objetivo de comprender qué se puede hacer para derribar las barreras para acceder a datos de salud de alta calidad a fin de avanzar en resultados de investigación más innovadores, sólidos e inclusivos y al mismo tiempo. al mismo tiempo ser respetuoso con la privacidad del paciente.
Durante el transcurso de la serie, los miembros del grupo presentaron un área de especialización y se les asignó la tarea de proponer enfoques de políticas concretas para el desafío discutido. Sobre la base de estas amplias conversaciones, los participantes presentaron sus hallazgos durante el simposio, incluidas historias de éxito de modelos sin fines de lucro, gubernamentales y de acceso restringido; demostraciones al alza; marco legal, regulación y financiamiento; enfoques técnicos para la protección de la privacidad; e infraestructura e intercambio de datos. Luego, el grupo discutió algunas de sus recomendaciones, que se resumirán en un próximo informe.
Uno de los resultados llama a la necesidad de hacer más datos disponibles para fines de investigación. Las recomendaciones que surgen de este hallazgo incluyen la actualización de las regulaciones que fomentan el intercambio de datos para permitir un acceso más fácil a refugios seguros, como los requeridos por la Ley de Portabilidad y Responsabilidad de Seguros Médicos (HIPAA, por sus siglas en inglés) para la anonimización, y la expansión de la financiación de las instalaciones de atención médica privadas para conservar los registros, entre otras. . Otro hallazgo de eliminar las barreras de datos para los investigadores respalda una recomendación para reducir las barreras a la investigación y el desarrollo de datos de salud producidos a nivel federal. «Si se trata de datos que deberían ser accesibles porque están siendo financiados por una agencia federal, simplemente deberíamos establecer los pasos que serán parte de hacerlos accesibles para que haya un conjunto más completo y equitativo de oportunidades de investigación para todos», dice. Ghassemi. El grupo también recomienda examinar cuidadosamente los principios éticos que rigen el intercambio de datos. Aunque ya se han propuesto muchos principios sobre esto, Ghassemi dice que «por supuesto que no puedes operar todas las palancas o botones al mismo tiempo, pero creemos que es una compensación que es muy importante que se piense inteligentemente». «
Además de la ley y la atención médica, durante el evento se exploraron otras facetas de la política de IA, incluida la auditoría y el monitoreo de los sistemas de IA a escala, así como el papel de la IA en la movilidad y la gama de desafíos técnicos, comerciales y de políticas, particularmente para vehículos autónomos.
El Simposio del Foro de Políticas de IA fue un intento de reunir a las comunidades de práctica en torno al objetivo común de diseñar el próximo capítulo de la IA. En sus comentarios de clausura, Aleksander Madry, profesor de informática de Cadence Designs Systems en el MIT y copresidente del AI Policy Forum, enfatizó la importancia de la colaboración y la necesidad de que diversas comunidades se comuniquen entre sí para tener un impacto real en el campo de la política de IA.
«El sueño aquí es que todos podamos reunirnos (investigadores, industria, legisladores y otras partes interesadas) y realmente hablar entre nosotros, entender las preocupaciones de los demás y pensar en soluciones juntos», dijo Madry. “Esa es la misión del AI Policy Forum y queremos hacerlo posible”.