[ad_1]
¿Cuáles son las posibilidades de morir en un accidente aéreo? Según un informe de 2022 de la Asociación Internacional de Transporte Aéreo, el riesgo de muerte en la industria es del 0,11. En otras palabras, en promedio, una persona tendría que volar todos los días durante 25.214 años para tener un 100 por ciento de posibilidades de sufrir un accidente fatal. La industria aérea altamente regulada, considerada durante mucho tiempo como una de las formas de transporte más seguras, lleva a los científicos del MIT a creer que podría ser clave para regular la inteligencia artificial en la atención médica.
Marzyeh Ghassemi, profesora asistente en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS) del MIT y el Instituto de Ciencias de la Ingeniería Médica, y Julie Shah, profesora HN Slater de Aeronáutica y Astronáutica en el MIT, comparten el interés en los desafíos de la transparencia en los modelos de IA. . Después de una conversación a principios de 2023, se dieron cuenta de que la aviación podría servir como modelo para garantizar que los pacientes marginados no se vean perjudicados por modelos de IA sesgados.
Ghassemi, quien también es investigador principal de la Clínica Abdul Latif Jameel de Aprendizaje Automático en Salud del MIT (Clínica Jameel) y del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL), y Shah reclutaron un equipo interdisciplinario de investigadores, abogados y expertos en políticas. analistas del MIT, la Universidad de Stanford, la Federación de Científicos Estadounidenses, la Universidad de Emory, la Universidad de Adelaida, Microsoft y la Universidad de California en San Francisco para lanzar un proyecto de investigación cuyos resultados fueron aceptados recientemente en la conferencia Equidad y Acceso en Algoritmos, Mecanismos y Optimización.
«Creo que puedo hablar por Marzyeh y por mí cuando digo que estamos muy entusiasmados de ver surgir cierto entusiasmo por la IA en la sociedad», dice la autora principal Elizabeth Bondi-Kelly, ahora profesora asistente de EECS en la Universidad de Michigan. , que era becario postdoctoral en el laboratorio de Ghassemi al inicio del proyecto. “Pero también somos un poco cautelosos y queremos asegurarnos de que sea posible contar con marcos para gestionar los riesgos potenciales a medida que comiencen estos despliegues. Así que buscamos inspiración para encontrar formas de hacerlo más fácil”.
La IA en la atención sanitaria actual es similar a la industria de la aviación hace un siglo, dice la coautora Lindsay Sanneman, candidata a doctorado en el Departamento de Aeronáutica y Astronáutica del MIT. Aunque la década de 1920 fue conocida como “la Edad de Oro de la Aviación”, hubo “un número inquietantemente alto de accidentes fatales”, según el Centro Mackinac de Políticas Públicas.
Jeff Marcus, actual jefe de la División de Recomendaciones de Seguridad de la Junta Nacional de Seguridad en el Transporte (NTSB), publicó recientemente una publicación de blog para el Mes Nacional de la Aviación en la que señaló que, si bien hubo varios accidentes fatales en la década de 1920, en 1929 los «peores año desde que comenzaron los registros” es el accidente de aviación más mortífero de la historia con 51 accidentes reportados. Según los estándares actuales, esto equivaldría a 7.000 accidentes al año, es decir, 20 al día. En respuesta al elevado número de accidentes mortales ocurridos en la década de 1920, el presidente Calvin Coolidge aprobó una ley histórica en 1926, la Ley de Comercio Aéreo, que regularía los viajes aéreos a través del Departamento de Comercio.
Pero los paralelos no terminan ahí: el camino posterior de la aviación hacia la automatización es similar al de la IA. La explicabilidad de la IA ha sido un tema polémico dado el infame problema de la «caja negra» de la IA, en el que los investigadores de IA debaten hasta qué punto un modelo de IA debe «explicar» su resultado al usuario antes de engañarlo para que siga ciegamente las instrucciones del modelo. .
«En la década de 1970 hubo un nivel creciente de automatización… sistemas de piloto automático que advertían a los pilotos de los riesgos», añade Sanneman. «En términos de interacción humana con el sistema autónomo, ha habido algunos problemas cada vez mayores a medida que la automatización ha entrado en la aviación; surge una posible confusión cuando el piloto no sabe exactamente qué está haciendo la automatización».
Convertirse en capitán de una aerolínea comercial hoy en día requiere 1.500 horas de vuelo y entrenamiento instrumental. Según el trabajo de los investigadores, este proceso riguroso e integral, que incluye la licenciatura y el copiloto, dura alrededor de 15 años. Los investigadores creen que el éxito de la formación piloto integral podría ser un modelo potencial para formar a los médicos en el uso de herramientas de IA en entornos clínicos.
El documento también sugiere alentar los informes sobre instrumentos de IA para la salud inseguros, como lo hace la Agencia Federal de Aviación (FAA) con los pilotos, a través de una «inmunidad limitada» que permite a los pilotos conservar su licencia después de haber hecho algo inseguro, siempre y cuando no haya sido intencional.
Según un informe publicado en 2023 por la Organización Mundial de la Salud, en promedio uno de cada 10 pacientes sufrirá daños por un evento adverso (es decir, “errores médicos”) durante la atención hospitalaria en los países de altos ingresos.
Sin embargo, en la práctica actual de atención de salud, los médicos y trabajadores de la salud a menudo tienen miedo de informar errores médicos, no sólo por preocupaciones sobre la culpa y la autocrítica, sino también por las consecuencias negativas que enfatizan el castigo de los individuos, como la revocación de un título médico. licencia, en lugar de reformar el sistema que hizo que los errores médicos fueran más probables.
«Cuando falla el martillo de la atención sanitaria, los pacientes sufren», escribió Ghassemi en un artículo de opinión reciente publicado en naturaleza comportamiento humano. «Esta realidad plantea un riesgo ético inaceptable para las comunidades médicas de IA que ya están luchando con problemas de atención complejos, escasez de personal y sistemas abrumados».
Grace Wickerson, coautora y gerente de políticas de equidad en salud de la Federación de Científicos Estadounidenses, ve este nuevo artículo como una adición fundamental a un marco de gobernanza más amplio que aún no existe. «Creo que podemos lograr mucho con el poder gubernamental existente», afirman. “Hay diferentes maneras en que Medicare y Medicaid pueden pagar la atención médica. IA que garantiza que se considere la equidad en sus tecnologías de compra o reembolso, según el NIH [National Institute of Health] puede financiar más investigaciones para hacer que los algoritmos sean más justos y desarrollar estándares para esos algoritmos que luego podrían ser utilizados por la FDA [Food and Drug Administration] mientras intentan descubrir qué significa equidad en salud y cómo se regulan dentro de sus agencias actuales”.
Entre otras cosas, el documento enumera seis agencias gubernamentales clave existentes que podrían ayudar a regular la IA en salud, incluidas: la FDA, la Comisión Federal de Comercio (FTC), la recientemente creada Agencia de Proyectos de Investigación Avanzada para la Salud, la Agencia para la Investigación y la Calidad de la Atención Médica, los Centros de Medicare y Medicaid, el Departamento de Salud y Servicios Humanos y la Oficina de Derechos Civiles (OCR).
Pero Wickerson dice que es necesario hacer más. El mayor desafío al escribir el artículo, dijo Wickerson, fue «imaginar lo que aún no tenemos».
En lugar de depender únicamente de los reguladores existentes, el documento también propone la creación de una junta de revisión independiente similar a la NTSB que proporcionaría auditorías de seguridad para los sistemas defectuosos de IA en atención médica.
«Creo que esa es la cuestión actual para la gobernanza tecnológica: realmente no hemos tenido un organismo que evalúe el impacto de la tecnología desde los años 90», añade Wickerson. «Solía haber una Oficina de Evaluación de Tecnología… incluso antes de que comenzara la era digital, esta oficina existía, y luego el gobierno federal permitió que se hundiera».
Zach Harned, coautor y recién graduado de la Facultad de Derecho de Stanford, cree que uno de los mayores desafíos de las nuevas tecnologías es que el desarrollo tecnológico avanza más rápido que la regulación. «Sin embargo, la importancia de la tecnología de inteligencia artificial y los posibles beneficios y riesgos que conlleva, particularmente en el ámbito de la atención médica, han llevado a una oleada de esfuerzos regulatorios», dice Harned. “La FDA es claramente el actor clave en este caso y ha publicado periódicamente directrices y documentos técnicos para ilustrar su posición cambiante respecto de la IA; Sin embargo, la privacidad será otra área importante a tener en cuenta con la aplicación de OCR según HIPAA. [Health Insurance Portability and Accountability Act] Page y la FTC, que imponen violaciones de datos para empresas no cubiertas por HIPAA”.
Harned señala que el campo está evolucionando rápidamente, incluidos avances como la reciente Orden Ejecutiva 14110 de la Casa Blanca sobre el desarrollo seguro y confiable de la IA, así como la actividad regulatoria en la Unión Europea (UE), incluida la crucial ley de IA de la UE que es inminente. terminación. «Ciertamente es un momento emocionante para ver cómo se desarrolla y regula esta importante tecnología para garantizar la seguridad sin sofocar la innovación», afirma.
Además de las actividades regulatorias, el documento sugiere otras formas de incentivar herramientas de inteligencia artificial más seguras en la atención médica, como un programa de pago por desempeño en el que las compañías de seguros recompensan a los hospitales por su buen desempeño (aunque los investigadores reconocen que este enfoque requeriría supervisión adicional). Sé justo).
Entonces, ¿cuánto tiempo creen los investigadores que llevará crear un sistema regulador que funcione para la IA sanitaria? Según el documento, “el sistema NTSB y FAA, en el que las investigaciones y la aplicación de la ley se llevan a cabo en dos órganos separados, fue creado por el Congreso durante décadas”.
Bondi-Kelly espera que el artículo sea una pieza del rompecabezas de la regulación de la IA. En su opinión, «el escenario soñado sería que todos leáramos el periódico y estemos súper inspirados y pudiéramos aplicar algunas de las lecciones útiles de la aviación para ayudar a la IA a prevenir algunos de los daños potenciales que podrían ocurrir».
Además de Ghassemi, Shah, Bondi-Kelly y Sanneman, los coautores del artículo del MIT incluyen al científico investigador principal Leo Anthony Celi y a los ex postdoctorados Thomas Hartvigsen y Swami Sankaranarayanan. La financiación para el trabajo fue proporcionada en parte por una beca MIT CSAIL METEOR, Quanta Computing, la Fundación Volkswagen, los Institutos Nacionales de Salud, la Cátedra de Desarrollo Profesional Herman LF von Helmholtz y un Premio CIFAR Azrieli Global Scholar.
[ad_2]