[ad_1]
(noticias nanowerk) Para examinar el estado global de la ética de la IA, un equipo de investigadores de Brasil realizó una revisión sistemática y un metanálisis de las pautas globales para el uso de la IA.
Las tesis centrales
Investigación
Publicación en la revista. Patrón (“Ética global de la IA: una revisión de 200 directrices y recomendaciones para la gobernanza de la IA”), los investigadores descubrieron que, si bien la mayoría de las directrices hacían hincapié en la privacidad, la transparencia y la responsabilidad, muy pocas hacían hincapié en la veracidad, la propiedad intelectual o valoraban los derechos de los niños. Además, la mayoría de las directrices describían principios y valores éticos sin sugerir métodos prácticos para su implementación y sin impulsar una regulación jurídicamente vinculante.
«Establecer directrices éticas claras y estructuras de gobernanza para el uso global de la IA es el primer paso para promover la confianza, mitigar sus riesgos y garantizar que sus beneficios se distribuyan de manera justa», dice el científico social y coautor James William Santos de la Pontificia Universidad Católica. de Río Grande del Sur.
«El trabajo anterior se ha centrado predominantemente en documentos norteamericanos y europeos, lo que nos llevó a buscar e incorporar activamente perspectivas de regiones como Asia, América Latina, África y más allá», dice el autor principal Nicholas Kluge Corrêa de la Pontificia Universidad Católica de Rio Grande. do Sul y la Universidad de Bonn.
Para determinar si existe un consenso global con respecto al desarrollo y uso ético de la IA y guiar dicho consenso, los investigadores realizaron una revisión sistemática de las políticas y directrices éticas publicadas entre 2014 y 2022. A partir de esto, identificaron 200 documentos relacionados con la ética y la gobernanza de la IA de 37 países y seis continentes, escritos o traducidos a cinco idiomas diferentes (inglés, portugués, francés, alemán y español). Estos documentos incluían recomendaciones, directrices prácticas, marcos de políticas, orientación jurídica y códigos de conducta.
Luego, el equipo realizó un metanálisis de estos documentos para identificar los principios éticos más comunes, examinar su distribución en todo el mundo y evaluar los sesgos con respecto a los tipos de organizaciones o individuos que producen estos documentos.
Los investigadores encontraron que los principios más comunes fueron transparencia, seguridad, equidad, privacidad y responsabilidad, apareciendo en el 82,5%, 78%, 75,5%, 68,5% y 67% de los documentos, respectivamente. Los principios menos comunes fueron los derechos laborales, la veracidad, la propiedad intelectual y los derechos de la infancia y la juventud, que aparecieron en el 19,5%, 8,5%, 7% y 6% de los documentos, y los autores destacan que estos principios merecen más atención. Por ejemplo, la veracidad (la idea de que la IA debe proporcionar información veraz) se está volviendo cada vez más relevante con el lanzamiento de tecnologías de IA generativa como ChatGPT. Y dado que la IA tiene el potencial de desplazar a los trabajadores y cambiar la forma en que trabajamos, se deben tomar medidas prácticas para evitar el desempleo masivo o los monopolios.
La mayoría (96%) de las directrices eran “normativas” (describían valores éticos que deberían tenerse en cuenta en el desarrollo y uso de la IA), mientras que sólo el 2% recomendaba métodos prácticos para implementar la ética de la IA y sólo el 4,5% proponía formas legalmente vinculantes de Regulación de la IA.
«La mayoría de ellos son compromisos voluntarios que dicen: ‘Estos son algunos principios que son importantes para nosotros’, pero carecen de implementación práctica y requisitos legales», dice Santos. “Si intenta desarrollar sistemas de IA o utilizar sistemas de IA en su empresa, debe respetar aspectos como la privacidad y los derechos de los usuarios, pero la forma de hacerlo es un área gris que no aparece en estas directrices. »
Los investigadores también encontraron varios sesgos con respecto a dónde y quién creó estas pautas. Los investigadores encontraron una disparidad de género en la autoría. Aunque el 66% de las muestras no contenía información de autoría, los autores de los documentos restantes tenían con mayor frecuencia nombres masculinos (549 = 66% hombres, 281 = 34% mujeres).
Geográficamente, la mayoría de las políticas provinieron de países de Europa occidental (31,5%), América del Norte (34,5%) y Asia (11,5%), mientras que menos del 4,5% de los documentos provinieron de América del Sur, África y Oceanía combinadas. Algunos de estos desequilibrios en la distribución podrían deberse a limitaciones del idioma y del acceso público, pero el equipo dice que estos resultados sugieren que muchas partes del Sur Global están subrepresentadas en el discurso global sobre la ética de la IA. En algunos casos, esto incluye países muy involucrados en la investigación y el desarrollo de la IA, como China, cuya producción de investigaciones relacionadas con la IA aumentó más del 120% entre 2016 y 2019.
«Nuestra investigación demuestra y refuerza nuestro llamado al sur global para que despierte y un llamado para que el norte global esté listo para escucharnos y darnos la bienvenida», dice la coautora Camila Galvão de la Pontificia Universidad Católica de Rio Grande do Sul. . “No debemos olvidar que vivimos en un mundo plural, desigual y diverso. Necesitamos recordar las voces que aún no han tenido la oportunidad de hacer valer sus preferencias, explicar su contexto y tal vez decirnos algo que aún no sabemos”.
Según los investigadores, los esfuerzos futuros deberían centrarse no sólo en incluir más voces, sino también en poner en práctica los principios de la ética de la IA. “El siguiente paso es tender un puente entre los principios éticos abstractos y el desarrollo práctico de sistemas y aplicaciones de IA”, afirma Santos.
[ad_2]