[ad_1]
Cientos de personas en la comunidad de inteligencia artificial han firmado una carta abierta pidiendo una regulación estricta de las suplantaciones de identidad generadas por IA, o deepfakes. Si bien es poco probable que esto impulse una legislación real (a pesar del nuevo grupo de trabajo de la Cámara), sí sirve como guía para saber cómo se sienten los expertos sobre este tema controvertido.
La carta, firmada por más de 500 personas de la IA y campos relacionados en el momento de su publicación, decía: «Los deepfakes representan una amenaza creciente para la sociedad y los gobiernos deben imponer obligaciones en toda la cadena de suministro para frenar su propagación y detenerlos».
Piden la criminalización total de los materiales de abuso sexual infantil (CSAM, por sus siglas en inglés), también conocidos como pornografía infantil, independientemente de si los personajes representados son reales o ficticios. Siempre existe la amenaza de sanciones penales si alguien crea o distribuye deepfakes dañinos. Y se pide a los desarrolladores que impidan desde el principio los deepfakes dañinos en sus productos y que impongan sanciones si sus medidas de prevención no son adecuadas.
Los firmantes más destacados de la carta incluyen:
- Jaron Lanier
- Frances Haugen
- Estuardo Russell
- Andrés Yang
- Marietje Schaake
- Steven Pinker
- Gary Marcos
- Oren Etzioni
- Genevieve Smith
- Yoshua Bengio
- Daniel Hendrycks
- Tim Wu
También asistirán cientos de académicos de todo el mundo y de muchas disciplinas. En caso de que tenga curiosidad, una persona de OpenAI ha firmado, dos de Google Deepmind y, al cierre de esta edición, ninguna de Anthropic, Amazon, Apple o Microsoft (excepto Lanier, cuya posición allí es deficiente). Curiosamente, en la carta están ordenados por “notoriedad”.
Este está lejos de ser el primer llamado a tomar medidas de este tipo; De hecho, se discutieron en la UE durante años antes de que se propusieran oficialmente a principios de este mes. Quizás sea la voluntad de la UE de asesorar e implementar lo que ha motivado a estos investigadores, creadores y líderes a hablar.
O tal vez sea el lento camino de KOSA hacia la aceptación y la falta de protección contra este tipo de abuso.
O tal vez (como ya hemos visto) sea la amenaza de llamadas fraudulentas generadas por IA que podrían influir en las elecciones o estafar a personas ingenuas para quitarles su dinero.
O tal vez sea el grupo de trabajo de ayer, que se anunció sin otra agenda particular que quizás escribir un informe sobre cuáles podrían ser algunas amenazas basadas en IA y cómo podrían limitarse legalmente.
Como puede ver, no faltan razones para que la comunidad de IA esté aquí agitando los brazos y diciendo: «¡¿Tal vez deberíamos, ya sabes, hacer algo?!»
Aún no está claro si alguien se dará cuenta de esta carta: nadie prestó atención al infame llamado a «detener» el desarrollo de la IA, pero, por supuesto, esta carta es un poco más práctica. Si los legisladores deciden abordar el tema, un evento poco probable dado un año electoral con un Congreso muy dividido, pueden recurrir a esta lista para evaluar el sentimiento en la comunidad académica y de desarrollo de IA global.
[ad_2]