[ad_1]
Si 2022 fue el año en que comenzó el auge de la IA generativa, 2023 fue el año del pánico en la IA generativa. Poco más de 12 meses desde que OpenAI lanzó ChatGPT y estableció un récord para el producto de consumo de más rápido crecimiento, también parece haber ayudado a establecer un récord de intervención gubernamental más rápida en una nueva tecnología. La Comisión Federal Electoral de EE. UU. está investigando publicidad de campaña engañosa, el Congreso exige supervisión de cómo las empresas de IA desarrollan y etiquetan datos de entrenamiento para sus algoritmos, y la Unión Europea aprobó su nueva ley de IA con cambios a corto plazo para responder a la IA generativa.
Pero a pesar de toda su novedad y velocidad, los problemas de la IA generativa también son dolorosamente familiares. OpenAI y sus competidores que compiten por introducir nuevos modelos de IA enfrentan problemas que han afectado a las plataformas sociales, esa nueva tecnología anterior que definió una era, durante casi dos décadas. Empresas como Meta nunca se han enfrentado a la desinformación, la desinformación, las prácticas laborales cuestionables y la pornografía no consensuada, por nombrar sólo algunas de sus consecuencias no deseadas. Ahora estos problemas reciben una nueva y desafiante vida, con un toque de IA.
«Estos son problemas completamente previsibles», dice Hany Farid, profesor de la Escuela de Información de UC Berkeley, sobre los problemas que enfrentan OpenAI y otros. «Creo que se podían prevenir».
Camino muy transitado
En algunos casos, las empresas de IA generativa se basan directamente en la infraestructura problemática implementada por las empresas de redes sociales. Facebook y otros recurrieron a moderadores de contenido subcontratados y mal pagados (a menudo en el Sur Global) para mantener bajo control contenidos como discursos de odio o imágenes que contienen desnudos o violencia.
Ahora se contrata a los mismos trabajadores para ayudar a entrenar modelos de IA generativa, a menudo con salarios igualmente bajos y condiciones de trabajo difíciles. Debido a que la subcontratación coloca administrativamente las funciones críticas de una plataforma social o empresa de IA a una distancia administrativa de su sede y, a menudo, en otro continente, puede resultar difícil para los investigadores y reguladores obtener una imagen completa de cómo funciona un sistema de IA o se construye una red social. y gestionado.
La subcontratación también puede dejar poco claro dónde reside la verdadera inteligencia en un producto. Si un contenido desaparece, ¿fue eliminado por un algoritmo o por uno de los miles de moderadores humanos? Si un chatbot de servicio al cliente ayuda a un cliente, ¿cuánto crédito se destina a la IA y cuánto crédito al agente en un centro de subcontratación sobrecalentado?
También existen similitudes en cómo las empresas de inteligencia artificial y las plataformas sociales responden a las críticas sobre sus efectos dañinos o no deseados. Las empresas de IA están hablando de introducir políticas de “salvaguardias” y de “uso aceptable” para ciertos modelos de IA generativa, del mismo modo que las plataformas tienen sus términos de servicio sobre qué contenido está permitido y cuál no. Al igual que con las reglas de las redes sociales, las políticas y protecciones de la IA han demostrado ser relativamente fáciles de eludir.
[ad_2]