[ad_1]
Ed Newton-Rex dice que la IA generativa tiene un problema ético. Debería saberlo porque solía ser parte de una industria de rápido crecimiento. Newton-Rex fue el diseñador principal de inteligencia artificial de TikTok y luego ejecutivo de Stability AI hasta que renunció en noviembre en medio de la indignación por la postura de la compañía sobre la recopilación de datos de entrenamiento.
Después de su tan publicitada partida, Newton-Rex se sumergió en una conversación tras otra sobre cómo sería la construcción ética de la IA en la práctica. «Me di cuenta de que hay mucha gente que quiere utilizar modelos de IA generativa que traten a los creadores de forma justa», afirma. «Si puedes brindarles mejores herramientas para la toma de decisiones, eso será útil».
Ahora Newton-Rex ha lanzado una nueva organización sin fines de lucro llamada Fairly Trained para brindar a las personas exactamente ese tipo de apoyo en la toma de decisiones. Ofrece un programa de certificación para identificar empresas de inteligencia artificial que otorgan licencias para sus datos de capacitación. La industria de la inteligencia artificial ahora tiene su propia versión de esos sellos de certificación de “comercio justo” que se ven en el café.
Para recibir la etiqueta de certificación de Fairly Trained, conocida como certificación L, una empresa debe demostrar que sus datos de capacitación han sido autorizados específicamente para fines de capacitación, son de dominio público, se ofrecieron bajo una licencia abierta adecuada o ya eran propiedad de la empresa. .
Hasta ahora, nueve empresas han recibido la certificación, incluido el generador de imágenes Bria AI, que se entrena exclusivamente con datos con licencia de fuentes como Getty Images, y la plataforma de generación de música LifeScore Music, que licencia trabajos de los principales sellos discográficos. Varios otros están a punto de completar su certificación. La organización sin fines de lucro cobra una tarifa de $500 a $6000, dependiendo del tamaño del negocio del solicitante.
OpenAI, la empresa de IA generativa líder en el mundo, argumentó recientemente que es imposible crear servicios de IA generativa como ChatGPT sin utilizar datos sin licencia. Newton-Rex y las primeras empresas en recibir el sello de aprobación Fairly Certified no están de acuerdo. “Ya lo consideramos una tarea obligatoria”, afirma Yair Adato, director general de Bria, sobre la concesión de licencias. Compara los modelos de IA basados en datos sin licencia con Napster y Pirate Bay y su propia empresa con Spotify. «Es realmente fácil para nosotros cumplir con las normas», dice el cofundador de Lifescore Music, Tom Gruber, quien también es asesor Fairly Certified. «El negocio de la música concede un gran valor a los orígenes y los derechos».
Newton-Rex dice que recibe el apoyo de grupos comerciales como la Asociación de Editores Estadounidenses y la Asociación de Editores de Música Independientes, así como de empresas como Universal Music Group. Pero el movimiento para abandonar el enfoque estándar de la industria de la IA de extraer datos de entrenamiento a voluntad aún está en sus inicios. Y Fairly Trained es una operación de un solo hombre. No es que a Newton-Rex le importe; Todavía tiene la mentalidad del fundador de una startup. «Creo en enviar las cosas temprano», dice.
La organización sin fines de lucro tampoco es la única que intenta estandarizar la idea de etiquetar productos de IA con información sobre sus ingredientes. El ex ejecutivo de Warner Music Group, Howie Singer, que ahora estudia cómo la tecnología está cambiando la industria musical, ve similitudes entre Fairly Trained y Content Authority Initiative, un proyecto liderado por Adobe para ayudar a las personas a rastrear la autenticidad de las imágenes. «Éste es un buen paso», afirma sobre el proyecto Newton-Rex.
[ad_2]