[ad_1]
Cuando ChatGPT de OpenAI tomó al mundo por sorpresa el año pasado, sorprendió a muchos agentes poderosos tanto en Silicon Valley como en Washington, DC. Ahora se debería advertir al gobierno de EE. UU. sobre futuros avances en IA relacionados con grandes modelos de lenguaje, la tecnología detrás de ChatGPT.
La administración Biden se está preparando para utilizar la Ley de Producción de Defensa para obligar a las empresas de tecnología a informar al gobierno si entrenan un modelo de IA que requiere una cantidad significativa de potencia informática. La norma podría entrar en vigor la próxima semana.
El nuevo requisito le dará al gobierno de EE. UU. acceso a información importante sobre algunos de los proyectos más sensibles dentro de OpenAI, Google, Amazon y otras empresas tecnológicas que compiten en la competencia de IA. Las empresas también deben proporcionar información sobre las pruebas de seguridad realizadas en sus nuevas creaciones de IA.
OpenAI ha sido cauteloso sobre cuánto trabajo se ha puesto en un sucesor de su oferta principal actual, GPT-4. El gobierno de EE. UU. puede ser el primero en saber cuándo comenzarán realmente los trabajos o las pruebas de seguridad en GPT-5. OpenAI no respondió de inmediato a una solicitud de comentarios.
“Estamos utilizando la Ley de Producción de Defensa, la autoridad que tenemos gracias al presidente, para realizar una encuesta que requiere que las empresas nos informen cada vez que entrenan un nuevo modelo de lenguaje grande y nos digan los resultados (los datos de seguridad) para que podemos revisarlos”, dijo el viernes la Secretaria de Comercio de Estados Unidos, Gina Raimondo, en un evento en la Institución Hoover de la Universidad de Stanford. No dijo cuándo entrará en vigor el requisito ni qué acciones podría tomar el gobierno con respecto a la información que contiene sobre proyectos de IA. Se espera que se anuncien más detalles la próxima semana.
Las nuevas reglas se están implementando como parte de una amplia orden ejecutiva de la Casa Blanca emitida en octubre pasado. La orden ejecutiva le dio al Departamento de Comercio como fecha límite el 28 de enero para desarrollar un plan que requeriría que las empresas proporcionen a los funcionarios estadounidenses detalles sobre los nuevos y poderosos modelos de IA en desarrollo. La orden decía que estos detalles deberían incluir la cantidad de potencia informática utilizada, información sobre la propiedad de los datos introducidos en el modelo y detalles de las pruebas de seguridad.
La orden de octubre busca comenzar a definir cuándo los modelos de IA deberían requerir informes al Departamento de Comercio, pero inicialmente establece un límite de 100 septillones (un millón de billones de billones, o 10).26) operaciones de punto flotante por segundo o flops y un nivel 1000 veces más bajo para modelos de lenguaje grandes que trabajan con datos de secuenciación de ADN. Ni OpenAI ni Google han revelado cuánta potencia informática utilizaron para entrenar sus modelos más potentes, GPT-4 y Gemini, respectivamente, pero un informe del Servicio de Investigación del Congreso sobre la orden ejecutiva sugiere que 1026 Los fracasos son ligeramente superiores a los que se utilizaron para entrenar a GPT-4.
Raimondo también confirmó que el Departamento de Comercio pronto implementará otro requisito de la orden ejecutiva de octubre que requiere que los proveedores de computación en la nube como Amazon, Microsoft y Google informen al gobierno cuando una empresa extranjera utiliza sus recursos para entrenar un modelo de lenguaje grande. Los proyectos extranjeros deben declararse si superan el mismo umbral inicial de 100 septillones de fracasos.
[ad_2]