Noticias del Mundo

OpenAI y otros gigantes tecnológicos deben advertir al gobierno de EE. UU. cuando lanzan nuevos proyectos de IA

Cuando ChatGPT de OpenAI tomó al mundo por sorpresa el año pasado, sorprendió a muchos agentes poderosos en Silicon Valley y Washington, DC. El gobierno de EE. UU. debería haber recibido una advertencia anticipada sobre futuros avances en IA que involucran grandes modelos de lenguaje (la tecnología detrás de ChatGPT).

La administración Biden se está preparando para utilizar la Ley de Producción de Defensa para obligar a las empresas de tecnología a notificar al gobierno cuando utilicen grandes cantidades de potencia informática para entrenar modelos de inteligencia artificial. La norma podría entrar en vigor la próxima semana.

Los nuevos requisitos permitirán al gobierno de EE. UU. obtener información crítica sobre algunos de los proyectos más sensibles dentro de OpenAI, Google, Amazon y otras empresas competidoras de tecnología de inteligencia artificial. Las empresas también deben proporcionar información sobre las pruebas de seguridad en curso de sus nuevos productos de IA.

OpenAI se ha mostrado reacio a decir cuánto trabajo se ha realizado en un sucesor de su producto principal actual, GPT-4. El gobierno de EE. UU. puede ser el primero en saber cuándo comienzan realmente el trabajo o las pruebas de seguridad en GPT-5. OpenAI no respondió de inmediato a una solicitud de comentarios.

“Estamos utilizando la Ley de Producción de Defensa, un poder que tenemos gracias al presidente, para llevar a cabo una investigación que requiere que las empresas compartan con nosotros cada vez que entrenan un nuevo modelo de lenguaje grande y compartan los resultados con nosotros – Security U.S. para recopilar los datos para que podamos revisarlos”, dijo el viernes la secretaria de Comercio, Gina Raimondo, en un evento en la Institución Hoover de la Universidad de Stanford. No dijo cuándo entraría en vigor el requisito ni qué medidas podría tomar el gobierno si recibe información sobre el proyecto de IA. Se espera que se publiquen más detalles la próxima semana.

Artículo Recomendado:  Director de la CIA Burns asegura a Ucrania apoyo de EE.UU. para visita a Kyiv

Las nuevas reglas se implementaron como parte de una amplia orden ejecutiva de la Casa Blanca emitida en octubre pasado. La orden ejecutiva da al Departamento de Comercio hasta el 28 de enero para elaborar un plan que requiera que las empresas notifiquen a los funcionarios estadounidenses los detalles de los nuevos y poderosos modelos de inteligencia artificial que se están desarrollando. Esos detalles deben incluir la potencia informática utilizada, la información de propiedad de los datos ingresada en el modelo y los detalles de las pruebas de seguridad, según la orden.

La orden de octubre pedía comenzar a determinar cuándo los modelos de IA debían informar al Departamento de Comercio, pero establecía un estándar inicial de 100 siete billones (10 mil millones o 1026) operaciones de punto flotante por segundo o falla, y 1000 El nivel es el doble tan bajo para modelos de lenguaje grandes que procesan datos de secuenciación de ADN. Ni OpenAI ni Google revelaron cuánta potencia informática utilizaron para entrenar sus modelos más potentes, GPT-4 y Gemini, respectivamente, pero un informe del Servicio de Investigación del Congreso sobre la orden ejecutiva sugirió que 1.026 fallas fue un poco más de lo que se usó para entrenar GPT. Aritmética -4.

Raimondo también confirmó que el Departamento de Comercio pronto implementará otro requisito de la orden ejecutiva de octubre que exige que los proveedores de computación en la nube como Amazon, Microsoft y Google notifiquen al gobierno cuando las empresas extranjeras utilicen sus recursos para entrenar grandes modelos lingüísticos. Los proyectos extranjeros deben informar cuando superen el mismo umbral inicial de 100 billones de fracasos.

Artículo Recomendado:  Caroline Kennedy fue nominada como Embajadora de Estados Unidos en Australia——

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba