Microsoft, Google y xAI permitirán al Gobierno de EE.UU. probar sus modelos de IA antes de su lanzamiento
Por Hadas Gold, CNN
Google, Microsoft y xAI compartirán versiones preliminares de sus modelos de IA con el Gobierno para mitigar las amenazas a la ciberseguridad, según anunció el Instituto Nacional de Estándares y Tecnología (NIST) el martes.
Esta colaboración surge después de que el nuevo y potente modelo de IA Mythos de Anthropic despertara el mes pasado preocupaciones por el impacto de la IA en la ciberseguridad, lo que llevó a la Casa Blanca a considerar un proceso formal de revisión para la herramienta.
Los nuevos acuerdos permiten al Centro de Estándares e Innovación de IA (CAISI), dependiente del Departamento de Comercio de EE.UU., evaluar los nuevos modelos de IA y su impacto potencial en la seguridad nacional y la seguridad pública antes de su lanzamiento. El centro también realizará investigaciones y pruebas tras la implementación de los modelos de IA. Hasta ahora, ya ha completado más de 40 evaluaciones de modelos de IA.
“La ciencia de la medición independiente y rigurosa es esencial para comprender la IA de vanguardia y sus implicaciones para la seguridad nacional”, declaró Chris Fall, director del CAISI. “Estas colaboraciones ampliadas con la industria nos ayudan a escalar nuestro trabajo en beneficio del interés público en un momento crítico”.
Mythos, que según Anthropic está “muy por delante” de otros modelos en términos de ciberseguridad, generó una ola de preocupación entre gobiernos, bancos y empresas de servicios públicos durante el último mes. La compañía afirmó que aún no se siente cómoda con publicar el modelo y restringió el acceso a un grupo selecto de organizaciones autorizadas. También ha informado a altos funcionarios del Gobierno estadounidense sobre sus capacidades.
OpenAI también anunció la semana pasada que pondrá sus modelos de IA más avanzados a disposición de todos los niveles gubernamentales autorizados con el objetivo de anticiparse a las amenazas basadas en IA.
Estas alianzas podrían facilitar al CAISI la realización de pruebas de IA al proporcionarle más recursos, según Jessica Ji, analista sénior de investigación del Centro de Seguridad y Tecnologías Emergentes de Georgetown.
“Simplemente no cuentan con la misma cantidad de recursos (que las grandes empresas tecnológicas), ni en personal, ni en técnicos, ni en capacidad de procesamiento, para evaluar estos modelos y realizar pruebas rigurosas”, afirmó.
La Casa Blanca está consultando con un grupo de expertos para que la asesoren sobre un posible proceso de revisión gubernamental para nuevos modelos de IA, según confirmó CNN. Esto representaría un cambio con respecto al enfoque permisivo que la administración Trump ha mantenido hasta ahora en materia de regulación de la IA.
El New York Times fue el primero en informar sobre este grupo de trabajo el lunes.
“Cualquier anuncio político provendrá directamente del Presidente. Hablar sobre posibles decretos es pura especulación”, declaró un portavoz de la Casa Blanca a CNN.
Si bien Microsoft prueba regularmente sus propios modelos, CAISI ofrece “experiencia técnica, científica y en seguridad nacional” adicional, afirmó Natasha Crampton, Directora de IA Responsable de Microsoft, en un comunicado.
Google declinó hacer más comentarios sobre el acuerdo. xAI no respondió a las solicitudes de comentarios.
The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.
Con información de Lisa Eadicicco, de CNN.
