Anthropic abandona su principal promesa de seguridad en medio de una pelea por los límites de su IA con el Pentágono
Por Clare Duffy y Lisa Eadicicco, CNN
Anthropic, una empresa fundada por exiliados de OpenAI preocupados por los peligros de la inteligencia artificial (IA), está relajando su principio básico de seguridad en respuesta a la competencia.
En lugar de restricciones autoimpuestas que limiten el desarrollo de sus modelos de IA, Anthropic está adoptando un marco de seguridad no vinculante que, según afirma, puede cambiarlo y lo hará.
En una publicación en su sitio web compartido este martes que describe su nueva política, Anthropic dijo que las deficiencias en su Política de Escalamiento Responsable de dos años de antigüedad podrían obstaculizar su capacidad de competir en un mercado de IA en rápido crecimiento.
El anuncio es sorprendente, ya que Anthropic se ha descrito como la empresa de IA con alma. Además, llega la misma semana en que Anthropic libra una importante batalla con el Pentágono sobre los límites de su IA.
No está claro si el cambio de Anthropic está relacionado con su reunión del martes con el secretario de Defensa de EE.UU., Pete Hegseth, quien le dio un ultimátum al director ejecutivo de Anthropic, Dario Amodei, para que revirtiera las medidas de seguridad de la IA de la compañía o se arriesgara a perder un contrato de US$ 200 millones con el Pentágono. El Pentágono amenazó con incluir a Anthropic en lo que, en realidad, es una “lista negra” del Gobierno.
Sin embargo, la compañía afirmó en su página que su política de seguridad anterior se diseñó para generar consenso en la industria sobre la mitigación de los riesgos de la IA, barreras que la industria superó. Anthropic también señaló que su política de seguridad no se ajustaba al actual clima político antirregulatorio de Washington.
La política anterior de Anthropic estipulaba que debía pausar el entrenamiento de modelos más potentes si sus capacidades superaban la capacidad de la empresa para controlarlos y garantizar su seguridad, medida que se ha eliminado en la nueva política. Anthropic argumentó que si los desarrolladores de IA responsables pausaban su crecimiento mientras actores menos cuidadosos avanzaban, esto podría generar un mundo menos seguro.
Como parte de la nueva política, Anthropic dijo que separará sus propios planes de seguridad de sus recomendaciones para la industria de la IA.
Anthropic escribió que esperaba que sus principios de seguridad originales animaran a otras empresas de IA a implementar políticas similares. Esta es la idea de una “carrera hacia la cima”, en la que los diferentes actores de la industria se ven incentivados a mejorar, en lugar de debilitar, las salvaguardias de sus modelos y su postura general de seguridad.
La compañía ahora sugiere que esto no ha sucedido. Un portavoz de Anthropic no respondió de inmediato a una solicitud de comentarios.
La nueva política de seguridad de Anthropic incluye una “Hoja de Ruta de Seguridad Fronteriza”, que describe las directrices y medidas de seguridad autoimpuestas por la empresa. Sin embargo, la empresa reconoció que el nuevo marco es más flexible que su política anterior.
“Más que compromisos firmes, estos son objetivos públicos hacia los cuales evaluaremos abiertamente nuestro progreso”, afirmó la compañía en su sitio web.
Los investigadores de IA aplaudieron el martes la postura de Anthropic en las redes sociales y expresaron su preocupación por la idea de que la IA se utilice para la vigilancia gubernamental.
La empresa se ha posicionado desde hace tiempo como la empresa de IA que prioriza la seguridad. Anthropic ha publicado una investigación que muestra cómo sus propios modelos de IA podrían ser capaces de chantajear en determinadas circunstancias. Recientemente, la empresa donó US$ 20 millones de a Public First Action, un grupo político que promueve la protección y la educación en materia de IA.
Sin embargo, la empresa se ha enfrentado a una creciente presión y competencia tanto del Gobierno como de sus rivales. Hegseth, por ejemplo, planea invocar la Ley de Producción de Defensa contra Anthropic y designar a la empresa como un riesgo para la cadena de suministro si no cumple con las exigencias del Pentágono, según informó CNN el martes. OpenAI y Anthropic también se han visto enfrascadas en una carrera por lanzar nuevas herramientas de inteligencia artificial empresarial con el objetivo de conquistar el mercado laboral.
Jared Kaplan, director científico de Anthropic, sugirió en una entrevista con TIME que el cambio no fue resultado del aumento de la competencia.
“Pensábamos que dejar de entrenar modelos de IA no beneficiaría a nadie”, declaró Kaplan a la revista. “Con el rápido avance de la IA, no nos parecía lógico asumir compromisos unilaterales […] si la competencia nos llevaba la delantera”.
The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.
Con información de Hadas Gold, de CNN.
