Skip to Content

Jueza bloquea el esfuerzo del Pentágono por “castigar” a Anthropic al catalogarla como un riesgo para la cadena de suministro

Hadas Gold, Devan Cole

Una jueza federal en California bloqueó indefinidamente el esfuerzo del Pentágono por “castigar” a Anthropic al etiquetarla como un riesgo para la cadena de suministro e intentar cortar los vínculos del Gobierno con la empresa de Inteligencia Artificial (IA), al dictaminar que esas medidas atropellaban sus derechos constitucionales.

“Nada en la ley aplicable respalda la noción orwelliana de que una empresa estadounidense pueda ser marcada como un potencial adversario y saboteador de EE.UU. por expresar desacuerdo con el Gobierno”, escribió la jueza de distrito de EE.UU. Rita Lin en un duro fallo de 43 páginas.

Lin, designada por el expresidente Joe Biden, dijo que retrasaría la implementación de su fallo durante una semana para permitir que el Gobierno apelara.

Pero en su fallo dejó claro que desaprobaba las acciones del Gobierno, que —según dijo— violaron los derechos de la Primera Enmienda y del debido proceso de la empresa.

La sentencia es la más reciente andanada judicial contra Hegseth, mientras ha buscado usar las poderosas herramientas a su disposición para contraatacar a empresas e individuos con los que se ha enfrentado en los últimos meses.

A principios de este mes, un juez federal en la ciudad de Washington dictaminó que el secretario violó los derechos de la Primera Enmienda de varios reporteros cuando implementó una nueva política de prensa restrictiva. Y en febrero, un juez diferente en la ciudad de Washington dijo que Hegseth vulneró los derechos de libertad de expresión de un senador demócrata por instar a miembros del servicio estadounidense a rechazar órdenes ilegales.

Anthropic aplaudió el fallo de Lin el jueves.

“Estamos agradecidos al tribunal por actuar con rapidez, y complacidos de que coincidan en que Anthropic probablemente tendrá éxito en el fondo del asunto”, dijo un portavoz de Anthropic tras el fallo del jueves. “Si bien este caso fue necesario para proteger a Anthropic, a nuestros clientes y a nuestros socios, nuestro enfoque sigue siendo trabajar de manera productiva con el gobierno para garantizar que todos los estadounidenses se beneficien de una IA segura y confiable”.

La designación de riesgo para la cadena de suministro significaba que cualquier empresa que trabaje con las fuerzas militares tendría que demostrar que no utilizaba un producto de Anthropic. La etiqueta, impuesta por el Pentágono el mes pasado, anteriormente solo se había usado para empresas consideradas vinculadas a adversarios extranjeros.

Anthropic dijo que la designación violó sus derechos de la Primera Enmienda, manchó su reputación y puso en peligro contratos por valor de cientos de millones de dólares.

La disputa del Departamento de Defensa con Anthropic comenzó después de que la empresa se negara a ceder respecto a las salvaguardas contractuales sobre el uso de su modelo de IA “Claude” en armas autónomas y vigilancia masiva.

En febrero, Hegseth tomó la drástica y sin precedentes medida de calificarlo como un riesgo para la cadena de suministro, y tanto él como el presidente Donald Trump ordenaron a las agencias federales que dejaran de utilizar el producto y rompieran sus vínculos con las empresas que mantienen relaciones comerciales con Anthropic.

Pero Lin dijo que todo eso fue en represalia por el hecho de que la empresa se mantuviera firme en sus principios.

“Estas medidas amplias no parecen estar dirigidas a los intereses de seguridad nacional que el Gobierno declara”, escribió. “Los registros del Departamento de Guerra muestran que designó a Anthropic como un riesgo para la cadena de suministro debido a su ‘manera hostil a través de la prensa’”.

“Castigar a Anthropic por someter a escrutinio público la postura de contratación del gobierno es una clásica represalia ilegal de la Primera Enmienda”, añadió.

El Departamento de Defensa quería acceso sin restricciones a “Claude” para “todos los fines lícitos”. El departamento dijo que necesitaba total libertad para usar el sistema, especialmente en tiempos de guerra.

“No podemos tener una empresa con una preferencia de política diferente que esté incorporada en el modelo… contaminar la cadena de suministro para que nuestros combatientes reciban armas ineficaces, chalecos antibalas ineficaces, protección ineficaz”, dijo a CNBC a principios de este mes el director de tecnología del Departamento de Defensa, Emil Michael.

Pero Anthropic tenía dos líneas rojas: no quería que sus sistemas de IA se usaran en armas autónomas ni en vigilancia masiva doméstica. Anthropic argumentó en su demanda que el Pentágono era consciente de su postura sobre las limitaciones de “Claude” y que su postura es discurso protegido.

Una impugnación separada de la empresa a otras autoridades que Hegseth invocó para realizar la designación de riesgo en la cadena de suministro aún está pendiente ante un tribunal federal en la ciudad de Washington.

CNN se ha puesto en contacto con el Pentágono para solicitar comentarios.

The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.

Article Topic Follows: CNN-Spanish

Jump to comments ↓

Author Profile Photo

CNN Newsource

BE PART OF THE CONVERSATION

KIFI Local News 8 is committed to providing a forum for civil and constructive conversation.

Please keep your comments respectful and relevant. You can review our Community Guidelines by clicking here

If you would like to share a story idea, please submit it here.