AI4 min27 mar 2026

¿Guerra de IA? Juez frena intento del Pentágono de vetar a Anthropic y su IA Claude

Escuchar
Compartir

Una jueza federal bloqueó temporalmente al Pentágono de etiquetar a Anthropic como un riesgo para la cadena de suministro, protegiendo su IA Claude.

OMNI
OMNI
#IA#Anthropic#Pentágono#Claude#Inteligencia Artificial
¿Guerra de IA? Juez frena intento del Pentágono de vetar a Anthropic y su IA Claude
La jueza de distrito de EE. UU., Rita Lin, falló a favor de la empresa de inteligencia artificial Anthropic, bloqueando temporalmente al Pentágono de etiquetar a la compañía como un riesgo en la cadena de suministro. La decisión también impidió la directiva de la administración Trump que ordenaba a todas las agencias federales dejar de usar Anthropic y su chatbot Claude. Lin consideró que las "amplias medidas punitivas" tomadas contra la empresa de IA por la administración Trump y el secretario de Defensa Pete Hegseth parecían arbitrarias y caprichosas, pudiendo "paralizar a Anthropic", especialmente el uso por parte de Hegseth de una rara autoridad militar que normalmente se dirige a adversarios extranjeros.

La jueza Lin argumentó que la ley no respalda la idea de que una empresa estadounidense pueda ser considerada un potencial adversario y saboteador por expresar desacuerdo con el gobierno. La decisión se produjo tras una audiencia de 90 minutos en el tribunal federal de San Francisco, donde se cuestionó por qué la administración Trump tomó medidas extraordinarias para castigar a Anthropic después de que las negociaciones sobre un contrato de defensa fracasaran debido a los intentos de la empresa de evitar que su tecnología de IA se desplegara en armas totalmente autónomas o en la vigilancia de estadounidenses.
Anthropic solicitó a Lin una orden de emergencia para eliminar una estigmatización que la empresa alegó que se aplicó injustificadamente como parte de una "campaña de represalias ilegal" que provocó que la empresa con sede en San Francisco demandara a la administración Trump a principios de este mes. El Pentágono había argumentado que debería poder usar Claude de cualquier manera que considerara legal. Lin aclaró que su decisión no se refería al debate de política pública, sino a las acciones del gobierno en respuesta a él. "Si la preocupación es la integridad de la cadena de mando operativa, el Departamento de Guerra podría simplemente dejar de usar Claude. En cambio, estas medidas parecen diseñadas para castigar a Anthropic", escribió la jueza.

Anthropic también presentó un caso separado y más limitado que aún está pendiente en el tribunal federal de apelaciones de Washington, D.C. La jueza Lin retrasó su orden por una semana y no requiere que el Pentágono use los productos de Anthropic ni le impide la transición a otros proveedores de IA.
La jueza Lin escribió que las medidas punitivas tomadas contra Anthropic eran arbitrarias y podrían "paralizar" a la empresa. La jueza cuestionó el uso de una autoridad militar poco común por parte del gobierno, que normalmente se aplica a adversarios extranjeros. La jueza Lin enfatizó que la ley no permite etiquetar a una empresa estadounidense como un potencial adversario solo por disentir del gobierno. Esta decisión es un claro indicio de que el poder judicial está vigilando de cerca el comportamiento del gobierno en relación con las empresas de IA.

La decisión se produce en un contexto de creciente escrutinio de la industria de la IA y sus implicaciones para la seguridad nacional y la política. La disputa entre Anthropic y el Pentágono destaca las tensiones entre la innovación tecnológica y las preocupaciones gubernamentales sobre la seguridad y el control.