Cali, marzo 14 de 2026. Actualizado: viernes, marzo 13, 2026 23:41
La empresa creadora del modelo Claude acusa al Pentágono de represalia y solicita a la justicia que suspenda la exclusión mientras se revisa el caso
Anthropic demanda al Departamento de Defensa tras ser marcado como “riesgo” en la cadena de suministro
Anthropic, la compañía detrás del modelo de lenguaje Claude, presentó el 9 de marzo de 2026 dos demandas contra el Departamento de Defensa de Estados Unidos después de que el Pentágono la catalogara como un “riesgo” en la cadena de suministro.
La empresa dice que la designación es “sin precedentes y ilegal” y alega que el gobierno actúa en represalia por sus posiciones públicas sobre la seguridad de la inteligencia artificial.
Un choque por el acceso militar a la IA
Anthropic presentó las dos quejas —una en un tribunal federal en San Francisco y otra ante el Tribunal de Apelaciones del Circuito de D.C.— tras semanas de desacuerdo con el Pentágono sobre si el ejército debe tener acceso sin restricciones a sus sistemas de IA.
La compañía había fijado dos líneas rojas: no permitir que su tecnología sea utilizada para la “vigilancia masiva” de estadounidenses y no autorizar el uso de sus sistemas para armas completamente autónomas que tomen decisiones de apuntar y disparar sin intervención humana.
Por su parte, el secretario de Defensa Pete Hegseth sostuvo que el Pentágono debería poder acceder a sistemas de IA para “any lawful purpose” (“cualquier propósito legal”), argumentando que no debería estar limitado por un contratista privado.
Qué implica la etiqueta de “riesgo en la cadena de suministro”
La designación que aplicó el Departamento de Defensa normalmente se reserva para adversarios extranjeros, y obliga a cualquier compañía o agencia que trabaje con el Pentágono a certificar que no usa los modelos de Anthropic.
Según la nota original, aunque varios clientes privados mantienen relación con la empresa, Anthropic corre el riesgo de perder una parte importante de su negocio dentro del gobierno.
Además, tras las declaraciones públicas, la General Services Administration (GSA) terminó el contrato “OneGov” que hacía disponibles los servicios de Anthropic a las tres ramas del gobierno federal.
Reclamos legales: procedimientos y libertad de expresión
En su demanda, Anthropic argumenta que no existe una ley federal que autorice las acciones del Departamento y que la designación se emitió “sin observancia de los procedimientos que el Congreso exige”.
Según la queja, la ley normalmente requiere una evaluación de riesgos, notificación a la compañía con oportunidad de respuesta, una determinación por escrito sobre seguridad nacional y aviso al Congreso antes de excluir a un proveedor.
La empresa también acusa al Ejecutivo de castigarla por su discurso protegido: “The Constitution does not allow the government to wield its enormous power to punish a company for its protected speech,” dice la demanda citada en el reportaje.
Anthropic sostiene que sus declaraciones sobre las limitaciones de sus servicios y la seguridad de la IA constituyen ese discurso protegido.
Medidas judiciales solicitadas
Anthropic pidió al tribunal que suspenda de inmediato la designación del Departamento de Defensa mientras se tramita el caso y, en última instancia, que invalide y prohíba su aplicación.
Además presentó una apelación en el circuito de D.C., un recurso contemplado en la ley de adquisiciones federales para impugnar estas designaciones.
Un portavoz de la empresa declaró que buscar revisión judicial “no cambia nuestro compromiso de aplicar la IA para proteger la seguridad nacional” y que seguirán buscando diálogo con el gobierno.
Qué es Claude y por qué esto importa para la gente
Anthropic es conocida por Claude, un modelo avanzado de inteligencia artificial que responde a preguntas y realiza tareas a partir de texto (lo que en la industria se llama un modelo de lenguaje grande, o LLM por sus siglas en inglés).
Brevemente:
- LLM (modelo de lenguaje grande): un sistema entrenado con gran cantidad de texto que puede generar respuestas, redactar correos o resumir información; ejemplos cotidianos son asistentes que ayudan a escribir mensajes o buscar información.
- Agentes: programas que utilizan modelos como los LLM para ejecutar tareas de manera autónoma (por ejemplo, reservar un viaje o automatizar procesos).
- Modelos multimodales: sistemas que trabajan con distintos tipos de datos (texto, imágenes, audio), útiles en aplicaciones que combinan foto y texto, como identificar objetos en una foto y describirlos en lenguaje natural.
La disputa tiene implicaciones prácticas: el conflicto afecta contratos gubernamentales, plantea preguntas sobre el control democrático y la transparencia en el uso militar de la IA, y puede influir en si empresas de tecnología ponen límites a sus clientes por motivos éticos o de seguridad.
Anthropic advierte además sobre un posible efecto de enfriamiento —que otras empresas puedan dejar de expresar preocupaciones públicas por temor a represalias que dañen su negocio.
Nota de Transparencia
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

🔊 El Resumen de Noticias sobre Inteligencia Artificial e Innovación Tecnológica, aquí 👇🏻

Curaduría editorial
La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.
Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.
Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.
El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.
Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.

