El Pentágono da hasta el viernes a Anthropic: acceso total o lista negra

El secretario Hegseth le dio hasta el viernes a Anthropic para entregar acceso sin restricciones a Claude. Si no cede, el Pentágono amenaza con contrato cancelado y lista negra.

El secretario de Defensa de Estados Unidos, Pete Hegseth, le dio hasta este viernes a Dario Amodei, CEO de Anthropic, para que la compañía entregue acceso sin restricciones a su modelo de inteligencia artificial Claude para uso militar, según reportó Axios.

Si no hay acuerdo, el Pentágono amenaza con terminar el contrato de 200 millones de dólares que tiene con la empresa, invocar la Ley de Producción de Defensa para forzar el acceso a la tecnología, y declarar a Anthropic un “riesgo de cadena de suministro”, lo que equivaldría a colocarla en una lista negra gubernamental.

El plazo vence este viernes a las 5:01 PM hora del este.

Qué quiere el Pentágono y qué se niega a hacer Anthropic

El Pentágono exige que Claude pueda ser usado para “todos los propósitos legales”, sin restricciones impuestas por la empresa. Anthropic, por su parte, tiene dos líneas que dice no estar dispuesta a cruzar: el uso de inteligencia artificial en armas autónomas que operen sin intervención humana, y la vigilancia masiva doméstica de ciudadanos estadounidenses.

La empresa sostiene que su modelo no es lo suficientemente confiable para tomar decisiones letales de forma autónoma, y que no existen aún leyes ni regulaciones que cubran el uso de IA en vigilancia masiva. El Pentágono argumenta que esas restricciones son innecesariamente limitantes y que la legalidad de cualquier operación es responsabilidad del Departamento de Defensa como usuario final, no de la empresa que provee la tecnología. Durante la reunión del martes, Hegseth comparó la situación con la compra de aviones Boeing: el fabricante no tiene injerencia en cómo el ejército usa sus aeronaves.

La postura de la administración Trump ha sido llamar a estas salvaguardas “IA woke”, encuadrando el conflicto como un choque ideológico entre Silicon Valley y las necesidades de la defensa nacional.

Por qué el Pentágono no puede simplemente cambiar de proveedor

Claude es actualmente el único modelo de inteligencia artificial comercial avanzado que opera dentro de las redes clasificadas del ejército estadounidense, lo que complica significativamente cualquier ruptura abrupta. Según fuentes consultadas por múltiples medios, Claude aventaja a sus competidores en aplicaciones relevantes para defensa e inteligencia, incluyendo capacidades ofensivas en ciberseguridad.

El Pentágono tiene contratos con otras compañías: OpenAI, Google y xAI de Elon Musk recibieron contratos similares de hasta 200 millones de dólares en julio pasado, pero ninguno ha sido autorizado aún para operar en redes clasificadas. xAI habría accedido a los términos de “todos los propósitos legales”, y el Pentágono estaría acelerando conversaciones con Google y OpenAI para eventualmente moverlos a entornos clasificados. Sin embargo, las mismas fuentes reconocen que reemplazar a Anthropic sería un proceso largo y complicado, y que los modelos alternativos están actualmente por detrás de Claude en las aplicaciones más sensibles.

Pete Hegseth, Secretario de Defensa de Estados Unidos.

El contexto: Venezuela y meses de tensión acumulada

Este enfrentamiento lleva meses cocinándose. La chispa más reciente fue la revelación de que Claude fue utilizado durante la operación que capturó al presidente venezolano Nicolás Maduro, lo que supuestamente generó preocupaciones internas en Anthropic sobre si ese uso se ajustaba a sus políticas. Amodei negó ante Hegseth que la empresa haya planteado objeciones formales a su socio Palantir, a través de quien se canalizó el uso de Claude en esa operación.

En enero, Hegseth publicó un documento de estrategia de IA que exigía que todos los contratos con empresas del sector eliminaran las restricciones propias de cada compañía en un plazo de 180 días, estableciendo el uso para “todos los propósitos legales” como requisito estándar. Ese documento marcó el inicio de la escalada.

Dario Amodei, CEO de Anthropic

Lo que está en juego más allá del contrato

Anthropic está preparándose para salir a bolsa este año. La fricción con la administración Trump ocurre en un momento de máxima exposición pública para la compañía, y el desenlace de esta semana podría influir en cómo los inversores evalúan el riesgo regulatorio del negocio. Amodei ha señalado que la valoración y los ingresos de la empresa no han hecho más que crecer desde que tomó posición pública sobre los límites del uso militar de su IA.

Más allá de los números, este conflicto plantea una pregunta que la industria tecnológica tendrá que responder tarde o temprano: ¿quién controla los límites de la inteligencia artificial cuando es el Estado quien la compra? ¿La empresa que la construye, o el gobierno que la usa? La respuesta que dé Washington esta semana podría sentar precedente para toda la industria.

Total
0
Shares
Agregar un comentario

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

Previous Post
Galaxy Unpacked 2026

Sigue en vivo el Galaxy Unpacked 2026 de Samsung

Related Posts