EEUU reclama el control total sobre la IA: El caso Anthropic

REPORTE: REDACCIÓN CENTRAL FEBRERO 26, 2026
Defensa Nacional / Seguridad

El Pentágono ha lanzado un ultimátum sin precedentes a Anthropic: la empresa tiene hasta este viernes para aceptar que sus modelos de IA sean utilizados sin restricciones en defensa nacional. Estados Unidos envía un mensaje claro: en caso de necesidad, la IA privada pertenece al Estado.

La tensión radica en las "líneas rojas" éticas de Dario Amodei, CEO de Anthropic. Sus modelos, conocidos bajo la marca Claude, prohíben explícitamente su uso para vigilancia masiva o el desarrollo de armamento autónomo. Sin embargo, el Departamento de Defensa busca eliminar estas barreras amparándose en la Defense Production Act de 1950.

La "Palanca" de la Guerra de Corea

"Si consideran que hay una necesidad de seguridad nacional, todos los recursos pertenecen al Estado".

El conflicto ético: Pete Hegseth, Secretario de Defensa, ha calificado la postura de Anthropic como una "IA woke". Mientras competidores como OpenAI o xAI han suavizado sus términos de uso para colaborar con el Gobierno, Anthropic se resiste a que su tecnología se convierta en una herramienta de guerra sin filtros.

El riesgo de desconexión: Anthropic no puede simplemente retirarse. Su IA está tan integrada en los sistemas clasificados del Pentágono que una ruptura total es vista como un riesgo para la cadena de suministro nacional, exponiendo a la empresa a sanciones similares a las que sufrió Huawei.


Consecuencias Globales

Este movimiento no solo afecta a Silicon Valley. Europa observa con cautela cómo la dependencia de proveedores estadounidenses implica aceptar que, en última instancia, el Pentágono tiene la "llave maestra" de la tecnología. La soberanía digital europea vuelve a estar en el centro del debate ante una IA que parece demasiado poderosa para seguir siendo privada.

El viernes a las 17:01 sabremos si Anthropic cede su vara moral o si el Estado inicia el proceso de absorción técnica bajo poderes de guerra.