El Pentágono firmó un acuerdo con ocho empresas de inteligencia artificial para usar sus herramientas en redes clasificadas, que incluyen datos y decisiones de guerra, a pesar de que varias de ellas están involucradas en juicios y denuncias por su uso indebido
SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, Amazon Web Services y Oracle desplegarán sus capacidades en entornos clasificados del Departamento de Defensa de Estados Unidos.

El ejército de Estados Unidos dará un paso hacia la automatización de sus operaciones más sensibles.
El Departamento de Defensa anunció un acuerdo con siete grandes empresas de tecnología para utilizar sus herramientas de inteligencia artificial en redes clasificadas.
El objetivo es transformar a las fuerzas armadas en un organismo con prioridad en el uso de IA.
Las compañías seleccionadas son:
- SpaceX
- OpenAI
- NVIDIA
- Reflection
- Microsoft
- Amazon Web Services
- Oracle
Estas proporcionarán recursos para operar en entornos de red conocidos como Nivel de Impacto 6 (IL6) y Nivel de Impacto 7 (IL7) , los más protegidos dentro del gobierno estadounidense.
Te puede interesar: El Pentágono y Google han llegado a un acuerdo para que el Departamento de Defensa utilice los potentes sistemas de inteligencia artificial Gemini
¿Qué significa que la IA se use en redes clasificadas del Pentágono?
Las redes IL6 e IL7 almacenan información sensible o secreta. Su acceso está restringido a personal autorizado. Integrar inteligencia artificial en estos entornos permite:
- Sintetizar datos de manera más rápida
- Elevar la comprensión situacional en zonas de conflicto
- Apoyar la toma de decisiones de los soldados en operaciones complejas
El Pentágono ya cuenta con una plataforma oficial llamada GenAI.mil. En solo cinco meses, más de 1.3 millones de personas del Departamento de Defensa la han usado.
El resultado, según el comunicado, es que muchas tareas se han reducido de meses a días.
¿Qué pasó con Anthropic, la empresa excluida del acuerdo?
Hasta hace poco, Anthropic era la única compañía con su modelo de IA, llamado Claude, disponible en la red clasificada del Pentágono.
Sin embargo, la administración del presidente Donald Trump decidió romper la relación, según CNN.
El motivo: Anthropic se negó a modificar sus términos de servicio para permitir que el ejército usara Claude en “todos los propósitos lícitos”, incluyendo armas autónomas y vigilancia masiva.
El Pentágono declaró a Anthropic como un “riesgo para la cadena de suministro”, etiqueta que solo se había usado antes con empresas vinculadas a adversarios extranjeros. En la práctica, esto pone a la compañía en la lista negra del gobierno federal.
Te puede interesar: Por qué Claude Mythos es considerado un riesgo para la ciberseguridad global en 2026: así es la IA que detecta vulnerabilidades críticas de forma autónoma y masiva
Anthropic demandó a la administración Trump, pero un juez federal en California bloqueó la medida el mes pasado.
No obstante, el director ejecutivo de Anthropic, Dario Amodei, visitó la Casa Blanca el mes pasado. La reunión ocurrió después de que Anthropic presentara su herramienta Mythos, capaz de identificar amenazas cibernéticas, pero también de mostrar una ruta para que hackers ataquen empresas o al gobierno.
¿Qué críticas ha recibido el uso de IA por parte del gobierno de Estados Unidos?
De acuerdo con Al Jazeera, organizaciones de derechos humanos han señalado el uso de inteligencia artificial en operaciones migratorias, incluyendo activistas pro Palestina.
También ha crecido la preocupación por el uso de sistemas de IA para seleccionar objetivos militares. El Pentágono informó que ha alcanzado 13,000 objetivos desde que comenzó una serie de ataques el 28 de febrero.
Al menos 3,375 personas han muerto en Irán como parte de ese conflicto. Entre ellas, al menos 170 personas, en su mayoría niños, fallecieron en un ataque con un misil Tomahawk contra una escuela de niñas en Minab. El Pentágono ha dicho que aún investiga el hecho, aunque algunos medios han señalado el ataque como “un error humano”.
Durante una audiencia en el Senado el jueves, la senadora Kirsten Gillibrand cuestionó al secretario de Defensa, Pete Hegseth, sobre la supervisión de daños a civiles y el uso de IA. Hegseth respondió:
Ningún ejército, ningún país trabaja más duro en cada nivel para garantizar la protección de vidas civiles que las fuerzas armadas de Estados Unidos. Ese es un compromiso inquebrantable, sin importar qué sistema usemos”.
Controversias legales en las empresas del acuerdo
OpenAI, una de las empresas ahora aliadas del Pentágono, enfrenta problemas en otros frentes. La compañía se encuentra en medio de un juicio entre sus primeros fundadores: Elon Musk, Sam Altman y Greg Brockman.
El primero acusa a los últimos dos de haberse robado la “organización benéfica” que era la empresa en sus inicios con la ayuda de inversiones de Microsoft.
El caso está en curso y ha generado atención sobre el modelo de negocio de OpenAI, que pasó de ser una organización sin fines de lucro a una con fines comerciales.
Además, OpenAI ha sido señalada por no alertar sobre planes de violencia. En Canadá, una joven consultó ChatGPT mientras planeaba un tiroteo. La empresa no emitió ninguna advertencia a las autoridades antes de que el plan se ejecutara.
Este caso ha abierto el debate sobre la responsabilidad de las empresas de inteligencia artificial en la prevención de delitos.
¿Qué sigue para el Pentágono y sus nuevos socios tecnológicos?
El Departamento de Defensa afirmó que continuará construyendo una arquitectura que evite depender de un solo proveedor de IA. La meta es mantener flexibilidad a largo plazo para las fuerzas armadas.
El comunicado finaliza con una postura clara:
Juntos, el Departamento de Guerra y estos socios estratégicos comparten la convicción de que el liderazgo estadounidense en IA es indispensable para la seguridad nacional....El objetivo declarado es fortalecer lo que llaman el ‘Arsenal de la Libertad’”.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos

El Pentágono y Google han llegado a un acuerdo para que el Departamento de Defensa utilice los potentes sistemas de inteligencia artificial Gemini

Hombre de 20 años lanza un cóctel molotov contra la casa de Sam Altman en San Francisco y luego amenaza con quemar las oficinas de OpenAI
OpenAI propone impuestos a empresas que sustituyan trabajadores con IA y un fondo público para repartir ganancias en una economía con menos empleos humanos

Mientras Microsoft ofrece incentivos a sus empleados por renunciar, Meta confirma el recorte de 8 mil puestos de trabajo, en un ajuste que refleja el impacto directo de la inteligencia artificial en el mercado laboral tecnológico

Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados