Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / Nicolás Maduro

El uso de la IA en operaciones militares escala: Claude, de Anthropic, habría sido utilizado en la captura de Nicolás Maduro y desata tensiones con el Pentágono

De acuerdo con los reportes, el operativo fue ejecutado por fuerzas especiales de Estados Unidos y culminó con el traslado de Maduro y su esposa a territorio estadounidense, donde enfrentarían cargos relacionados con narcotráfico.

El uso de la IA en operaciones militares escala: Claude, de Anthropic, habría sido utilizado en la captura de Nicolás Maduro y desata tensiones con el Pentágono

El uso de la inteligencia artificial (IA) en operaciones militares habría alcanzado un nuevo punto de inflexión luego de que se revelara que Claude, el modelo desarrollado por Anthropic, fue presuntamente empleado en un operativo de Estados Unidos que derivó en la captura del ex mandatario venezolano Nicolás Maduro en Caracas.

La información fue difundida por The Wall Street Journal y Fox News, y expone no solo el creciente protagonismo de la IA en tareas de seguridad nacional, sino también las tensiones entre la industria tecnológica y el gobierno de Donald Trump.

Operación clasificada y uso de tecnología avanzada

De acuerdo con los reportes, el operativo fue ejecutado por fuerzas especiales de Estados Unidos y culminó con el traslado de Maduro y su esposa a territorio estadounidense, donde enfrentarían cargos relacionados con narcotráfico. La inteligencia artificial habría sido utilizada mediante un acuerdo con Palantir Technologies, empresa cuyos sistemas son empleados de forma habitual por el Departamento de Defensa de Estados Unidos y otras agencias federales.

Ni Anthropic ni el Departamento de Defensa confirmaron oficialmente el papel específico de Claude en la operación, al amparo de protocolos de confidencialidad. Un portavoz de la compañía señaló que no es posible comentar si Claude u otro modelo de IA fue utilizado en operaciones clasificadas, y subrayó que su tecnología debe apegarse a políticas internas que prohíben facilitar violencia, desarrollar armas o realizar vigilancia directa.

Contrato con el Pentágono bajo revisión

La controversia surge en un momento clave para Anthropic, que mantiene un contrato con el Pentágono cuyo valor podría alcanzar los 200 millones de dólares. De acuerdo con The Wall Street Journal, funcionarios de la administración Trump evalúan cancelar o revisar el acuerdo, debido a la postura de la empresa de imponer restricciones éticas y regulatorias al uso de su tecnología, en contraste con la estrategia oficial de baja regulación en materia de IA.

Para Anthropic, la principal preocupación es evitar que sus modelos sean utilizados en misiones letales autónomas o en vigilancia doméstica. Su director ejecutivo, Dario Amodei, ha expresado públicamente su rechazo a un uso militar sin límites regulatorios claros, y ha abogado por marcos que prevengan daños sociales y violaciones a derechos humanos.

Debate ético dentro y fuera del sector tecnológico

La inclusión de sistemas como Claude en operaciones de seguridad nacional representa un respaldo de legitimidad tecnológica para empresas de IA que buscan demostrar utilidad social y responsabilidad, pero también intensifica el debate ético dentro del sector.

Al interior de Anthropic y otras compañías se han registrado renuncias de empleados, quienes acusan una priorización del crecimiento comercial por encima del desarrollo responsable. En paralelo, la competencia entre empresas tecnológicas se ha intensificado.

Un consorcio integrado por Google y OpenAI impulsa el uso de la plataforma Gemini como apoyo para personal militar, principalmente en análisis de información y generación de reportes.

Posturas enfrentadas en Washington

Durante una conferencia realizada en enero, el secretario de Defensa Pete Hegseth afirmó que Estados Unidos no empleará modelos de IA que “no permitan librar guerras”, una declaración que refleja la fricción creciente con proveedores tecnológicos que imponen límites estrictos.

Para el Pentágono, la IA es vista como un componente central del futuro bélico, mientras que para empresas como Anthropic el reto es evitar que su adopción derive en usos contrarios a principios éticos y derechos humanos.

Nicolás Maduro

Un precedente con alcance global

Anthropic se convirtió en la primera desarrolladora de IA contratada oficialmente para operaciones clasificadas del Departamento de Defensa. Las capacidades de Claude incluyen la síntesis de documentos, el análisis de datos complejos y la coordinación de sistemas autónomos, lo que lo vuelve atractivo para entornos militares.

No obstante, su presunta participación en la incursión en Venezuela —en la que, según Fox News Digital, resultaron heridos siete militares estadounidenses— refuerza la urgencia de definir límites claros para el uso de inteligencia artificial en conflictos armados.

El caso subraya un dilema central del siglo XXI: mientras los gobiernos sostienen que “el futuro de la guerra es la IA”, las empresas tecnológicas enfrentan la presión de equilibrar innovación, rentabilidad y responsabilidad ética. El desenlace del contrato entre Anthropic y el Pentágono podría sentar un precedente decisivo para el rumbo de la inteligencia artificial en los conflictos globales.

También te puede interesar: Rusia pide a Estados Unidos liberar a Nicolás Maduro y a su esposa y reafirma su respaldo a la soberanía de Venezuela

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados