Alto mando del ejército de EEUU confesó que usa ChatGPT para tomar decisiones clave en su trabajo y vida personal; “nos hemos vuelto muy cercanos últimamente”
Aunque las versiones más recientes son capaces de realizar razonamientos complejos y análisis detallados, todavía no son infalibles y pueden generar respuestas incorrectas o inventadas.
Un alto mando del Ejército estadounidense reveló que ha estado utilizando inteligencia artificial generativa para apoyar su proceso de toma de decisione, informó el New York Post.
Se trata del mayor general William “Hank” Taylor, comandante del Octavo Ejército con sede en Corea del Sur, quien afirmó haber recurrido a ChatGPT, el chatbot desarrollado por OpenAI, para reflexionar sobre decisiones clave tanto de carácter profesional como personal.
Durante una conferencia de prensa en el marco de la Asociación del Ejército de Estados Unidos (AUSA) en Washington, D.C., Taylor explicó que la herramienta de inteligencia artificial le ha ayudado a analizar mejor los escenarios y tiempos de decisión dentro de su liderazgo.
Chat y yo nos hemos vuelto muy cercanos últimamente”, comentó con humor el general, aunque evitó ofrecer ejemplos específicos sobre su uso personal.
El comandante señaló que su interés por la IA se centra en mejorar los modelos de análisis y los procesos de liderazgo cotidiano, no en situaciones de combate.
Como comandante, quiero tomar mejores decisiones. Quiero asegurarme de hacerlo en el momento adecuado para tener ventaja”, agregó.
La IA en la estrategia militar estadounidense
Las declaraciones de Taylor representan una de las admisiones más directas de que altos oficiales del ejército estadounidense ya están utilizando chatbots comerciales para apoyar su pensamiento estratégico.
El Pentágono lleva años impulsando la integración de la inteligencia artificial en todos los niveles de sus operaciones: desde la logística y vigilancia, hasta la toma de decisiones tácticas en el campo de batalla.
Los funcionarios de defensa sostienen que los sistemas impulsados por IA pueden procesar datos más rápido y con mayor precisión, pero también reconocen los riesgos que implica delegar parte del juicio humano a algoritmos que pueden cometer errores o ser manipulados.
El propio Departamento de Defensa ha advertido que los conflictos futuros podrían desarrollarse a “velocidad de máquina”, requiriendo decisiones instantáneas que superen la capacidad humana.
Te puede interesar: Walmart revoluciona las compras: ahora podrás comprar hablando con ChatGPT y así funcionaría para EEUU
Avances y preocupaciones
Ejércitos de todo el mundo —incluidos los de China y Rusia— compiten por dominar el uso de la IA en entornos militares. En Estados Unidos, se han realizado simulaciones de combate con sistemas autónomos, como un experimento de la Fuerza Aérea en el que un algoritmo pilotó un avión F-16 modificado durante un enfrentamiento simulado.
Además, las Fuerzas de Operaciones Especiales del Ejército estadounidense ya usan herramientas de inteligencia artificial para reducir la carga cognitiva de los soldados, automatizando reportes, análisis de inteligencia y gestión de datos de misiones.
No obstante, los líderes del Pentágono han pedido cautela con el uso de herramientas generativas como ChatGPT, debido a posibles filtraciones de información sensible o errores de interpretación cuando los datos de entrada son incompletos o sesgados.
Taylor reconoció que uno de los desafíos principales es mantener el ritmo del rápido avance de la tecnología, garantizando al mismo tiempo que las herramientas cumplan con los estrictos estándares de seguridad militar.
Una tecnología en expansión
ChatGPT y otras plataformas similares han captado la atención global a medida que gobiernos y empresas buscan aprovechar su potencial, pero también comprender sus riesgos.
Aunque las versiones más recientes son capaces de realizar razonamientos complejos y análisis detallados, todavía no son infalibles y pueden generar respuestas incorrectas o inventadas.