Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / ChatGPT

El jefe de ciberseguridad de Estados Unidos queda bajo la lupa tras filtrar documentos oficiales en ChatGPT, revelando una vulnerabilidad crítica en la gestión de archivos gubernamentales y encendiendo las alarmas sobre el uso de inteligencia artificial en las agencias de inteligencia

Madhu Gottumukkala, director interino de CISA, activó alertas de seguridad nacionales tras cargar contratos confidenciales en la plataforma de OpenAI; el incidente expone el choque entre la eficiencia tecnológica y los protocolos de seguridad que prohíben la IA en redes federales

El jefe de ciberseguridad de Estados Unidos queda bajo la lupa tras filtrar documentos oficiales en ChatGPT, revelando una vulnerabilidad crítica en la gestión de archivos gubernamentales y encendiendo las alarmas sobre el uso de inteligencia artificial en las agencias de inteligencia

EEUU. — En un hecho que ha puesto en entredicho los protocolos de defensa digital de los Estados Unidos y que ha sido difundido ampliamente por el medio RT, la misma agencia encargada de blindar la infraestructura crítica del país ha protagonizado una brecha de seguridad interna. El incidente involucra directamente a Madhu Gottumukkala, director interino de la Agencia de Ciberseguridad y Seguridad de Infraestructura (CISA), quien puso a prueba la robustez de sus propios sistemas al cargar archivos gubernamentales confidenciales en la plataforma ChatGPT.

Según los reportes publicados por RT, basados en una investigación original de Politico, Gottumukkala procesó a través de la inteligencia artificial una serie de documentos que, si bien no poseían una clasificación de “secreto de Estado”, estaban estrictamente catalogados para “solo para uso oficial” (FOUO). Esta etiqueta implica que la información es sensible y su divulgación fuera de los canales controlados está prohibida por normativas federales vigentes en este 2026.

 EFE/EPA/WU HAO

Al momento de realizar las cargas, se activaron de inmediato múltiples alertas de seguridad automáticas en las redes federales. Estas defensas, diseñadas por la propia CISA para detectar la divulgación no autorizada de material gubernamental, identificaron que información relativa a contratos gubernamentales estaba siendo transmitida hacia los servidores externos de OpenAI sin la debida encriptación o supervisión.

Para entender la magnitud del riesgo identificado por las fuentes del Departamento de Seguridad Nacional (DHS), se han destacado los siguientes factores críticos:

  • Entrenamiento de Datos Públicos: Cualquier material subido a la versión pública de ChatGPT se comparte con OpenAI para mejorar el algoritmo, lo que significa que datos sensibles del gobierno ahora forman parte de una base de datos privada.
  • Violación de la Cadena de Custodia: El envío de archivos contractuales rompe la trazabilidad obligatoria para los documentos de adquisición pública, exponiendo detalles de proveedores estratégicos.
  • Fallo en el Modelo de Confianza Cero: El funcionario ignoró las restricciones tecnológicas impuestas al resto del personal, creando un agujero en la muralla digital de la agencia.

¿Qué tipo de documentos filtró Madhu Gottumukkala en la plataforma de OpenAI?

De acuerdo con las filtraciones obtenidas por Politico y difundidas por RT, los archivos contenían información técnica y financiera sobre contratos gubernamentales de la CISA. Aunque no se trataba de archivos bajo la categoría de “Top Secret”, su clasificación como “Solo para uso oficial” prohíbe explícitamente su procesamiento en nubes comerciales que no tengan certificaciones de seguridad gubernamentales específicas. Estos documentos revelan cómo la agencia adquiere tecnología y quiénes son sus aliados en la defensa de la infraestructura nacional.

¿Por qué es peligroso que el jefe de CISA utilice ChatGPT con datos sensibles?

El peligro principal reside en la fuga de datos hacia un entorno no controlado. Al ser una IA generativa comercial, la plataforma retiene la información para su propio aprendizaje. Si un actor malicioso o una potencia extranjera realiza consultas específicas en el futuro, el modelo podría revelar inadvertidamente fragmentos de los contratos de la CISA. Además, como señala el medio RT, este comportamiento contradice la misión de la agencia de educar al país sobre el manejo seguro de datos y la prevención de amenazas externas.

Foto: Canva

¿Cuáles son las consecuencias políticas tras el incidente de ciberseguridad?

La controversia ha escalado hasta el Congreso, donde se cuestiona la aptitud de Gottumukkala para liderar la CISA. Fuentes internas revelan que el funcionario obtuvo un permiso especial para eludir los bloqueos de red que el resto de los empleados debe respetar. La portavoz de CISA, Marci McCarthy, declaró que el uso fue “limitado y de corto plazo”, pero esto no ha frenado la revisión técnica que lidera el DHS para evaluar si se ha cometido una violación federal que amerite la revocación de sus credenciales de seguridad nacional.

¿Existe una alternativa segura para el uso de IA en el gobierno de EE. UU.?

Sí, y este es uno de los puntos más críticos del debate. El gobierno de los Estados Unidos ya cuenta con herramientas como DHSChat, una instancia de inteligencia artificial cerrada y segura que no comparte datos con el exterior. Sin embargo, los reportes indican que Gottumukkala prefirió la facilidad de la versión pública de ChatGPT, ignorando las herramientas oficiales y seguras que su propia agencia promueve. Este incidente forzará una revisión profunda de cómo se otorga el acceso a la IA en las altas esferas del poder este

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados