Jefe de ciberseguridad de EE. UU. sube documentos sensibles a ChatGPT y activa las alertas

ciberseguridad de Estados unidos ChatGPT

Por Ernesto Becerra 


La inteligencia artificial parece haber llegado para quedarse. Aunque puede ser una herramienta útil, su uso irresponsable ya comienza a generar serias preocupaciones, incluso dentro de los más altos niveles del gobierno de Estados Unidos.

El jefe interino de la principal agencia de ciberseguridad del país, la Agencia de Ciberseguridad y Seguridad de las Infraestructuras (CISA), subió documentos gubernamentales sensibles a una versión pública de ChatGPT, lo que activó múltiples alertas internas de seguridad y derivó en una revisión federal, de acuerdo con un reporte de POLITICO.

Según cuatro funcionarios del Departamento de Seguridad Nacional (DHS), Madhu Gottumukkala cargó en agosto de 2025 documentos de contratación marcados como “solo para uso oficial”. Si bien los archivos no estaban clasificados, contenían información sensible que no debía hacerse pública.

Los sensores de ciberseguridad de CISA detectaron las cargas de información y emitieron varias alertas automáticas, especialmente durante la primera semana de agosto. Posteriormente, altos funcionarios del DHS iniciaron una revisión interna para evaluar si la seguridad nacional había sido comprometida. Hasta ahora, no se ha dado a conocer una conclusión oficial de dicha investigación.

El incidente resulta especialmente delicado porque Gottumukkala había solicitado permiso especial para usar ChatGPT poco después de asumir su cargo en mayo de 2025, en un momento en el que la herramienta estaba bloqueada para la mayoría de los empleados del DHS. De acuerdo con CISA, se le concedió una excepción temporal y limitada, bajo ciertos controles de seguridad.

Marci McCarthy, directora de asuntos públicos de CISA, confirmó que el uso autorizado fue de corta duración y defendió el interés de la agencia en aprovechar la inteligencia artificial como parte de la modernización gubernamental, en línea con la orden ejecutiva del presidente Donald Trump, que busca eliminar barreras para el liderazgo estadounidense en IA.

No obstante, el caso ha encendido las alarmas debido a que cualquier información introducida en la versión pública de ChatGPT es compartida con OpenAI, lo que implica el riesgo de que dichos datos puedan utilizarse para entrenar modelos o responder consultas de otros usuarios. Actualmente, la plataforma cuenta con más de 700 millones de usuarios activos.

Otros sistemas de IA aprobados por el DHS, como DHSChat, están diseñados para evitar que la información salga de las redes federales, algo que no ocurre con herramientas comerciales abiertas.

Este no es el primer episodio controvertido en la gestión de Gottumukkala. Durante el verano, al menos seis empleados de carrera fueron puestos en licencia tras un fallido examen de polígrafo de contrainteligencia que él mismo impulsó, aunque el DHS calificó dicha prueba como “no autorizada”. Además, recientemente intentó remover al director de información de CISA, movimiento que fue bloqueado por otros funcionarios políticos.

La noticia llega en un contexto en el que gobiernos y empresas aceleran la adopción de inteligencia artificial, especialmente bajo la actual administración estadounidense, que ha promovido su uso y reducido regulaciones. Sin embargo, este caso pone en evidencia los riesgos reales de seguridad cuando la IA se utiliza sin los protocolos adecuados, incluso por quienes están encargados de proteger la infraestructura digital del país.

Síguemos en Google News