Cientos de millones de usuarios interactúan a diario con ChatGPT sin sospechar que sus conversaciones podrían estar siendo vigiladas. La firma de ciberseguridad Tenable acaba de descubrir siete vulnerabilidades críticas que exponen datos privados de millones de personas, incluyendo los modelos más recientes como GPT-5.
Las fallas, denominadas colectivamente como HackedGPT, permiten a los atacantes saltarse los sistemas de seguridad de OpenAI y crear cadenas de ataque completas. Desde la inyección de comandos maliciosos hasta el robo masivo de información confidencial, estas brechas representan una amenaza real para cualquiera que use esta IA.
Lo más preocupante es que algunos ataques no requieren ninguna acción por parte del usuario. Simplemente haciendo una pregunta inocente a ChatGPT, podrías activar sin saberlo una trampa que filtra tus datos personales.
¿Qué es una inyección de prompt?
Para entender estas amenazas, primero hay que comprender cómo funcionan. Un prompt es la instrucción o pregunta que le das a la IA. La inyección de prompt indirecta ocurre cuando la inteligencia artificial es engañada por comandos ocultos que no vienen directamente del usuario.
Estos comandos maliciosos están escondidos en fuentes externas que el modelo consulta, como sitios web, comentarios en blogs o publicaciones en redes sociales. Cuando ChatGPT navega por ese contenido para responder tu consulta, sigue ciegamente las instrucciones ocultas sin darse cuenta de que está siendo manipulado.
Moshe Bernstein, ingeniero de investigación senior de Tenable, advirtió que estos sistemas de IA "no son solo objetivos potenciales; pueden convertirse en herramientas de ataque que recolectan información silenciosamente".
En un mundo donde la seguridad digital es tan vital como tener el mejor antivirus instalado en tu ordenador, conocer estos riesgos se vuelve fundamental.
Las 7 amenazas que acechan a ChatGPT
La investigación de Tenable identificó siete vulnerabilidades específicas que afectan tanto a ChatGPT-4o como a GPT-5. Aunque OpenAI ha corregido algunas, varias permanecen activas:
- Inyección a través de sitios confiables: Los atacantes esconden comandos dentro de contenido aparentemente legítimo, como comentarios en blogs. Cuando ChatGPT accede para resumir o leer ese contenido, ejecuta las instrucciones ocultas.
- Ataque 0-clic en búsquedas: Esta es especialmente peligrosa. El ataque se activa sin que hagas clic en nada, simplemente al hacer una pregunta que requiere que ChatGPT busque en la web. El modelo puede encontrar una página con código malicioso indexado y filtrar tus datos con una sola instrucción.
- Inyección por 1-clic: Un atacante incrusta comandos ocultos en un enlace aparentemente inofensivo. Al hacer clic, se desencadenan acciones maliciosas que permiten tomar el control del chat.
- Evasión de filtros de seguridad: Los atacantes descubrieron cómo eludir la validación de seguridad usando enlaces de Bing que son de confianza, pero ocultan el destino real, dirigiendo al usuario a sitios infectados.
- Inyección conversacional: Usan el propio sistema de navegación de ChatGPT (SearchGPT) para insertar comandos ocultos que el modelo lee como si fueran parte de la conversación natural.
- Ocultación de contenido malicioso: Mediante un error de formato en markdown, los atacantes esconden instrucciones maliciosas en bloques de código. Ves un mensaje limpio, pero ChatGPT lee y ejecuta el contenido oculto.
- Inyección de memoria persistente: Esta técnica permite que las instrucciones maliciosas se guarden en la memoria a largo plazo de ChatGPT. Incluso después de cerrar la aplicación, la amenaza persiste y el modelo repetirá los comandos en futuras sesiones hasta que elimines la memoria manualmente.
¿Cómo protegerte de las amenazas de espionaje en ChatGPT?
Aunque algunas vulnerabilidades han sido parcialmente corregidas, los expertos de Tenable señalan que la inyección de prompt es un problema inherente a cómo funcionan los modelos de lenguaje. Probablemente no se solucionará por completo en el futuro cercano.
Mientras tanto, puedes tomar estas precauciones:
- Nunca compartas información sensible con ChatGPT: datos bancarios, contraseñas, documentos de identidad o información confidencial de tu empresa.
- Activa la autenticación en dos pasos en tu cuenta de OpenAI para añadir una capa extra de seguridad.
- Elimina manualmente los chats donde hayas introducido información sensible por error.
- Desactiva el almacenamiento de conversaciones en las opciones de Data Controls si no quieres que tus chats se usen para entrenar el modelo.
- Verifica siempre los enlaces que ChatGPT te sugiere antes de hacer clic en ellos.
- Cierra sesión después de cada uso si compartes tu ordenador o teléfono con otras personas.
¿Cómo protegerte de estas amenazas?
Aunque algunas vulnerabilidades han sido parcialmente corregidas, los expertos de Tenable señalan que la inyección de prompt es un problema inherente a cómo funcionan los modelos de lenguaje. Probablemente no se solucionará por completo en el futuro cercano.
Mientras tanto, puedes tomar estas precauciones:
- Nunca compartas información sensible con ChatGPT: datos bancarios, contraseñas, documentos de identidad o información confidencial de tu empresa.
- Activa la autenticación en dos pasos en tu cuenta de OpenAI para añadir una capa extra de seguridad.
- Elimina manualmente los chats donde hayas introducido información sensible por error.
- Desactiva el almacenamiento de conversaciones en las opciones de Data Controls si no quieres que tus chats se usen para entrenar el modelo.
- Verifica siempre los enlaces que ChatGPT te sugiere antes de hacer clic en ellos.
- Cierra sesión después de cada uso si compartes tu ordenador o teléfono con otras personas.