¿Alguien está espiando tu conversación con ChatGPT?

Cientos de millones de usuarios interactúan a diario con ChatGPT sin sospechar que sus conversaciones podrían estar siendo vigiladas. La firma de ciberseguridad Tenable acaba de descubrir siete vulnerabilidades críticas que exponen datos privados de millones de personas, incluyendo los modelos más recientes como GPT-5.

Las fallas, denominadas colectivamente como HackedGPT, permiten a los atacantes saltarse los sistemas de seguridad de OpenAI y crear cadenas de ataque completas. Desde la inyección de comandos maliciosos hasta el robo masivo de información confidencial, estas brechas representan una amenaza real para cualquiera que use esta IA.

Lo más preocupante es que algunos ataques no requieren ninguna acción por parte del usuario. Simplemente haciendo una pregunta inocente a ChatGPT, podrías activar sin saberlo una trampa que filtra tus datos personales.

¿Qué es una inyección de prompt?

Para entender estas amenazas, primero hay que comprender cómo funcionan. Un prompt es la instrucción o pregunta que le das a la IA. La inyección de prompt indirecta ocurre cuando la inteligencia artificial es engañada por comandos ocultos que no vienen directamente del usuario.

Estos comandos maliciosos están escondidos en fuentes externas que el modelo consulta, como sitios web, comentarios en blogs o publicaciones en redes sociales. Cuando ChatGPT navega por ese contenido para responder tu consulta, sigue ciegamente las instrucciones ocultas sin darse cuenta de que está siendo manipulado.

Moshe Bernstein, ingeniero de investigación senior de Tenable, advirtió que estos sistemas de IA "no son solo objetivos potenciales; pueden convertirse en herramientas de ataque que recolectan información silenciosamente".

En un mundo donde la seguridad digital es tan vital como tener el mejor antivirus instalado en tu ordenador, conocer estos riesgos se vuelve fundamental.

Las 7 amenazas que acechan a ChatGPT

La investigación de Tenable identificó siete vulnerabilidades específicas que afectan tanto a ChatGPT-4o como a GPT-5. Aunque OpenAI ha corregido algunas, varias permanecen activas:

  1. Inyección a través de sitios confiables: Los atacantes esconden comandos dentro de contenido aparentemente legítimo, como comentarios en blogs. Cuando ChatGPT accede para resumir o leer ese contenido, ejecuta las instrucciones ocultas.
  2. Ataque 0-clic en búsquedas: Esta es especialmente peligrosa. El ataque se activa sin que hagas clic en nada, simplemente al hacer una pregunta que requiere que ChatGPT busque en la web. El modelo puede encontrar una página con código malicioso indexado y filtrar tus datos con una sola instrucción.
  3. Inyección por 1-clic: Un atacante incrusta comandos ocultos en un enlace aparentemente inofensivo. Al hacer clic, se desencadenan acciones maliciosas que permiten tomar el control del chat.
  4. Evasión de filtros de seguridad: Los atacantes descubrieron cómo eludir la validación de seguridad usando enlaces de Bing que son de confianza, pero ocultan el destino real, dirigiendo al usuario a sitios infectados.
  5. Inyección conversacional: Usan el propio sistema de navegación de ChatGPT (SearchGPT) para insertar comandos ocultos que el modelo lee como si fueran parte de la conversación natural.
  6. Ocultación de contenido malicioso: Mediante un error de formato en markdown, los atacantes esconden instrucciones maliciosas en bloques de código. Ves un mensaje limpio, pero ChatGPT lee y ejecuta el contenido oculto.
  7. Inyección de memoria persistente: Esta técnica permite que las instrucciones maliciosas se guarden en la memoria a largo plazo de ChatGPT. Incluso después de cerrar la aplicación, la amenaza persiste y el modelo repetirá los comandos en futuras sesiones hasta que elimines la memoria manualmente.

¿Cómo protegerte de las amenazas de espionaje en ChatGPT?

Aunque algunas vulnerabilidades han sido parcialmente corregidas, los expertos de Tenable señalan que la inyección de prompt es un problema inherente a cómo funcionan los modelos de lenguaje. Probablemente no se solucionará por completo en el futuro cercano.

Mientras tanto, puedes tomar estas precauciones:

  • Nunca compartas información sensible con ChatGPT: datos bancarios, contraseñas, documentos de identidad o información confidencial de tu empresa.
  • Activa la autenticación en dos pasos en tu cuenta de OpenAI para añadir una capa extra de seguridad.
  • Elimina manualmente los chats donde hayas introducido información sensible por error.
  • Desactiva el almacenamiento de conversaciones en las opciones de Data Controls si no quieres que tus chats se usen para entrenar el modelo.
  • Verifica siempre los enlaces que ChatGPT te sugiere antes de hacer clic en ellos.
  • Cierra sesión después de cada uso si compartes tu ordenador o teléfono con otras personas.

¿Cómo protegerte de estas amenazas?

Aunque algunas vulnerabilidades han sido parcialmente corregidas, los expertos de Tenable señalan que la inyección de prompt es un problema inherente a cómo funcionan los modelos de lenguaje. Probablemente no se solucionará por completo en el futuro cercano.

Mientras tanto, puedes tomar estas precauciones:

  • Nunca compartas información sensible con ChatGPT: datos bancarios, contraseñas, documentos de identidad o información confidencial de tu empresa.
  • Activa la autenticación en dos pasos en tu cuenta de OpenAI para añadir una capa extra de seguridad.
  • Elimina manualmente los chats donde hayas introducido información sensible por error.
  • Desactiva el almacenamiento de conversaciones en las opciones de Data Controls si no quieres que tus chats se usen para entrenar el modelo.
  • Verifica siempre los enlaces que ChatGPT te sugiere antes de hacer clic en ellos.
  • Cierra sesión después de cada uso si compartes tu ordenador o teléfono con otras personas.

Últimas Noticias

Imagen de la noticia Xiaomi esconde un antivirus secreto en tu móvil

Xiaomi esconde un antivirus secreto en tu móvil

Leer más
Imagen de la noticia ¿Virus Real o Trampa? Descubre la verdad antes de hacer clic

¿Virus Real o Trampa? Descubre la verdad antes de hacer clic

Leer más
Imagen de la noticia ¿Cuál es el mejor antivirus para empresas?

¿Cuál es el mejor antivirus para empresas?

Leer más
Imagen de la noticia La Guerra del Siglo XXII: La IA ya crea virus que mutan solos

La Guerra del Siglo XXII: La IA ya crea virus que mutan solos

Leer más
Imagen de la noticia ¿Linux ya no es seguro? Kaspersky tiene la solución

¿Linux ya no es seguro? Kaspersky tiene la solución

Leer más
Imagen de la noticia ¿Cuál es el mejor antivirus gaming en 2026?

¿Cuál es el mejor antivirus gaming en 2026?

Leer más
Imagen de la noticia ¿Windows 11 está roto? Microsoft lo admite

¿Windows 11 está roto? Microsoft lo admite

Leer más
Imagen de la noticia Eset: Análisis en profundidad en 2026

Eset: Análisis en profundidad en 2026

Leer más
Imagen de la noticia ¡Libera espacio de Whatsapp! Así se hace en 2 minutos

¡Libera espacio de Whatsapp! Así se hace en 2 minutos

Leer más
Imagen de la noticia El fraude que tu banco descubre… cuando ya es tarde

El fraude que tu banco descubre… cuando ya es tarde

Leer más
Imagen de la noticia ¿La Guardia Civil te escribe por WhatsApp? ¡Es una trampa!

¿La Guardia Civil te escribe por WhatsApp? ¡Es una trampa!

Leer más
Imagen de la noticia ¡3 ajustes en Windows para que tu PC vuele!

¡3 ajustes en Windows para que tu PC vuele!

Leer más
Ver Todas