¿Alguien está espiando tu conversación con ChatGPT?

Cientos de millones de usuarios interactúan a diario con ChatGPT sin sospechar que sus conversaciones podrían estar siendo vigiladas. La firma de ciberseguridad Tenable acaba de descubrir siete vulnerabilidades críticas que exponen datos privados de millones de personas, incluyendo los modelos más recientes como GPT-5.

Las fallas, denominadas colectivamente como HackedGPT, permiten a los atacantes saltarse los sistemas de seguridad de OpenAI y crear cadenas de ataque completas. Desde la inyección de comandos maliciosos hasta el robo masivo de información confidencial, estas brechas representan una amenaza real para cualquiera que use esta IA.

Lo más preocupante es que algunos ataques no requieren ninguna acción por parte del usuario. Simplemente haciendo una pregunta inocente a ChatGPT, podrías activar sin saberlo una trampa que filtra tus datos personales.

¿Qué es una inyección de prompt?

Para entender estas amenazas, primero hay que comprender cómo funcionan. Un prompt es la instrucción o pregunta que le das a la IA. La inyección de prompt indirecta ocurre cuando la inteligencia artificial es engañada por comandos ocultos que no vienen directamente del usuario.

Estos comandos maliciosos están escondidos en fuentes externas que el modelo consulta, como sitios web, comentarios en blogs o publicaciones en redes sociales. Cuando ChatGPT navega por ese contenido para responder tu consulta, sigue ciegamente las instrucciones ocultas sin darse cuenta de que está siendo manipulado.

Moshe Bernstein, ingeniero de investigación senior de Tenable, advirtió que estos sistemas de IA "no son solo objetivos potenciales; pueden convertirse en herramientas de ataque que recolectan información silenciosamente".

En un mundo donde la seguridad digital es tan vital como tener el mejor antivirus instalado en tu ordenador, conocer estos riesgos se vuelve fundamental.

Las 7 amenazas que acechan a ChatGPT

La investigación de Tenable identificó siete vulnerabilidades específicas que afectan tanto a ChatGPT-4o como a GPT-5. Aunque OpenAI ha corregido algunas, varias permanecen activas:

  1. Inyección a través de sitios confiables: Los atacantes esconden comandos dentro de contenido aparentemente legítimo, como comentarios en blogs. Cuando ChatGPT accede para resumir o leer ese contenido, ejecuta las instrucciones ocultas.
  2. Ataque 0-clic en búsquedas: Esta es especialmente peligrosa. El ataque se activa sin que hagas clic en nada, simplemente al hacer una pregunta que requiere que ChatGPT busque en la web. El modelo puede encontrar una página con código malicioso indexado y filtrar tus datos con una sola instrucción.
  3. Inyección por 1-clic: Un atacante incrusta comandos ocultos en un enlace aparentemente inofensivo. Al hacer clic, se desencadenan acciones maliciosas que permiten tomar el control del chat.
  4. Evasión de filtros de seguridad: Los atacantes descubrieron cómo eludir la validación de seguridad usando enlaces de Bing que son de confianza, pero ocultan el destino real, dirigiendo al usuario a sitios infectados.
  5. Inyección conversacional: Usan el propio sistema de navegación de ChatGPT (SearchGPT) para insertar comandos ocultos que el modelo lee como si fueran parte de la conversación natural.
  6. Ocultación de contenido malicioso: Mediante un error de formato en markdown, los atacantes esconden instrucciones maliciosas en bloques de código. Ves un mensaje limpio, pero ChatGPT lee y ejecuta el contenido oculto.
  7. Inyección de memoria persistente: Esta técnica permite que las instrucciones maliciosas se guarden en la memoria a largo plazo de ChatGPT. Incluso después de cerrar la aplicación, la amenaza persiste y el modelo repetirá los comandos en futuras sesiones hasta que elimines la memoria manualmente.

¿Cómo protegerte de las amenazas de espionaje en ChatGPT?

Aunque algunas vulnerabilidades han sido parcialmente corregidas, los expertos de Tenable señalan que la inyección de prompt es un problema inherente a cómo funcionan los modelos de lenguaje. Probablemente no se solucionará por completo en el futuro cercano.

Mientras tanto, puedes tomar estas precauciones:

  • Nunca compartas información sensible con ChatGPT: datos bancarios, contraseñas, documentos de identidad o información confidencial de tu empresa.
  • Activa la autenticación en dos pasos en tu cuenta de OpenAI para añadir una capa extra de seguridad.
  • Elimina manualmente los chats donde hayas introducido información sensible por error.
  • Desactiva el almacenamiento de conversaciones en las opciones de Data Controls si no quieres que tus chats se usen para entrenar el modelo.
  • Verifica siempre los enlaces que ChatGPT te sugiere antes de hacer clic en ellos.
  • Cierra sesión después de cada uso si compartes tu ordenador o teléfono con otras personas.

¿Cómo protegerte de estas amenazas?

Aunque algunas vulnerabilidades han sido parcialmente corregidas, los expertos de Tenable señalan que la inyección de prompt es un problema inherente a cómo funcionan los modelos de lenguaje. Probablemente no se solucionará por completo en el futuro cercano.

Mientras tanto, puedes tomar estas precauciones:

  • Nunca compartas información sensible con ChatGPT: datos bancarios, contraseñas, documentos de identidad o información confidencial de tu empresa.
  • Activa la autenticación en dos pasos en tu cuenta de OpenAI para añadir una capa extra de seguridad.
  • Elimina manualmente los chats donde hayas introducido información sensible por error.
  • Desactiva el almacenamiento de conversaciones en las opciones de Data Controls si no quieres que tus chats se usen para entrenar el modelo.
  • Verifica siempre los enlaces que ChatGPT te sugiere antes de hacer clic en ellos.
  • Cierra sesión después de cada uso si compartes tu ordenador o teléfono con otras personas.

Últimas Noticias

Imagen de la noticia Análisis: ¿Es Avira el mejor antivirus de 2026?

Análisis: ¿Es Avira el mejor antivirus de 2026?

Leer más
Imagen de la noticia Sophos: Análisis en profundidad en 2026

Sophos: Análisis en profundidad en 2026

Leer más
Imagen de la noticia ¿Cuál es el mejor antivirus gratuito de 2026?

¿Cuál es el mejor antivirus gratuito de 2026?

Leer más
Imagen de la noticia 360 Total Security: Análisis en profundidad en 2026

360 Total Security: Análisis en profundidad en 2026

Leer más
Imagen de la noticia Windows Defender: Análisis en profundidad en 2026

Windows Defender: Análisis en profundidad en 2026

Leer más
Imagen de la noticia Así se configura un RAID de discos duros con Windows 10 y 11

Así se configura un RAID de discos duros con Windows 10 y 11

Leer más
Imagen de la noticia Tu móvil es el nuevo objetivo: 5 hábitos que te salvarán en 2026

Tu móvil es el nuevo objetivo: 5 hábitos que te salvarán en 2026

Leer más
Imagen de la noticia Musk promete que Grok Code revolucionará la programación en febrero

Musk promete que Grok Code revolucionará la programación en febrero

Leer más
Imagen de la noticia OpenAI empieza a contradecirse: ya prueba anuncios en ChatGPT

OpenAI empieza a contradecirse: ya prueba anuncios en ChatGPT

Leer más
Imagen de la noticia Gemini roba terreno a ChatGPT: ¿Es el fin de una era?

Gemini roba terreno a ChatGPT: ¿Es el fin de una era?

Leer más
Imagen de la noticia La IA de código abierto ya alcanza a los gigantes en solo 6 meses

La IA de código abierto ya alcanza a los gigantes en solo 6 meses

Leer más
Imagen de la noticia ¿Los antivirus convencionales protegen de la IA?

¿Los antivirus convencionales protegen de la IA?

Leer más
Ver Todas