• SÁBADO 2
  • de mayo de 2026

Ciencia y Tecnología

FOTOGRAFIA

¿Qué pasa con tus datos en ChatGPT? Riesgos de privacidad y cómo protegerlos


Según datos difundidos por OpenAI, ChatGPT alcanzó a inicios de este año los 900 millones de usuarios activos semanales. Frente a ese uso masivo, especialistas en ciberseguridad advierten que cada conversación puede implicar riesgos de privacidad si no se toman precauciones.

Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica, explicó que muchas personas creen que los chats desaparecen al cerrar la ventana, cuando en realidad los mensajes pasan por distintos procesos de almacenamiento y análisis.

Lee también: Estas son 3 señales de que hackearon tu teléfono móvil

Cómo se almacenan los datos en ChatGPT

De acuerdo con ESET, la información ingresada en ChatGPT atraviesa tres etapas principales. La primera es el almacenamiento e historial, ya que los mensajes pueden guardarse en servidores para permitir el acceso desde distintos dispositivos y mantener el contexto de la conversación.

La segunda etapa es el entrenamiento de modelos, uno de los puntos más sensibles en materia de privacidad. En versiones gratuitas y Plus, OpenAI puede usar conversaciones para mejorar sus sistemas, aunque el usuario tiene la posibilidad de desactivar esa función desde la configuración.

En planes empresariales como Business, Enterprise, Edu, Healthcare y en la API, los datos no se utilizan para entrenamiento de forma predeterminada.

La tercera fase es la revisión humana. Algunas conversaciones anonimizadas pueden ser revisadas por especialistas para evaluar la calidad y seguridad de las respuestas generadas por la IA.

Lee también: Tendencias Digitales 2026: TikTok domina el Perú

Riesgos de compartir información sensible

ESET advirtió que ingresar datos privados, código propietario, planes estratégicos o credenciales puede exponer a empresas y usuarios a una pérdida de control sobre información sensible.

Además, investigaciones académicas demostraron que ciertos modelos de lenguaje pueden memorizar fragmentos de datos utilizados durante su entrenamiento y reproducirlos bajo condiciones específicas.

Por ello, los expertos recomiendan no compartir documentos internos, datos de clientes ni información confidencial en herramientas de IA que no cuenten con controles adecuados de privacidad.

El interés de los ciberdelincuentes

Otro riesgo creciente está vinculado al robo de cuentas. Según datos de 2024 citados por ESET, más de 225.000 registros de inicio de sesión de ChatGPT fueron hallados a la venta en foros de la Dark Web.

Estas credenciales suelen ser obtenidas mediante malware tipo infostealer, diseñado para robar contraseñas almacenadas en equipos comprometidos.

Una cuenta vulnerada puede exponer historiales completos de conversaciones, documentos cargados, estrategias de negocio y datos personales.

Lee también: Cyber Days 2026: consejos para no ser víctima de una estafa digital con IA

Cómo manejan los datos otras plataformas de IA

En el caso de Gemini, Google señala que las conversaciones pueden utilizarse para mejorar servicios, aunque en entornos corporativos de Google Workspace existen políticas especiales para evitar el uso de datos en modelos globales.

Por su parte, Claude, desarrollado por Anthropic, asegura una retención mínima de información y ofrece mecanismos más directos de exclusión para clientes comerciales que trabajan con datos sensibles.

Recomendaciones para proteger la privacidad

Especialistas de ESET sugieren aplicar medidas básicas para reducir riesgos al usar inteligencia artificial:

- No ingresar información que no se haría pública.
- Reemplazar nombres reales por alias o datos genéricos.
- Eliminar claves, códigos sensibles o cifras estratégicas.
- Usar contraseñas fuertes y diferentes para cada cuenta.
- Activar la autenticación de dos factores (2FA).
- Mantener sistema operativo y antivirus actualizados.
- Revisar la configuración de privacidad y desactivar el uso de datos para entrenamiento cuando sea posible.


Más en El Peruano: