La firma de ciberseguridad advierte que conversaciones, datos empresariales y credenciales podrían quedar expuestos si los usuarios no configuran correctamente herramientas como ChatGPT, Gemini o Claude.
El Pregonero, Santo Domingo.. — La inteligencia artificial ya forma parte de la rutina diaria de millones de personas: redactar correos, resumir documentos, generar contenido o incluso programar. Sin embargo, mientras plataformas como ChatGPT continúan expandiendo su alcance global, especialistas en ciberseguridad advierten sobre un tema que muchos usuarios aún desconocen: ¿qué ocurre realmente con toda la información que se escribe en estos sistemas?
De acuerdo con ESET, compañía líder en detección proactiva de amenazas, el crecimiento acelerado de la IA generativa también ha incrementado los riesgos asociados a la privacidad y protección de datos. OpenAI reportó a inicios de este año más de 900 millones de usuarios activos semanales en ChatGPT, una cifra que evidencia el enorme volumen de información que circula diariamente a través de estas plataformas.
“Muchas personas creen que las conversaciones con la IA funcionan como un chat privado que desaparece al cerrar la ventana. En realidad, existe una compleja red de almacenamiento y procesamiento de datos que puede comprometer información sensible si no se toman precauciones”, explicó Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica.
Lo que sucede con los datos en ChatGPT
ESET detalla que cada interacción realizada en herramientas de IA pasa por distintos niveles de procesamiento:
1. Historial y almacenamiento de conversaciones
Cada mensaje enviado puede almacenarse en los servidores de la plataforma para mantener el contexto de las conversaciones y permitir el acceso desde distintos dispositivos. En algunos casos, esta información puede conservarse hasta por 30 días por razones de seguridad y monitoreo.
2. Uso de datos para entrenar modelos
Uno de los aspectos más sensibles es que, en versiones gratuitas y planes estándar, las conversaciones podrían utilizarse para mejorar los modelos de inteligencia artificial. Aunque plataformas como OpenAI permiten desactivar esta opción, muchos usuarios desconocen esta configuración.
“Si un empleado comparte código propietario, estrategias comerciales o información confidencial, existe el riesgo de que esos datos formen parte del entrenamiento del modelo. Investigaciones académicas ya han demostrado que ciertos modelos pueden memorizar fragmentos de información y reproducirlos bajo determinadas condiciones”, advirtió Micucci.
3. Revisión humana de conversaciones
Además del análisis automatizado, algunas plataformas utilizan revisores humanos para evaluar la calidad y seguridad de las respuestas generadas por la IA. Esto significa que fragmentos de conversaciones podrían ser visualizados por personas reales como parte de procesos internos de supervisión.
Cuentas de ChatGPT en la mira de ciberdelincuentes
ESET también alertó sobre el creciente interés de hackers y grupos criminales en las cuentas de usuarios de herramientas de IA. El historial almacenado en estas plataformas puede contener desde documentos corporativos y estrategias empresariales hasta datos personales sensibles.
La firma recordó que durante 2024 más de 225,000 credenciales de acceso a ChatGPT fueron detectadas en venta dentro de foros de la Dark Web, muchas obtenidas mediante malware especializado en robo de información.
“El peligro ya no está únicamente en lo que las personas escriben, sino también en quién podría acceder a ese historial si la cuenta es comprometida”, señaló el especialista.
Gemini y Claude también recopilan información
La investigación de ESET también analiza cómo otras plataformas de IA manejan los datos de los usuarios.
En el caso de Gemini, desarrollado por Google, las conversaciones pueden utilizarse para mejorar los servicios y, en algunos casos, ser revisadas por entrenadores humanos. Aunque Google Workspace ofrece políticas empresariales más estrictas, los usuarios deben desactivar manualmente ciertas configuraciones para limitar el uso de datos.
Por otro lado, Claude, el modelo desarrollado por Anthropic, apuesta por una política de retención de datos más limitada y mecanismos de privacidad más robustos para clientes empresariales, aunque las versiones gratuitas también pueden utilizar información para entrenamiento del sistema.
“La gran diferencia entre las versiones gratuitas y empresariales está en el nivel de protección. En muchos casos, la privacidad se convierte en un servicio premium”, enfatizó Micucci.
Recomendaciones para proteger la privacidad al usar IA
Ante el auge de estas herramientas, ESET recomienda adoptar medidas básicas de protección digital:
- No compartir información confidencial, credenciales, datos financieros o documentos internos.
- Sustituir nombres reales y datos sensibles por alias antes de enviar consultas.
- Activar la autenticación de dos factores (2FA) en todas las plataformas.
- Utilizar contraseñas únicas y robustas.
- Revisar manualmente las configuraciones de privacidad y desactivar el uso de conversaciones para entrenamiento cuando sea posible.
- Mantener actualizado el sistema operativo y el antivirus para prevenir malware especializado en robo de credenciales.
Para ESET, el uso seguro de la inteligencia artificial dependerá cada vez más de la educación digital y de la capacidad de usuarios y empresas para entender cómo se procesan sus datos dentro de estas plataformas.



