¿Qué pasa con tus datos en ChatGPT? Riesgos de privacidad y cómo protegerlos
Redacción.- La empresa de ciberseguridad ESET alertó sobre los riesgos de privacidad y seguridad asociados al uso masivo de herramientas de inteligencia artificial como ChatGPT, debido al almacenamiento y procesamiento de los datos que los usuarios introducen en estas plataformas.
Según explicó Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica, muchas personas creen que las conversaciones con sistemas de IA desaparecen al cerrar la ventana, cuando en realidad la información puede almacenarse y utilizarse para distintos fines.
ESET destacó que uno de los mayores riesgos es compartir información confidencial, ya que algunos sistemas pueden utilizar esos datos para mejorar futuros modelos. Entre los contenidos sensibles que no deberían ingresarse figuran planes estratégicos, credenciales, datos de clientes, documentos internos y código propietario.
Además, la firma advirtió sobre el creciente interés de los ciberdelincuentes en las cuentas de usuarios de plataformas de IA. Datos de 2024 revelan que más de 225 mil credenciales de acceso a ChatGPT fueron encontradas a la venta en foros de la dark web, muchas obtenidas mediante programas maliciosos especializados en robo de información.
Ante este panorama, ESET recomendó evitar compartir datos sensibles, anonimizar información antes de introducirla en herramientas de IA y utilizar contraseñas seguras junto con autenticación de dos factores para proteger las cuentas.
La empresa también aconsejó revisar las configuraciones de privacidad de plataformas como ChatGPT y Gemini, desactivando opciones que permitan el almacenamiento del historial o el uso de conversaciones para entrenamiento de modelos, con el fin de reducir la exposición de datos personales y corporativos.
