La empresa de ciberseguridad ESET advirtió sobre los riesgos de privacidad y seguridad relacionados con el uso de herramientas de inteligencia artificial como ChatGPT.

Según explicó Mario Micucci, muchas personas creen que las conversaciones desaparecen al cerrar la aplicación, cuando en realidad parte de esa información puede almacenarse y utilizarse para distintos fines.

La firma señaló que los mensajes enviados atraviesan procesos de almacenamiento en servidores, posible uso para entrenamiento de modelos y revisión humana de fragmentos anonimizados para evaluar respuestas y seguridad.

Advierten sobre filtración de datos sensibles

ESET indicó que uno de los principales riesgos es compartir información confidencial dentro de plataformas de IA.

Entre los datos que recomiendan no introducir figuran credenciales, planes estratégicos, documentos internos, datos de clientes y código propietario.

Además, alertaron sobre el creciente interés de ciberdelincuentes en las cuentas de usuarios de herramientas de inteligencia artificial.

  • Según datos citados por la empresa, más de 225 mil credenciales vinculadas a ChatGPT fueron encontradas en foros de la dark web durante 2024, muchas obtenidas mediante programas maliciosos diseñados para robar información.

Recomiendan reforzar medidas de seguridad

La compañía recomendó evitar compartir información sensible y anonimizar datos antes de utilizarlos en plataformas de inteligencia artificial.

También aconsejó utilizar contraseñas seguras y activar la autenticación en dos pasos para proteger las cuentas.

  • Asimismo, sugirió revisar las configuraciones de privacidad en servicios como Gemini y ChatGPT, desactivando opciones relacionadas con almacenamiento de historial y uso de conversaciones para entrenamiento de modelos.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí