¿Nos espía ChatGPT? Así se puede eliminar toda la información personal rápidamente
Los expertos recomiendan cautela al compartir datos personales con el programa de inteligencia artificial, ante la falta de transparencia de la compañía
Un sistema inteligente, que entiende perfectamente el lenguaje natural, se nutre de forma inmediata de una cantidad ingente de datos y tiene respuesta prácticamente para cualquier pregunta. ChatGPT es tan bueno —sobre todo en su última versión, GPT-4— que han bastado unos pocos meses para que ...
Un sistema inteligente, que entiende perfectamente el lenguaje natural, se nutre de forma inmediata de una cantidad ingente de datos y tiene respuesta prácticamente para cualquier pregunta. ChatGPT es tan bueno —sobre todo en su última versión, GPT-4— que han bastado unos pocos meses para que saltaran las alarmas: ¿Hasta dónde puede llegar su influencia? Más allá de debates morales, la otra gran inquietud que despierta ChatGPT es su poco transparente gestión de la información que procesa.
“No sabemos lo que hace realmente con los datos”, advierte Borja Adsuara, abogado experto en derecho digital, “y no saber qué hacen con los datos ya es en sí mismo un riesgo”. De la misma opinión es Federico Vadillo, experto en seguridad de Akamai: “El uso de ChatGPT presenta riesgos en términos de protección de datos y cumplimiento normativo, especialmente en relación con el Reglamento General de Protección de Datos, el RGPD”. Este experto va más lejos al advertir que estos datos personales “no autorizados”, podrían “ser transferidos fuera de la Unión Europea”.
La aventura de eliminar los datos personales
“Los sistemas basados en inteligencia artificial (IA) se suelen comportar como una caja negra: sabemos lo que ocurre al final del proceso, pero no conocemos cómo el software aprende y toma decisiones”, alerta Adrián Moreno, experto en ciberseguridad. “Este fenómeno plantea desafíos de comprensión, control y ética. Es por ello que conviene establecer un marco regulatorio de cara a abordar estos desafíos para permitir un desarrollo y uso responsable y seguro de la IA”, añade.
Moreno recuerda que “el artículo 15 del RGPD establece que ‘el interesado tendrá derecho a obtener del responsable del tratamiento confirmación de si se están tratando o no datos personales que le conciernen’”, y en este sentido, la forma en la que los sistemas basados en IA emplean la información es “fuente de preocupación”.
Ante esta realidad, ¿cómo eliminar toda la información personal? La mala noticia es que no hay ninguna forma automatizada ni inmediata de eliminar la información almacenada. Esto es, las conversaciones que se mantengan con el sistema, quedan registradas, junto con el nombre del usuario y sus datos de registro, tal y como anuncia la política de privacidad de la compañía. Como no existe una forma inmediata ni automatizada de acceder y eliminar la información que se consulta, OpenAI ha dispuesto un formulario que el interesado debe rellenar para solicitar la información de los datos. Y aquí viene lo preocupante: el usuario se ve obligado a aceptar una cláusula en la que OpenAI advierte que puede que no sea capaz de eliminar esta información.
Esto es, tras completar un complejo formulario, en el que se demuestre de forma fehaciente (incluso con capturas de pantalla) que el sistema está ofreciendo información de uno mismo y los motivos por los que se solicita su eliminación. Este documento debe ser cumplimentado con los datos reales del interesado, quien, además, debe “jurar” por escrito la veracidad de lo que expone. Y para empeorar más, si cabe, las cosas, en este formulario se comunica al usuario que la información cumplimentada podría ser cotejada con otras fuentes para verificar su veracidad.
¿Qué se hace y cómo se emplea esta información? OpenAI sostiene que no explota los datos personales con otros fines que no sean la mejora de sus sistemas, pero, por otro lado, en su política de privacidad advierte que los datos pueden ser “cedidos a terceros sin avisar al usuario”. En definitiva, OpenAI ofrece un producto de un elevado valor añadido pero a un coste todavía superior para el usuario: la ignorancia sobre el tratamiento de sus datos. Cabe recordar, además, que con la información que se consulta a ChatGPT es fácil hacer un perfil de usuario y muy tentador hacer una explotación del mismo. Ante esta disyuntiva, y si no se desean asumir riesgos, lo más prudente es hacer un uso consciente de lo que se consulta o, siendo más radicales, no utilizar la herramienta hasta que no se acoja a normativas como el RGPD: “Lo mejor que no introducir información personal, por si acaso”, recomienda Adsuara.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.