Italia bloquea el uso de ChatGPT por incumplir la normativa de protección de datos
El regulador también critica que la herramienta de inteligencia artificial carece de filtros para verificar la edad de los menores
Italia ha dado un paso para poner cerco a la inteligencia artificial. En pleno auge de esta tecnología, Roma ha bloqueado este viernes, “con efecto inmediato” la herramienta ChatGPT, el chatbot inteligente capaz de simular y procesar conversaciones humanas y que pertenece a la tecnológica estadounidense OpenAI, a la que el país transalpino acusa de no respetar la ley de protección de datos de los consumidores. La suspensión se levantará cuando demuestre que cumple la ...
Italia ha dado un paso para poner cerco a la inteligencia artificial. En pleno auge de esta tecnología, Roma ha bloqueado este viernes, “con efecto inmediato” la herramienta ChatGPT, el chatbot inteligente capaz de simular y procesar conversaciones humanas y que pertenece a la tecnológica estadounidense OpenAI, a la que el país transalpino acusa de no respetar la ley de protección de datos de los consumidores. La suspensión se levantará cuando demuestre que cumple la normativa italiana sobre privacidad.
El Garante italiano para la Protección de Datos Personales, una autoridad administrativa independiente que vela por la protección de datos de los usuarios y consumidores, considera que la plataforma recoge datos de los usuarios de manera ilegal y ha abierto una investigación para esclarecer el funcionamiento preciso de esta herramienta y determinar si ha cometido una infracción.
El organismo italiano asegura que este chat, el más conocido de la emergente inteligencia artificial generativa, sufrió el pasado 20 de marzo una pérdida de datos (o violación de datos) sobre sus usuarios y las conversaciones que mantienen con la máquina y la información de pago de sus abonados.
El Garante italiano ha criticado, a través de un comunicado, “la falta de información a los usuarios y a todas las partes interesadas” sobre el proceso de recogida y gestión de datos privados de la plataforma. Y denuncia “la ausencia de base jurídica que justifique la recogida y almacenamiento masivos de datos personales con el fin de ‘entrenar’ los algoritmos que gestionan el funcionamiento de la plataforma”.
La autoridad italiana alega, basándose en “las comprobaciones efectuadas” que la información facilitada por ChatGPT “no siempre se corresponde con los datos reales”, lo que según el garante “da lugar a un tratamiento inexacto de los datos personales”.
Por último, Italia lamenta “la ausencia de todo tipo de filtro” en la verificación de la edad de sus usuarios, a pesar de que el servicio esté dirigido a mayores de 13 años. Y reprueba “la exposición de los menores a respuestas totalmente inadecuadas con respecto a su nivel de desarrollo y autoconocimiento”.
Italia ha pedido a OpenAI que comunique en un plazo de 20 días las medidas adoptadas para dar cumplimiento a la petición del Garante o, de lo contrario, podrá enfrentar una sanción de hasta 20 millones de euros o hasta el 4% del volumen de negocios anual global.
Guido Scorza, miembro del consejo de la autoridad de protección de datos, ha censurado en una entrevista con el diario La Repubblica “la falta de información sobre el tratamiento de los datos personales de los usuarios” que ofrece la empresa estadounidense. Y ha hablado de los riesgos que entrañan este tipo de herramientas: “Con ChatGPT y los chatbots mantenemos conversaciones, y en estas conversaciones a menudo tendemos a compartir gran parte de nuestras vidas. Puedes preguntar cuándo nació Paolo Rossi y obtener una respuesta. Esto son datos personales. Cada pregunta sobre la vida de las personas es un tratamiento de datos. Por no hablar de los que trata erróneamente”, indica. Y pone un ejemplo: “Si le pregunto al chatbot cuándo se afilió Guido Scorza al colegio de Garantes de la Privacidad me dice que en 2016. Pero yo me colegié en 2020. Además de tratamiento de datos ilícito, se da el caso de que el tratamiento en muchos casos es inexacto”.
Scorza asegura que Italia ha actuado de manera autónoma, porque OpenAI no tiene sede en Europa, por lo que queda fuera de los procedimientos de cooperación de la UE, pero auspicia “un debate a nivel europeo para ver si se puede cooperar y actuar conjuntamente y cómo”.
El uso de la inteligencia artificial cada vez es más frecuente y por ello la Unesco ha urgido a los países que apliquen “sin demora” el Marco Ético Mundial sobre esa tecnología, que los 193 Estados miembros adoptaron de forma unánime en 2021 y que contiene orientaciones para maximizar los beneficios de la IA y reducir los riesgos que esta conlleva. “El mundo necesita normas éticas más estrictas para la inteligencia artificial: este es el gran reto de nuestro tiempo”, ha señalado la directora general de la Unesco, Audrey Azoulay.
Hace unos días, el fundador y multimillonario dueño de Tesla, Elon Musk, y más de 1.000 investigadores tecnológicos, entre los que se encuentran, entre otros, el cofundador de Apple, Steve Wozniak; Jaan Tallin, cofundador de Skype, además de ingenieros de Meta o Microsoft hicieron un llamamiento para pausar el desarrollo de inteligencias artificiales avanzadas durante al menos seis meses. Señalan que el fin es frenar lo que han denominado “una peligrosa carrera que está llevando al desarrollo de modelos más impredecibles y con capacidades cada vez mayores”. “Los sistemas de inteligencia artificial pueden suponer un profundo riesgo para la sociedad y la humanidad. Por desgracia, no se está desarrollando con el nivel de planificación y cuidado adecuado”, apuntan en su misiva.
En Estados Unidos varias organizaciones han pedido también la suspensión de ChatGPT por recelar de estos experimentos con inteligencia artificial.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.