La Agencia Española de Protección de Datos investiga a ChatGPT por “posible incumplimiento de la normativa”
La entidad y el grupo de trabajo europeo al que pertenece crean un equipo para analizar el impacto de la aplicación de la inteligencia artificial en los derechos de las personas
Las dudas sobre el impacto de la aplicación de inteligencia artificial creada por la empresa OpenAI, ChatGPT, ha llegado a España. Tras las sospechas que ha despertado en los gobiernos de Italia, Estados Unidos y China, la Agencia Española de Protección de Datos (AEPD) ha anunciado este jueves que “ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense por un posible incumplimiento de la normativa”, según recoge un comunicado de la entidad estatal española.
Las sospechas son que la platafo...
Las dudas sobre el impacto de la aplicación de inteligencia artificial creada por la empresa OpenAI, ChatGPT, ha llegado a España. Tras las sospechas que ha despertado en los gobiernos de Italia, Estados Unidos y China, la Agencia Española de Protección de Datos (AEPD) ha anunciado este jueves que “ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense por un posible incumplimiento de la normativa”, según recoge un comunicado de la entidad estatal española.
Las sospechas son que la plataforma podría recoger de forma ilegal datos de los usuarios, de las conversaciones que mantienen con la máquina para entrenar los algoritmos y de la información de pago de sus abonados, además de presentar vulnerabilidades en su protección ante posibles ataques y carecer de filtro eficaz para verificar la edad de los usuarios.
Según ha informado la AEPD, la iniciativa surgió la semana pasada, cuando la agencia española solicitó al Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) “que se incluyera el servicio ChatGPT como tema a abordar en su reunión plenaria”. El organismo español considera “que los tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeo en aplicación del Reglamento General de Protección de Datos”.
La propuesta ha sido recogida por el EDPB, del que forma parte la agencia española, en la reunión que han celebrado este jueves y se ha decidido crear un grupo de trabajo para la cooperación y el intercambio de información entre las entidades que forman parte del Comité Europeo de Protección de Datos.
De esta forma, la investigación española no será singular e individual, sino que formará parte de la que emprendan el resto de las entidades responsables de la protección de datos.
La AEPD matiza que la investigación no se abre contra “el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial”, sino para garantizar “el pleno respeto a la legislación vigente”. “Solo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas”, concluye.
A finales de marzo, Italia decidió bloquear el uso de ChatGPT por incumplir la normativa de protección de datos y se convirtió en el primer país europeo en adoptar medidas drásticas. La medida se levantará cuando demuestre que cumple la normativa italiana sobre privacidad.
Francia, Irlanda y Alemania requirieron información de inmediato a las autoridades italianas y, tras los contactos, el comisionado alemán de protección de datos se mostró también partidario de bloquear ChatGPT por el riesgo para la seguridad de los datos.
Por su parte, la Comisión Nacional de Informática y de las Libertades (el organismo para el control de la privacidad de Francia) anunció, como ha hecho ahora España, que investiga a la aplicación por las quejas presentadas por los usuarios.
El comisario europeo de Mercado Interior, Thierry Breton, ya había advertido de las dudas de Bruselas sobre los desarrollos de esta tecnología y adelantó que los contenidos creados por inteligencia artificial deben llevar una advertencia específica de su origen. “En todo lo que sea generado por inteligencias artificiales, ya sean textos o imágenes, habrá una obligación de notificar que ha sido originado por estas”.
Todas las dudas europeas han confluido ahora en que la EDPB ha decidido crear el grupo de trabajo de investigación del que forma parte la Agencia Española de Protección de Datos.
El martes, la Administración de Joe Biden estableció un periodo de 60 días para recoger ideas sobre cómo legislar contra los efectos no deseados de estos programas basados en inteligencia artificial y que pueden suponer un riesgo en campos tan dispares como la privacidad, la desinformación o el mercado laboral.
“Es sorprendente ver lo que estas herramientas pueden hacer incluso en su etapa inicial. Sabemos que debemos poner en marcha algunas medidas de protección para asegurarnos de que se utilicen de manera responsable”, ha afirmado Alan Davidson, director de la Administración Nacional de Telecomunicaciones e Información y promotor de la iniciativa legislativa estadounidense.
La Administración del Ciberespacio de China también presentó el martes una propuesta normativa para regular los servicios de inteligencia artificial generativa. De acuerdo con el texto, el Gobierno de Pekín pretende que las empresas de estas tecnologías presenten evaluaciones de seguridad a las autoridades antes de lanzar sus productos al público, según recogió Reuters. Las reglas redactadas por este regulador señalan que los proveedores serán responsables de la legitimidad de los datos empleados para entrenar sus productos y de tomar medidas para evitar la discriminación al diseñar algoritmos y utilizar esos datos.
El 29 de marzo, más de un millar de especialistas, entre los que se encontraban Elon Musk, el cofundador de Apple Steve Wozniak y el historiador Yuval N. Harari, reclamaron en una carta conjunta una moratoria de seis meses en el desarrollo de estos programas. “Los laboratorios de inteligencia artificial han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas, que nadie ―ni siquiera sus creadores― pueden entender, predecir o controlar de forma fiable”, advertía la misiva.
La inteligencia artificial generativa es una aplicación informática capaz de crear textos, imágenes, vídeo o música y cuyo potencial de uso ha llevado a Microsoft a invertir 10.000 millones de dólares en OpenAI, la compañía que ha lanzado ChatGPT, para generar contenido automáticamente en todos sus productos, desde el procesador de textos hasta el correo electrónico.
La diferencia con otros servicios anteriores es que esta nueva capacidad de la IA (inteligencia artificial) permite crear desde cero y no solo reconocer patrones o buscar en la información ya existente para producir un resultado. Los contenidos van desde diseños de productos originales hasta la creación de nuevas obras fotográficas digitales o música. Otra de sus mayores capacidades es su potencial para el desarrollo de servicios, con habilidades para discriminar solicitudes complejas y crear una solución en función de numerosos factores. La empresa de comunicación estadounidense Buzzfeed se disparó en bolsa al anunciar que la usará para personalizar su contenido.
Y ese es solo un ejemplo de utilización. Las empresas de diseños de todo tipo pueden usarla para crear nuevos modelos con más rapidez; las farmacéuticas, para generar nuevos compuestos; los médicos, para afinar diagnósticos; o las productoras, para crear contenidos de vídeo de alta calidad ajustados a los requerimientos del público.
Pero, frente a estas posibles ventajas, su uso genera amenazas de usos maliciosos para el pirateo, así como dudas legales, éticas, reputacionales y riesgos de generación de contenidos falsos. Igualmente, su utilización implica un alto coste energético y, por lo tanto, de contaminación.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.