DeepSeek no es un juego: el peligro para la privacidad de la nueva IA china

Las descargas masivas de la aplicación del país asiático amplían el potencial de controlar, desinformar y erosionar principios democráticos

Saludo de bienvenida de la aplicación de inteligencia artificial china Deepseek en una image de este martes.Foto: Dado Ruvic (REUTERS) | Vídeo: EPV

En solo una semana, DeepSeek, la nueva aplicación de inteligencia artificial (IA) china, ha superado con creces el millón de descargas (más de la mitad en dos días) y se espera que multiplique esa cifra, según AppBrain a partir de los datos de ...

Suscríbete para seguir leyendo

Lee sin límites

En solo una semana, DeepSeek, la nueva aplicación de inteligencia artificial (IA) china, ha superado con creces el millón de descargas (más de la mitad en dos días) y se espera que multiplique esa cifra, según AppBrain a partir de los datos de QR Code Generator. Pero este frenesí tecnológico tiene sus consecuencias. Varios investigadores advierten de que su uso no es inocuo, que los servidores están en un país ajeno a las leyes de protección de datos y que, según advierte Ross Burley, cofundador del Centre for Information Resilience (CIR), “esta tecnología, si no se controla, tiene el potencial de alimentar campañas de desinformación, erosionar la confianza pública y afianzar narrativas autoritarias dentro de nuestras democracias”.

La irrupción de la IA de China, donde a DeepSeek se ha sumado Qwen 2.5, del gigante del comercio Alibaba (dueña de AliExpress), tiene un componente económico. La adopción de IA tendrá un impacto económico acumulado a nivel mundial de 19,9 billones de dólares (17,9 billones de euros) hasta 2030, cuando esta tecnología generará el 3,5% del PIB del planeta, según el informe The global impact of artificial intelligence on the economy and jobs (El impacto global de la inteligencia artificial en la economía y el trabajo) de la firma de análisis IDC.

En este sentido, Marc Porcar, director general de QR Code Generator, cree China ha agitado el mercado con “productos más rápidos, baratos e inteligentes” para “allanar el camino del país asiático en un mercado que, hasta ahora, estaba dominado principalmente por Estados Unidos y OpenAI [la firma creadora de ChatGPT]”.

Pero pensar que se trata solo de un movimiento económico es ingenuo, según advierten varios investigadores. De hecho, según recuerda, Deepak Padmanabhan, profesor de la Facultad de Ciencias de la Computación de Queen’s University (Belfast), “DeepSeek ha asegurado que no tiene planes de comercialización”.

Entonces, ¿qué busca China? Harin Sellahewa, profesor de Computación y decano de la Facultad de Informática, Derecho y Psicología de la Universidad de Buckingham, explica a Science Media Centre (SMC): “La política de privacidad de DeepSeek establece que recopilan información proporcionada por el usuario, como la fecha de nacimiento (cuando corresponda), el nombre de usuario, la dirección de correo electrónico o el número de teléfono y la contraseña. Además, los datos recopilados automáticamente incluyen patrones o ritmos de pulsación de teclas, que se pueden utilizar como datos biométricos para identificar a las personas”.

Sellahewa precisa que estos datos también son recopilados por otras aplicaciones de inteligencia artificial, pero matiza: “Lo que más preocupa son los derechos y las obligaciones. Dado que la información recopilada por DeepSeek se almacena en servidores ubicados en la República Popular China, es posible que los datos personales de los usuarios no estén protegidos por las leyes” de los países occidentales.

En la misma línea, Lukasz Piwek, profesor titular de Ciencia de Datos en la Universidad de Bath, añade a SMC: “El enfoque regulatorio relativamente flexible de China para la tecnología avanzada [frente a la normativa occidental] permite una innovación rápida, pero genera preocupaciones sobre la privacidad de los datos, el posible uso indebido y las implicaciones éticas, particularmente para un modelo de código abierto como DeepSeek”.

Deberíamos estar alarmados. Que la tecnología china de IA se integre aún más en la sociedad occidental no solo es una mala idea, sino que es imprudente
Ross Burley, cofundador de CIR

“Deberíamos estar alarmados”, alerta Ross Burley, cofundador de CIR, una organización independiente dedicada a exponer las violaciones de los derechos humanos y las amenazas a la democracia. Y explica: “Que la tecnología china de IA se integre aún más en la sociedad occidental no solo es una mala idea, sino que es imprudente. Hemos visto una y otra vez cómo Pekín utiliza su dominio tecnológico como arma para la vigilancia, el control y la coerción, tanto en el país como en el extranjero. Ya sea a través de dispositivos cargados de spyware [programas espías], campañas cibernéticas patrocinadas por el Estado o el uso indebido de la IA para reprimir la disidencia, el historial de China demuestra que su tecnología es una extensión de su estrategia geopolítica. Esto podría parecer un modelo de lenguaje grande benigno, pero ya hemos visto que la IA está suprimiendo información crítica con el Gobierno chino”.

“Permitir que la IA china florezca en Occidente no solo corre el riesgo de socavar la privacidad o la seguridad; podría remodelar fundamentalmente nuestras sociedades de maneras para las que no estamos preparados. Necesitamos salvaguardas, rendición de cuentas y una comprensión clara de que no todos los avances tecnológicos sirven al bien común, especialmente cuando se originan en un régimen que prioriza el control sobre la libertad”, concluye Burley.

Van a tener perfiles y una información más completa aún sobre nosotros que puede terminar en EE UU o China. Se puede ejercer un control como nunca en la historia
Rafael Rodríguez Prieto, catedrático de Filosofía del Derecho en la Universidad Pablo de Olavide

De la misma opinión es Rafael Rodríguez Prieto, catedrático de Filosofía del Derecho en la Universidad Pablo de Olavide de Sevilla y coautor de Poder e internet. Un análisis crítico de la red (Cátedra). El profesor advierte sobre el control sobre la ciudadanía gracias a los datos que recaban la inteligencia artificial, sin distinción de su origen: “Van a tener perfiles y una información más completa aún sobre nosotros que puede terminar en EE UU o China. Se puede ejercer un control como nunca en la historia. Lo que sucedió el lunes 27 en las bolsas trasciende las páginas de economía para ser uno de los hechos geopolíticos más destacados de nuestro tiempo”.

Rodríguez Prieto destaca que DeepSeek se ha configurado con programación de código abierto (open source), lo que permite una mayor transparencia, eficacia en la detección de fallos y mayor agilidad en las mejoras. Pero advierte: “Este modelo no está exento de riesgos. Con el código cerrado, las empresas ejercen un control completo y evitan posibles daños, a la vez que se benefician de una financiación estable, como es el caso de las compañías estadounidenses”.

Pero el mayor perjuicio recae principalmente en los usuarios, aquellos que se han lanzado a descargar frenéticamente la nueva aplicación en la búsqueda de una solución rápida y barata. Así lo sostiene el profesor de la universidad sevillana: “El bien común o el interés ciudadano han quedado arrumbados por la hegemonía de una perspectiva capitalista, globalmente compartida de occidente a oriente, que introduce cualquier desafío dentro de las coordenadas de la racionalidad instrumental y convierte las necesidades humanas en un producto mercantil que hay que rentabilizar. La ingente cantidad de plusvalía en red extraída de nuestros datos y trabajo gratuito es el motor de este cambio. Y la IA no es la excepción”.

Es una advertencia que se suma a la de Cecilia Danesi, codirectora del máster en Gobernanza ética de la IA (UPSA) y autora de Derechos del consumidor en la encrucijada de la inteligencia artificial (Dykinson, 2024). La investigadora, integrante de Women for Ethical in AI de la UNESCO y coautora del informe presentado en el G20 Brasil sobre auditorías algorítmicas, alerta sobre la desprotección del consumidor frente a los daños que puedan causar los avances tecnológicos y reclama una mayor atención legal sobre la responsabilidad civil de la IA: “Los consumidores estamos sumamente expuestos a los daños que pueden ocasionar. Si no tenemos normas claras de cómo proceder frente a esos daños, las personas quedan desprotegidas”.

No todos son advertencias negativas sobre la nueva IA y su impacto. Para el profesor Luo Mai, de la Universidad de Edimburgo, DeepSeek “brinda a los investigadores y estudiantes de todo el mundo oportunidades para explorar nuevas vías de investigación en IA, particularmente en entornos con menos recursos informáticos”.

Sobre la firma

Más información

Archivado En