Ir al contenido

Dudas sobre los derechos digitales

Las mejoras en la competitividad de la UE en la carrera tecnológica deben hacerse sin mermar la protección de los consumidores

La Comisión Europea acaba de presentar un paquete de simplificación de las normativas digitales, con el objetivo declarado de aligerar la legislación en lo relacionado con la inteligencia artificial, la ciberseguridad y la protección y gestión de datos, una demanda mayoritaria del sector tecnológico europeo. En la práctica, el denominado ómnibus digital aplaza los requisitos de transparencia y las sanciones a las tecnológicas por no controlar las aplicaciones catalogadas como peligrosas, lo que podría erosionar la ambiciosa visión ética que inspiró el Reglamento europeo sobre inteligencia artificial de agosto de 2024. La iniciativa ha sido interpretada como síntoma de cómo la ambición normativa europea puede verse frenada por la presión de las grandes compañías y la geopolítica transatlántica. Se produce, además, después de que Europa haya cedido ante las empresas y haya rebajado sus exigencias medioambientales.

Bruselas insiste en que el objetivo central del paquete legislativo es aligerar radicalmente la carga regulatoria para ciudadanos y empresas, corrigiendo duplicidades, lagunas legales y tensiones detectadas durante la primera fase de implantación de la legislación digital en Europa. Para los ciudadanos, se promete menos clics de aceptación y mayor control efectivo de sus datos. Las empresas, por su parte, contarán con una ventanilla única para la notificación de incidentes de ciberseguridad y también una identidad digital única, facilitándoles trámites y operaciones transfronterizas, entre otras. Esa simplificación, según Bruselas, permitirá a las empresas ahorrar hasta 5.000 millones de euros de aquí a 2029, tiempo que podrán dedicar a innovar. La declaración reconoce así legitimidad al reproche que las empresas hacen a las autoridades comunitarias por el exceso de burocracia en la Unión Europea y que el informe Draghi de septiembre de 2024 identificó como uno de los principales obstáculos para el crecimiento y la competitividad.

Uno de los puntos más críticos del nuevo Reglamento está relacionado con el desarrollo de los modelos de inteligencia artificial vinculados a la seguridad, la salud o los derechos fundamentales. Son herramientas que sirven para servicios troncales como la identificación biométrica, la calificación de solvencia crediticia de los consumidores, la gestión de la migración o la seguridad de las infraestructuras críticas, por ejemplo. Estos sistemas de IA considerados de alto riesgo debían contar con una supervisión permanente desde agosto de 2026, un plazo que ahora se extiende a diciembre de 2027. Esa demora puede ser necesaria para el desarrollo del sector en Europa, pero genera una justificada incertidumbre sobre el futuro de unas normas esenciales para la autonomía y la privacidad ciudadana. La Comisión esgrime la apuesta por mejorar el rendimiento de las empresas europeas que desarrollan estos modelos, básicamente startups y pymes. Existe el riesgo de que el intento de reducir la brecha de competitividad con EE UU acabe beneficiando a las empresas norteamericanas si la nueva normativa les permite ampliar su actual ventaja.

Este nuevo marco digital aún debe recibir luz verde de los países miembros y del Parlamento Europeo. Bienvenido el debate para agilizar el desarrollo de una tecnología esencial para el futuro, pero este no debe poner en cuestión los fundamentos éticos de la regulación europea. La UE debe afinar muy bien sus medidas para evitar que la urgencia por competir y por la innovación se produzca a costa de los derechos, las garantías sociales y la ética tecnológica.

Más información

Archivado En