Las plataformas mejoran de repente la protección de los niños. Pero siguen sin saber quién es menor
Instagram, YouTube y TikTok han anunciado en los últimos días cambios para cuidar la experiencia de los adolescentes. Uno de sus grandes retos sigue siendo verificar la edad de cada usuario
En pleno verano, discreta pero implacablemente, las grandes plataformas han ido anunciando mejoras para proteger a los menores. Instagram, YouTube o TikTok han propuesto un conjunto de novedades que coincide con la entrada en vigor este jueves de un nuevo código para la verificación de la edad en Reino Unido y de una tendencia regulatoria clara a exigir a las plataformas mayor responsabilidad. En España, ...
Regístrate gratis para seguir leyendo
Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
En pleno verano, discreta pero implacablemente, las grandes plataformas han ido anunciando mejoras para proteger a los menores. Instagram, YouTube o TikTok han propuesto un conjunto de novedades que coincide con la entrada en vigor este jueves de un nuevo código para la verificación de la edad en Reino Unido y de una tendencia regulatoria clara a exigir a las plataformas mayor responsabilidad. En España, cerca de un 70% de menores de 15 años disponía de teléfono móvil en 2018, según datos del INE.
Las plataformas no admiten que sus nuevas medidas se deban a la presión directa de legislación. Pero es obvio que las grandes tecnológicas van en la misma dirección que los reguladores, aunque a otro ritmo y con prioridades distintas. Por ejemplo, admiten desde Google a preguntas de este periódico, que apoyan el esfuerzo británico y de otras autoridades de protección de datos para mantener a los niños más seguros en internet pero, aseguran, muchos de sus cambios van más allá de las peticiones de cualquier regulación.
Entre las medidas concretas, YouTube empezará a ajustar por defecto la opción más privada para subir vídeos a los usuarios de 13 a 17 años, algo similar a lo que hará TikTok. Así, los adolescentes que quieran que todo el mundo vea sus vídeos deberán cambiarlo expresamente. TikTok además les advertirá sobre los problemas de que otros usuarios puedan descargar los vídeos y distribuirlos en otras redes. Ambas plataformas limitarán también las notificaciones de nuevos vídeos por la noche a los usuarios más jóvenes. Instagram también optará por cuentas privadas por defecto para los menores de 16, para hacer más difícil que los usuarios desconocidos les encuentren, y para impedir que los adultos les manden mensajes privados. La red de fotos propiedad de Facebook limitará además las opciones de los anunciantes de personalizar la publicidad dirigida a menores. La edad mínima general para usar estas redes son los 13 años.
“El nuevo código puede animar a las empresas a tomar algún tipo de acción pero en el fondo ha sido creado por el regulador como una extensión de la ley de protección de datos”, dice Michael Veale, profesor de Derecho y Regulación Digital en el University College de Londres. “Para mí, sería muy frágil ante un tribunal. Las plataformas pueden encontrar que las estimula a hacer movimientos que ya tenían planeados, pero si creyeran que amenaza sus modelos de negocio, lo llevarían a juicio y podrían de hecho ganar”, añade.
El protagonismo de la legislación británica es obvio, pero otros países como Irlanda ya tienen la suya también en marcha. Es una tendencia creciente. En su respuesta a este periódico, Instagram ha destacado que varios nuevos marcos regulatorios en protección de datos y seguridad de menores y otros en proyecto informan su trabajo. Entre ellos, además del nuevo código británico, está la Convención de Derechos de la Infancia de Naciones Unidas, los Fundamentos para Menores de Irlanda y la directiva europea de Servicios Audiovisuales.
Pero cuántos años tienes
A pesar de estas novedades, sobre el debate de la protección de menores se cierne uno de los grandes misterios desde el principio de la era de internet: quién hay al otro lado de la pantalla. El célebre chiste de los años 90 donde aparece un perro junto a un ordenador y dice “en internet, nadie sabe que eres un perro”, sigue vigente. Las plataformas pueden pedir la edad de sus usuarios, que a su vez pueden tranquilamente mentir.
La novedad más reciente es que Instagram ha anunciado que pedirá la fecha de cumpleaños a sus usuarios que no la hayan dado. Si al cabo de un tiempo, el usuario no la ha querido dar no podrá seguir usando la red. En la nota donde lo cuentan la compañía admite que es muy fácil mentir: “Estamos desarrollando nuevos sistemas para afrontarlo”, dicen. El gran remedio es la herramienta favorita de Facebook para resolver sus peores problemas, como la moderación de contenido ilegítimo o las cuentas falsas: la inteligencia artificial. Facebook ha diseñado modelos con varias instrucciones como detectar la edad cuando le desean “feliz cumpleaños” a un usuario o comprobar la fecha de nacimiento que alguien ha dado en otra de las apps de la compañía, como WhatsApp o Facebook.
La verificación de la edad tiene sistemas extendidos e incluso hay una Asociación de Proveedores de Verificación de Edad (AVPA, en sus siglas en inglés, con sede en Londres). “Algunas plataformas dicen que usan inteligencia artificial para detectar a niños que pueden haber hinchado sus edades para abrirse una cuenta, pero esa tecnología está solo empezándose a desarrollar”, dice Alastair Graham, copresidente de la Asociación. “Ese tipo de tecnología aún permite que un 44% de niños entre 8 y 11 años usen redes sociales en Reino Unido, según datos de la oficina regulatoria [Ofcom]”.
La Asociación tiene obvios intereses en potenciar sus métodos. Según Graham, los riesgos que afrontan los más pequeños en las redes sociales (chatear con adultos, pornografía, información que pueda provocar desordenes alimentarios) necesita de “formas más eficaces de verificación de edad”, que pueden ir desde “técnicas de estimación como el análisis facial o el escaneo de pasaportes”, que ya han sido usadas por adultos para asuntos como “la compra de alcohol, productos de vapeo o acceso a casinos online”.
Un selfi puede permitir hoy calcular la edad de un rostro. Con un margen de error razonable, este software permitiría pedir prueba de edad a los menores de 18 años: si se le pide identificar a todos los menores de 23 (5 años de margen), solo un 0,25% de menores de 18 se colaría, según un informe de Yoti, una de las empresas de la Asociación que se dedica a verificar la edad. Es decir, menos de 1 de cada 100 menores de 18 años pasaría por mayor de 23 años para el software.
¿Por qué las plataformas no han optado ya por métodos así? Graham cree que están retrasando lo inevitable: “Estamos llegando a un punto de inflexión, donde el peso acumulado de toda la legislación persuada a las plataformas que deben hacer de tripas corazón y aplicar un proceso de verificación basado en estándares, independiente y que proteja la privacidad”, dice. " Es obvio que están ganando tiempo”, añade.
Otra vez biometría no
Sin embargo, este nuevo paso no parece tan sencillo. Otros organismos tienen dudas profundas sobre este método: ¿Qué ocurre con los datos biométricos almacenados por desconocidas empresas que verifican la edad? Aunque desechen las fotos como tales, “en los sistemas comerciales conservan la imagen digital, quizá no una foto pero sí el identificador único con el que comparar. No importa que no se vean ojos u orejas en el identificador, sigues siendo únicamente tú”, dice Jen Persson, directora de la ONG de defensa de derechos de niños Defend Digital Me.
Persson propone ampliar el modo en que pensamos y, sobre todo, vigilar con soluciones precipitadas. “Los niños que quieren acceder a lugares donde los adultos creen que no deberían estar lo harán, tanto en internet como fuera. Usar tecnologías de alto riesgo y cada vez más invasivas como la biometría para asuntos triviales en la red es una decisión que como sociedad lamentaremos en los próximos años”, dice.
El remedio puede ser peor que la enfermedad, advierte Persson, preocupada por la petición del nuevo código de mejor verificación de edad. “Su enfoque de pedir la edad acarrea el riesgo de introducir o exacerbar los mismos problemas que el código quiere solventar: discriminación, daño a la privacidad, restringir la participación y el procesamiento de datos personales adicionales excesivos e innecesarios de los niños y sus relaciones”, dice.
Persson recuerda que el código emerge de una preocupación por el trato de los “datos” de los niños y su posible perfilado, no de la “protección” de los menores como tal. “Una discusión constructiva en las implicaciones técnicas de la arquitectura de internet y los derechos humanos en sentido amplio se pierde debido a lo terrible del asunto”, añade.
Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.