_
_
_
_

La IA puede simplificar incluso las políticas de privacidad más infumables

La inteligencia artificial puede ayudar a que los engorrosos términos y condiciones que aceptamos en internet resulten más accesibles

Hay que tener algo más que tiempo libre para ser capaz de leer los términos y condiciones de Paypal. El acuerdo que firmamos cuando accedemos a esta plataforma es dos veces más largo que Hamlet y el triple que El Lazarillo de Tormes, y no es precisamente literatura ligera. Es algo que sucede con prácticamente todas las multinacionales tecnológicas que ofrecen sus servicios por internet. ¿Quién ha leído a conciencia las políticas de privacidad de Facebook, Youtube, Spotify o Tinder?

Ni a conciencia ni por encima. En 2016, dos investigadores de las universidades de York y Connecticut crearon una falsa red social cuyos términos y condiciones explicaban que la información personal recopilada se entregaría a la Agencia de Seguridad Nacional estadounidense (NSA) y exigían a los usuarios renunciar a su primer hijo. Más de 500 estudiantes universitarios accedieron a la plataforma. El 98% de ellos aceptó las políticas de privacidad sin leerlas. Quienes las vieron, apenas les dedicaron un minuto antes de terminar aceptándolas.

Más información
Las diez razones por las que pasas olímpicamente de leerte los términos y condiciones
“Compañías de todo el mundo siguen usando tácticas como las que empleábamos en Cambridge Analytica”

“Los términos y condiciones suelen ser textos muy extensos que contienen cláusulas jurídicas complejas, en muchos casos ambiguas, así como terminología técnica inaccesible para la mayoría”, apunta el experto en protección de datos Isidro Gómez-Juárez. “Las plataformas deben mejorar la calidad de la información que proporcionan a los usuarios en términos de transparencia, haciendo compatible la exigencia de información que establece la normativa aplicable con la concisión y comprensión en la forma de presentarla, de manera que esta sea accesible y cumpla así con la que ha de ser su finalidad última: informar al usuario”.

Contra la impunidad con la que muchas compañías definen las reglas de juego, han surgido algunas iniciativas que buscan ayudar al usuario a entender lo que está firmando. La última en salir a la luz se llama Guard y es un sistema de inteligencia artificial que lee las políticas de privacidad de distintas plataformas y ofrece a los usuarios un análisis de los principales riesgos a los que se someten cuando las utilizan.

“Hace cerca de un año, descubrí que Facebook tenía una copia actualizada de todos tus contactos del móvil”, recuerda Javier Ramírez, el ingeniero madrileño responsable de la plataforma. “Hay desconocidos en Silicon Valley que saben si tienes a tus amigos guardados por su apodo. Es una barbaridad. Y resulta que aparece explícito en su política de privacidad”.

Desconocidos en Silicon Valley saben cómo guardas a tus contactos en el móvil; está explícito en la política de privacidad de Facebook Javier Ramírez, el ingeniero madrileño responsable de Guard

Unos meses después, Ramírez hizo un bootcamp (curso formativo intensivo) de inteligencia artificial y pensó que sería interesante aplicar esta tecnología a simplificar los términos y condiciones para los usuarios.

Para hacerlo posible, ha sido necesario categorizar una serie de frases en función del riesgo que se percibe en ellas. La frase “Podemos vender tus datos a terceros” recibe una puntuación diferente de “No compartiremos información de contacto de tu cuenta, como el correo electrónico”. El aprendizaje automático se encarga del resto.

“Guard está entrenado para reconocer cosas que no ha visto antes”, señala Ramírez. “No hablamos de reglas heurísticas, donde el sistema entiende que si ocurre ‘A’ tiene que hacer ‘B’. Más bien, le explicamos que tipo de cosas son positivas y cuáles negativas y juzga a qué se parece más”.

La plataforma ha sido posible gracias a la aportación altruista de unas 1.900 personas, la mayoría estadounidenses, que han contribuido con más de 110.000 puntos de datos con los que entrenar la inteligencia artificial de Ramírez. Varios doctores en informática trabajan para validar que el proceso se lleva a cabo con garantías.

Con Guard podemos filtrar las mayores amenazas de los términos y condiciones para leerlas, pero hay soluciones para trabajar con esta información en otro formato. Polisis es una herramienta que emplea algoritmos de aprendizaje automático para visualizarlas.

Análisis de la herramienta Polisis del uso que hace Facebook de nuestros datos personales según lo estipulado en sus términos y condiciones.
Análisis de la herramienta Polisis del uso que hace Facebook de nuestros datos personales según lo estipulado en sus términos y condiciones.

Para entrenar al sistema de inteligencia artificial a diferenciar las diferentes partes en las que se dividen las políticas de privacidad, se utilizaron 130.000 de estos documentos procedentes de aplicaciones disponibles en Google Play. Después, se entrenó con un conjunto de datos para que el sistema pudiera centrarse en detalles como el tipo de datos que utilizan las compañías y cómo los comparten con terceros. Una vez analizados los términos y condiciones, Polisis muestra los resultados a través de una serie de diagramas que representan el flujo de la información.

"Hasta ahora, las políticas de privacidad desempeñan el papel de ser legalmente vinculantes por un lado, y ser una interfaz por otro lado para los usuarios", señalaba a Fast Company su creador, Hamza Harkous. "Espero que en algún momento lleguemos a un punto donde el texto legal de la política de privacidad ya no sea la interfaz predeterminada para la información de privacidad sobre los sitios web".

Suscríbete para seguir leyendo

Lee sin límites
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_