¿Controlamos los algoritmos que nos controlan?
Los algoritmos de aprendizaje automático pueden suponer una amenaza y profundizar en la desigualdad
No exageramos cuando decimos que los algoritmos de aprendizaje automático (AAA) nos gobiernan, dependemos de ellos. La inteligencia artificial ha avanzado en los últimos años hasta el punto de que estos AAA, de forma parecida a como hacemos los humanos, son capaces de autocorregirse y anticipar cómo responder ante futuras casuísticas. Es decir, las máquinas, literalmente, aprenden.
Los AAA piensan y deciden por nosotros cuando compramos, entramos en Google o Netflix o buscamos pareja en internet. Además, ya se están usando en ámbitos tan sensibles como la gestión pública, la sanidad, la seguridad, el transporte, las finanzas o la contratación. ¿Pero qué tienen que ver los AAA con la democracia y la desigualdad? Más de lo que pensamos. Por eso es tan importante que conozcamos algunos de los riesgos y desafíos que nos presentan.
Las posibles amenazas para la democracia y la soberanía son enormes. Por su complejidad imposibilitan la necesaria transparencia y rendición de cuentas pública (véase la inevitable limitación para comprender la lógica del lenguaje intermediario alienígena creado por Google) y suprimen los porqués de nuestra búsqueda del sentido de las cosas (y, por ende, el pensamiento crítico y disposición al cambio), ya que los AAA, por su propia naturaleza, centran la interpretación de la realidad social en el cómo sucederán las cosas y no en el por qué suceden. Además, tienen la capacidad de crearnos una realidad totalmente personalizada (piénsese en la publicidad diferenciada que nos ofrece Amazon o las campañas electorales estadounidenses y del brexit en Reino Unido). Con ello, se abre un peligroso campo para la manipulación mediática, la orientación del voto y la supresión del debate público como colectivización e interpretación de problemáticas comunes. ¿Cómo vamos a debatir en común cuando nos han ultraindividualizado el relato?
Por otro lado, los AAA pueden ser profundizadores de desigualdad, tanto porque el acceso a los avances originados por los AAA es asimétrico en los diferentes estratos sociales (corriendo el riesgo de que se pongan a operar al servicio de los intereses de los más privilegiados y no se aproveche todo su potencial para generar beneficios al conjunto de la sociedad), como por el peligro de que los AAA reproduzcan patrones discriminatorios por el sesgo en los datos e información que procesan (un ejemplo reciente de esto es el algoritmo “discriminatorio” utilizado por Amazon para el reclutamiento de personal que “penalizaba” a las mujeres).
Otra singularidad de algunos AAA, es su naturaleza performativa y predictiva de realidades futuras. A modo de las profecías autocumplidas, afecta a nuestro comportamiento y acaba provocando el escenario previsto que se podría haber evitado. Y, lejos de ayudar a resolver las situaciones de desigualdad, pueden estar agravándolas. En Armas de destrucción matemática de Cathy O'Neil se pueden leer varios casos, como el de los algoritmos de predicción del crimen (el más conocido es PredPol), que acaban provocando un aumento de la criminalidad justo donde lo predijeron.
Determinados AAA fomentan además las visiones retroalimentadoras y encapsuladas de la realidad y nos conducen a un data-centrismo. Cuando los análisis de la realidad se sustentan sobre aquellos sectores de la sociedad o países que más datos generan (países ricos más digitalizados frente a países pobres), hay más probabilidades de que la agenda pública y las políticas se orienten en beneficio de dichos sectores o países y sigamos acrecentando así las desigualdades sociales.
En paralelo al vertiginoso desarrollo de los AAA, la inteligencia artificial y la industria de datos, hay un interés creciente en comprender y dibujar las fronteras éticas y prácticas de estas nuevas tecnologías. Un ejemplo de ello es la iniciativa The Toronto Declaration: Protecting the right to equality and non-discrimination in machine learning systems lanzada por Amnistía Internacional, Access Now y otras organizaciones asociadas, sobre «derechos humanos e inteligencia artificial». Dicha declaración recoge una serie de principios pioneros sobre cómo los estados y las empresas deben proteger y respetar los derechos humanos y remediar los impactos negativos de la inteligencia artificial.
Nos enfrentamos a un nuevo paradigma protagonizado por máquinas capaces de aprender en las que depositamos una confianza cada vez mayor para dirigir nuestro futuro, convencidos de una supuesta neutralidad positiva de los avances tecnológicos. ¿Seremos capaces de hacer lo necesario para controlar los algoritmos que ya nos controlan, de poner la inteligencia artificial al servicio de los derechos humanos y la democracia y no en contra? Y, sobre todo, ¿conseguiremos ser las personas las verdaderas protagonistas de nuestras propias vidas en este nuevo mundo entretejido de algoritmos? Solo el tiempo y la razón (humana o artificial) lo dirán.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.