_
_
_
_
_
Retina para Acccenture

Los algoritmos se sientan en el diván de la ética

Ante una década marcada por la inteligencia artificial, diferentes expertos delimitan el camino que debe seguir para desarrollarla responsablemente y convertir a Europa en un actor principal

Desayuno virtual en el que se debatió sobre la inteligencia artificial responsable y la ética de los algoritmos.

La década recién estrenada será la de la inteligencia artificial, al menos así lo plasman diferentes estudios y análisis. Pese a que la crisis del coronavirus ha modificado la hoja de ruta prevista, los algoritmos y los datos, aliados necesarios de esta tecnología, han salido aún más reforzados. El siguiente paso va más allá de las posibilidades técnicas. Toca sentar en el diván tanto al aprendizaje automático como al profundo, conocidos como machine y deep learning. Desarrollarlos con responsabilidad, sin sesgos, cajas negras o cualquier otro elemento que ponga en tela de juicio los beneficios que aportan.

En un desayuno organizado por EL PAÍS Retina y Accenture, Miguel Luengo-Oroz, Chief Data Scientist de UN Global Pulse en la Oficina Ejecutiva del Secretario General de la ONU, ha explicado que existen tres líneas rojas infranqueables: el respeto por los derechos humanos, la creación de deep fakes —la superposición de un rostro por otro para falsificar sus gestos y su discurso— y la elaboración de armas autónomas. “Debería existir un consenso internacional que evite que cualquiera traspase estas barreras. Podemos decidir hacia dónde usar esta tecnología de manera responsable, que todos nos beneficiemos”.

La Unión Europea, en un intento de modernizar la legislación en cuanto a privacidad y algoritmos, aprobó el año pasado una Directiva de protección de datos. Sin embargo, su aplicación se ha encontrado con ciertas trabas. Marta Balbás, Responsible AI Lead en Accenture lo ha expuesto como un escenario en el que las últimas consecuencias de la normativa siguen en el aire. No ha cuestionado que haya beneficiado a los ciudadanos, sino que existe cierto vacío, como sucede con la portabilidad entre empresas de la información personal. “La sociedad sigue sin saber para qué emplean sus datos. Algunas cosas se cumplen a rajatabla y otras no, ya sea por falta de medios o porque existe una intencionalidad”.

En esta apelación directa a las políticas comunitarias, Juergen Foecking, subdirector de la oficina del Parlamento Europeo en España, ha aclarado que en el Viejo Continente la privacidad es incuestionable. Según sus palabras, la actitud ética de China y Estados Unidos, las dos potencias con respecto a esta tecnología, es bastante diferente. El ejemplo más claro ha emergido durante la pandemia con las aplicaciones de rastreo de contagios, que Europa parece incapaz de ponerse de acuerdo en cómo usarlas. “Seguimos con mercados de datos nacionales. El mundo digital europeo mantiene esta actitud. Hay que crear un espacio armonizado que facilite el intercambio de información y su interoperabilidad”.

Construir máquinas éticas no surge de la noche a la mañana. Requiere de un recorrido que, a juicio de Javier Ortega, vicerrector de innovación, transferencia y tecnología de la Universidad Autónoma de Madrid y catedrático de teoría de la señal y comunicaciones., debe comenzar por las propias aulas. La educación serviría como motor de un machine learning alejado de una programación sesgada. De una recolección masiva de datos que evitara que los algoritmos queden en una caja negra carente de trazabilidad. “La ética y la solidaridad se implementan desde la educación. Si la población asume culturalmente estos principios, porque no se nace con ellos, será esencial lo que enseñemos. Una sociedad analfabeta es una sociedad manipulable. La responsabilidad se educa”.

Ninguno de los intervinientes ha planteado dar marcha atrás al progreso que ha aportado. Más bien al contrario. El debate planteado es fruto de la velocidad que ha adquirido. Álvaro Martín, global head of data strategy del BBVA, ha asegurado que la solución vendrá de la unión entre el sector público y privado. Es decir, regular en función de la madurez que tiene cada sector en relación con esta tecnología. “Los legisladores deberían ver cuáles son los usos más delicados y evitar las generalizaciones. Estamos ante un momento crucial. Un momento de despliegue técnico confiable y centrado en el ser humano que tenemos que aprovechar”.

Con la idea de prevenir posibles asimetrías, toca democratizar la inteligencia artificial y todo lo que lleva aparejada. En palabras de Sara Degli, investigadora Juan de la Cierva en el Instituto de Políticas y Bienes Públicos del CSIC, sin una buena gobernanza de los datos será casi imposible repartir mejor los beneficios y retos. Es el momento de poner encima de la mesa el contexto. Los algoritmos no trabajan en la nada. No se trata de adoptar una herramienta simplemente porque contemos con las capacidades. “La tecnología no se ejecuta en el vacío, sino en sistemas sociotécnicos. La inteligencia artificial la crean personas y afecta a las personas”.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_