_
_
_
_

Cuatro reflexiones sobre los ‘componentes éticos’ de la Inteligencia Artificial

Todos advierten sobre cuestiones éticas ante la explosión de la inteligencia artificial. Este debate, sin embargo, presenta cuestiones que merece la pena destacar

Un musculado Sócrates impart sus enseñanzas a sus discípulos atenienses
Un musculado Sócrates impart sus enseñanzas a sus discípulos ateniensesGetty Images

Hace tiempo, con ocasión del Día Internacional de la Mujer, escribí aquí mismo sobre los sesgos machistas que, de una forma inconsciente, podían tener los algoritmos y las decisiones de las máquinas o los sistemas autónomos basados en inteligencia artificial, debido a que quienes las programan suelen ser, en su mayoría, hombres. Y la importancia de que se incorporen mujeres a esta tarea.

Ayer se celebró en Alcalá de Henares, organizado por Red.es, un Conversatorio sobre Inteligencia artificial y sociedad, dentro del cual tuvo lugar un interesante Panel, protagonizado, por cierto, por tres mujeres, grandes expertas en Big Data e Inteligencia Artificial: Elena Gil (Telefónica), Cristina San José (Santander) y Elena Alfaro (BBVA), y que fue moderado por Guillermo Sánchez Vega (Retina).

El tema y título del Panel era La responsabilidad de las empresas en la sociedad hiperconectada y las preguntas planteadas a las ponentes eran: “¿Cuáles son los componentes éticos y sociales que deben asumir las grandes empresas para lograr un desarrollo de la inteligencia artificial equilibrado y sostenible? Nuevas dimensiones en la relación entre individuos y sistemas artificiales”.

1. ¿Ética o éticas?

La primera reflexión que me provocó este debate fue el acierto de utilizar el plural al hablar de los componentes éticos de la inteligencia artificial, porque no hay una sola Ética, hay muchas éticas. Y, sin embargo, cuando hablamos de “la Ética aplicada a la Inteligencia Artificial”, pareciera que nos referimos a una sola Ética, como si todos los países -y todas las personas- compartiéramos la misma.

Quizá la clave esté en que pecamos de cierto ombliguismo y, desde Occidente, pensamos que nuestro sistema de valores es -o debería ser- universal, como si no pudiera haber Inteligencias Artificiales y algoritmos que se basaran en otros sistemas de valores, como -por ejemplo- el de los países islámicos, o el de países como China, que utiliza la Inteligencia Artificial para el control de los ciudadanos.

Pero es que, incluso entre las democracias occidentales, hay diferentes éticas y tradiciones religiosas y culturales: unas más próximas a la ética católica y otras, a la ética protestante. No olvidemos el famoso libro de Max Weber sobre la ética protestante y el espíritu del capitalismo, que parece ser lo que ha triunfado, muy unido a una economía de mercado y a una sociedad consumista.

Más información
Lecciones de ética para máquinas que ‘piensan’ y toman decisiones
Por qué debemos tener en cuenta la ética con la inteligencia artificial… antes de que sea demasiado tarde

2. Ética y Derecho

En cierta forma es explicable ese ombliguismo ético, si se tiene en cuenta dónde han surgido estas tecnologías y, por tanto, querámoslo o no, con qué sesgo han nacido y, sobre todo, se están aplicando por grandes empresas en un mercado muy globalizado. Y, en el terreno de los valores, no podemos olvidar la vocación universal de la Declaración Universal de Derechos Humanos de la ONU (1948).

Pero, incluso las democracias occidentales que firmaron y comparten los valores de esa Declaración, presentan diferencias en sus sistemas jurídicos, que dichas tecnologías y, sobre todo, su aplicación por grandes empresas multinacionales, deben respetar y a las que han de adaptarse. Como ha ocurrido recientemente con empresas de fuera de la UE y el nuevo Reglamento de Protección de Datos.

Quiere esto decir que el primer ‘componente ético’ de la Inteligencia Artificial ha de ser el derecho vigente, pues todo sistema jurídico tiene unos valores que han de respetarse y el código informático debe adaptarse al código jurídico, que, por ahora y en muchos campos, es distinto en cada país (el gran problema de la aplicación territorial de las leyes), aunque se buscan estándares internacionales.

3. Algoritmo y Libertad

Un tema que me preocupa mucho, y del que ya he hablado en otras ocasiones, es la utilización del big data y de la inteligencia artificial para el cumplimiento de las leyes. La utilización de máquinas inteligentes (perfectas) para la vigilancia exhaustiva del cumplimiento de las normas humanas (imperfectas) por los seres humanos (imperfectos) nos pondría a todos en el lado de la ilegalidad.

En el debate se habló de la Agencia Tributaria, pero también podríamos citar a la Dirección General de Tráfico. Un uso intensivo del big data y de la inteligencia artificial, unido a sensores de geolocalización, podrían ‘resolver’ el problema del tráfico definitivamente, porque, en muy poco tiempo, todos habríamos perdido los puntos del carnet y, de paso, gran parte de nuestro dinero, por las sanciones.

Sería la estrategia perfecta para aquellos que todavía se nieguen a la utilización de coches autónomos, en cuya inteligencia artificial está inserto el código de la circulación, por lo que éste ya no sería necesario, porque no tendríamos siquiera la posibilidad de infringirlo. ¿Qué pasaría entonces con nuestro Libre Albedrío? Eso sí, como no tendríamos ya Libertad, tampoco tendríamos Responsabilidad.

4. Data4Good

En cuanto a la “responsabilidad de las empresas en la sociedad hiperconectada”, el debate derivó hacia la responsabilidad social corporativa en el uso del Big Data y de la Inteligencia Artificial, utilizando los datos (convenientemente agregados) -y, sobre todo, la tecnología que tienen las grandes empresas- para proyectos sociales sin ánimo de lucro, en lo que se llama Data4Good (datos para el bien).

Lo malo del nombre Data4Good es que puede parecer que las otras cosas que hacen las empresas con el big data y la inteligencia artificial, con ánimo de lucro, no son para el bien. Hay que distinguir entre el bien común (o el interés general) y el bien o interés particular, y explicar que no es malo. No hay que demonizarlo, ni criminalizar el ánimo de lucro, porque parece que fuera, en sí mismo, un delito.

Cuando unos laboratorios farmacéuticos invierten muchos miles de millones en investigación para la cura de enfermedades, por supuesto que tienen ánimo de lucro, que es lo que mueve a cualquier empresa. Pero si, gracias al big data y a la inteligencia artificial, que es como se investiga ahora, se consigue encontrar un medicamento que salva vidas, también se beneficia de ello el Bien Común.

Borja Adsuara es profesor, abogado, consultor y experto en Derecho, Estrategia y Comunicación Digital

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_