_
_
_
_

Adela Cortina, filósofa: “Me parece sumamente peligroso decir que la IA puede solucionarlo todo”

La pensadora reflexiona en su nuevo libro sobre nuestra relación con la tecnología del momento y reclama un espíritu crítico a la hora de valorar su aportación a la humanidad

La filósofa Adela Cortina acaba de publicar el libro '¿Ética o ideología de la inteligencia artificial?'.
La filósofa Adela Cortina acaba de publicar el libro '¿Ética o ideología de la inteligencia artificial?'.Pablo Monge
Manuel G. Pascual

Adela Cortina (Valencia, 77 años) nunca imaginó que escribiría un libro sobre inteligencia artificial (IA). “A quienes trabajamos en el campo de la ética nos interesa muchísimo que el conocimiento progrese. La ciencia y la técnica, bien encaminadas, son extraordinarias para la humanidad”, dispara para arrancar la conversación con EL PAÍS. “La cuestión es que a veces lo están y otras no”. De eso va su nueva obra, ¿Ética o ideología de la inteligencia artificial? (Paidós).

Catedrática emérita de Ética y Filosofía Política de la Universidad de Valencia y Doctora Honoris Causa por ocho universidades nacionales y extranjeras, Cortina es una de las pensadoras más conocidas de España. Fue la primera mujer en ingresar en la Real Academia de Ciencias Morales y Políticas y es autora de más de una treintena de libros, entre los que sobresalen Aporofobia, el rechazo al pobre (2017) o ¿Para qué sirve realmente la ética? (Premio Nacional de Ensayo 2014). En esta ocasión, la filósofa se fija en la tecnología que acapara la atención mundial desde que hace dos años, cuando irrumpió ChatGPT.

Pregunta. ¿Por qué le preocupa la IA?

Respuesta. Creo que [Karl-Otto] Apel y [Jürgen] Habermas tenían razón cuando decían que hay tres intereses del conocimiento: el técnico, el práctico y el de la emancipación. Cuando el interés técnico está regido por el práctico, el de la moral, lleva a una verdadera emancipación de la sociedad. La IA es un saber científico-técnico que hay que encaminar en alguna dirección. Si quienes lo controlan son grandes empresas que quieren poder económico o países que quieren poder geopolítico, entonces no queda nada garantizado que sea bien usado. Si esta tecnología afecta a toda la humanidad, tiene que beneficiar a toda la humanidad.

P. ¿Cree que el debate en torno a la IA está ideologizado?

R. En el libro me centro en las dos posiciones principales: la de los temerosos de la IA, que creen que va a ser la fuente de todos los males, y la de los más entusiastas, los transhumanistas y posthumanistas, que creen que la IA nos ayudará a llegar a un mundo absolutamente feliz. Hay quien, como Ray Kurzweil [director de Tecnología de Google], le pone fecha: él dice que en 2048 habremos acabado con la muerte. Eso sería ideología, en el sentido tradicional del término: una visión deformada de la realidad que se mantiene para perseguir determinados objetivos. Ahí no se está actuando como ética. Me parece sumamente peligroso mentir, decir que lo vamos a solucionar todo con la IA. El peligro de esa posición es que se está asentando sobre la autoridad que tiene la ciencia, y eso hace que la gente se lo tome en serio. Yo soy seguidora de la Escuela de Fráncfort, que dice que la ciencia y la técnica son una maravilla, pero que si se convierten en ideología, porque ya son una fuerza productiva, entonces hemos cambiado el sentido del asunto.

P. ¿Qué principios éticos debería regir una IA confiable?

R. La sociedad emancipada es la que está libre de ideologías, y para eso debe dotarse de una ética. Los principios básicos son el de no maleficencia (no dañarás), el de beneficencia (harás bien), el de autonomía y el de justicia. Además de esos están los principios de trazabilidad y explicabilidad, un tema complicado cuando tratamos algoritmos, y el de rendición de cuentas. Y luego está el principio de precaución, que los europeos llevamos a gala.

La filósofa Adela Cortina, en el Hotel AC Recoletos de Madrid.
La filósofa Adela Cortina, en el Hotel AC Recoletos de Madrid.Pablo Monge

P. ¿Se está legislando bien sobre este asunto?

R. A los europeos se nos suele tildar de excesivamente normativistas, pero creo que no está mal ser cautelosos, están en juego vidas humanas. Eso no tiene que impedir que se siga investigando. Hace falta una ética de la responsabilidad, marcar hasta dónde llegamos en la investigación no es sencillo.

P. En el libro debate si la IA puede ser sujeto o será siempre una herramienta. ¿Ya es momento de discutir eso?

R. Dicen los especialistas que, hoy por hoy, no hemos llegado a la inteligencia artificial general, la que sería equiparable a la de los seres humanos. Para eso sería necesario que tuvieran un cuerpo biológico, porque es la manera de tener significatividad, intencionalidad, etcétera. Lo que sí tenemos son inteligencias artificiales especiales, capaces de hacer muy bien, incluso mejor que nosotros, ciertas tareas. Creo que es muy importante que sepamos dónde estamos y que se abra un debate serio sobre eso. A día de hoy, es un instrumento, y, por tanto, tiene que ser utilizado con unos u otros fines, pero nunca tiene que sustituir a los seres humanos. No se puede reemplazar a los profesores, ni a los jueces, ni a los médicos por algoritmos. Los algoritmos no toman decisiones, sino que aportan resultados. Quien tiene que ser responsable de la decisión última es la persona. Una de las malísimas consecuencias que podría tener el uso de la IA es convertir a las máquinas en protagonistas de la vida. Hay que ir con muchísimo cuidado porque tenemos tendencia a la comodidad, y cuando te viene dado un resultado, puedes tener la tentación de adoptarlo sin más.

Los algoritmos no toman decisiones, sino que aportan resultados. Una de las malísimas consecuencias que podría tener el uso de la IA es convertir a las máquinas en protagonistas de la vida

P. ¿Tiene sentido hablar de roboeticistas o de ética de las máquinas?

R. Desde hace un tiempo se están intentando crear máquinas éticas, que tengan incorporados una serie de valores. Me parece muy interesante que se puedan asumir de alguna manera esos códigos, ya sea en los algoritmos que conducen vehículos o los robots que cuidan de ancianos, para que tomen decisiones sin necesidad de tener un humano encima todo el rato.

P. Dedica la última parte del libro a tratar la relación entre la educación y la IA. ¿Por qué se fija en esta actividad?

R. La educación es la clave de nuestras sociedades, y está muy descuidada. En China están muy preocupados en aplicar IA a la educación, porque dicen que si a la gente le explicamos lo de ayer, perdemos el mañana. Para mí, el tema clave de la educación es la justicia: hay mucha gente que no tiene acceso a estas herramientas, y eso hace que la brecha cada vez mayor. Me preocupa también la autonomía. Una de las grandes tareas de la Ilustración es potenciar la autonomía de las personas, que sepan dirigir sus propias vidas. Hemos de educar para que haya una ciudadanía crítica, madura, que se mueva por sí misma, por sus propias convicciones; que no se deje llevar como con andadores, que decía Kant, sino que se guíe por su propia razón. Y eso es muy difícil en un mundo en el que las plataformas están intentando que les dediquemos mucho tiempo para recabar nuestros datos. Están superficializando la enseñanza y haciendo que las personas sean cada vez menos autónomas. Creo que la autonomía está en peligro, y eso es malo para la democracia.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Manuel G. Pascual
Es redactor de la sección de Tecnología. Sigue la actualidad de las grandes tecnológicas y las repercusiones de la era digital en la privacidad de los ciudadanos. Antes de incorporarse a EL PAÍS trabajó en Cinco Días y Retina.
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_