_
_
_
_

¿La inteligencia artificial nos hace más humanos?

Más allá de automatizar tareas y gestionar información, la IA tiene el potencial de ayudarnos a desarrollar las capacidades más humanas. Pero esto no siempre sucede

Imagen de un ojo humano con las letras "AI" (Inteligencia Artificial) y lenguaje de programación reflejado en su superficie.
Imagen de un ojo humano con las letras "AI" (Inteligencia Artificial) y lenguaje de programación reflejado en su superficie.Jacques Julien (Getty Images)
Nacho Meneses

Está detrás de las fotos que tomas con el móvil, de esa solicitud de crédito que te denegaron automáticamente, de las películas que ves en cualquier servicio de streaming o de las noticias que consultas en internet, porque la relación del ser humano con la inteligencia artificial es ya tan ubicua como invisible. “En la mayoría de los casos no sabemos que estamos interactuando con algoritmos de inteligencia artificial, pero son ellos los que predicen el tiempo; deciden qué actualizaciones leemos de nuestros amigos; qué películas vemos; qué música escuchamos; qué libros compramos e incluso por dónde vamos, porque los programas de mapas funcionan con IA. Si la mencionas, la mayoría piensa en ChatGPT, pero eso solo es la punta del iceberg”, explica Nuria Oliver, doctora por el MIT y directora científica y cofundadora de Ellis Alicante, una fundación de investigación en IA centrada en la humanidad.

En medio del fenómeno que representa el desarrollo de sistemas de inteligencia artificial, son numerosas las voces que reivindican la importancia del humanismo, y de las capacidades más intrínsecamente humanas, a la hora de diseñar, emplear e interpretar todos esos nuevos recursos tecnológicos, así como la capacidad de esta tecnología para cultivar esas habilidades que nos hacen más humanos. Pero ¿cuáles son esas características? ¿Sería correcto afirmar que las máquinas nos hacen más humanos?

“La llegada de la IA generativa representa un punto de inflexión revolucionario en nuestra relación con la tecnología porque, paradójicamente, mientras automatiza tareas y aumenta la eficiencia, nos exige ser más humanos que nunca, aplicando pensamiento crítico y potenciando la creatividad, la capacidad de contextualizar, la empatía o el aplicar un juicio ético a la respuesta que la máquina da a lo que le solicitamos”, sostiene Pedro Enríquez de Salamanca, Furby, diseñador e investigador creativo en Soulsight.

Inteligencia artificial y progreso

Esa relación de causalidad, sin embargo, no parece estar tan clara, ya que nada obliga al usuario a aplicar esas competencias humanas al interactuar con una inteligencia artificial. Tal y como advierte Oliver, “los sistemas actuales de IA no son perfectos; tienen una serie de limitaciones y, si queremos hacer un uso responsable de ellos, efectivamente necesitamos desarrollar una serie de habilidades como el pensamiento crítico y la verificación de fuentes, por ejemplo. Pero no es algo que vaya a suceder [de por sí], ya que tú puedes usar una IA generativa cualquiera, creerte todo lo que te está diciendo y actuar en consecuencia”. Un contexto en el que, reflexiona Enríquez, es necesario fortalecer conceptos como la confianza con el usuario, “en un mundo repleto de simulaciones, máquinas que generan vídeos de mentira y fake news que nos indignan o confirman en nuestro sesgo”.

Oliver entonces se pregunta cuántas personas realmente ejercen ese acercamiento crítico al interactuar con la IA: “Seguramente no muchas, porque los grandes modelos de lenguaje, los chatbots, tienen una capacidad verbal tan desarrollada y el texto que generan está tan bien articulado que automáticamente la mayoría pensamos que lo que dicen es verdad”. Otra cosa, recuerda, es que ese sistema de IA se desarrolle con eso en mente: “En Ellis Alicante tenemos un proyecto específico para que la inteligencia artificial fomente el pensamiento crítico, a través de un chatbot que no te responde a todo lo que te preguntas, sino que aplica el método socrático para que seas tú quien encuentre las respuestas”.

La doctora Nuria Oliver, cofundadora de Ellis Alicante.
La doctora Nuria Oliver, cofundadora de Ellis Alicante.Napoleón Ramos

Por eso, con casi toda certeza, la clave está en la educación, de manera que la sociedad ponga de su parte todo lo necesario para recuperar esas capacidades que parecen haber quedado relegadas. “Que vuelva la Filosofía a los institutos, que el debate no sea un pasatiempo sino una realidad habitual, y que la capacidad de estructurar el pensamiento te diferencie y te permita explotar tu creatividad es un mundo donde se valora siempre más la inmediatez y la eficiencia”, señala Enríquez.

La relación con la IA generativa, añade, tiene que ser tan natural como lo es conversar, leer o pensar. “ChatGPT, Dall-E, CoPilot, DeepSeek... necesitan que les contemos qué queremos. Y en la necesidad de saber qué pedir, cuantos más conocimientos atesoremos, mejores preguntas nos haremos y más críticos seremos con las respuestas que nos de la máquina”.

En cualquier caso, “no hay que confundir desarrollo tecnológico con progreso, entendiéndolo como la mejora de la calidad de vida de todas las personas”, sostiene Oliver. “La pregunta debería ser si el ser humano es capaz de desarrollar una inteligencia artificial que nos ayude a desarrollar nuestras capacidades y habilidades.... Porque, si lo piensas, hoy la situación es casi la contraria: hace tiempo circulaba por internet un meme que decía “yo lo que quiero es que la IA planche, limpie la casa y vaya a la compra, para que yo pueda escribir o pintar. Pero lo que hay ahora es una inteligencia que escribe poemas o crea imágenes y a nosotros es a quienes toca fregar la casa e ir al mercado”. Por eso, explica, “no nos está haciendo más humanos, porque para las tareas que nos gustaría delegar no existe una tecnología con el nivel de competencia necesario”.

Ahora bien, ¿qué puede suceder si la inteligencia artificial no se desarrolla con esa perspectiva humanística? “El principal riesgo es que el ser humano quede desplazado del centro del “por qué” y del “para quién”. Una tecnología más avanzada pero que nos lleve a crear sociedades en las que los sesgos den lugar a situaciones de injusticia, o en las que no se respete la privacidad y la libertad de las personas”, afirma por su parte Catalina Tejero, decana de Humanidades en IE University. “Nos llevaría a retroceder en muchas conquistas de derechos y garantías que dábamos ya por ganadas”.

Desafíos éticos de la inteligencia artificial

Si hablamos de desarrollo tecnológico y progreso, también deberemos hacerlo sobre el verdadero significado de la innovación, señalan los expertos. Así, quizá, esta no radique en la perfección técnica, sino en la capacidad del ser humano para dirigir y dar sentido a la tecnología, frente a los numerosos desafíos éticos que plantean los avances en inteligencia artificial. Retos entre los que Oliver destaca ocho:

Más allá de los mencionados, otro reto significativo es el de la manipulación subliminal del comportamiento humano, “por esa invisibilidad de la inteligencia artificial, que interacciona con nosotros así como desde el fondo, sin nosotros saberlo, en muchos casos se puede estar influenciando o manipulando nuestro comportamiento”.

Oliver destaca la fina línea que separa la persuasión de la manipulación, ya que “la mayoría de sistemas de IA del mundo digital lo que quieren al final es captar nuestra atención. Y para ello nos muestran contenidos llamativos que sean capaces de atraparla, lo que en cierto sentido es una manera de manipularnos. Y si clicamos aún mejor, porque hay más probabilidad de que generemos ingresos”.

Carencia de investigaciones independientes

Con el fin de hacer frente a algunos de esos desafíos, Oliver llama la atención sobre la falta de investigación ética e independiente en IA que estudie el impacto negativo de la IA en la sociedad. Una carencia que es necesario solventar por un motivo evidente, ya que la mayor parte de la investigación actual la realizan las grandes empresas tecnológicas de China y EE UU, motivadas principalmente por intereses comerciales.

“Hay preguntas importantes sobre la inteligencia artificial que probablemente no se están estudiando, y esto es así porque no les interesa a quienes han desarrollado esa tecnología. Por ejemplo: ¿Cuál es el impacto en la salud mental de las plataformas o redes sociales plagadas de inteligencia artificial? ¿Te has preguntado cómo gana dinero Facebook? Pues a través de la publicidad personalizada. ¿Y cómo se maximizan esos ingresos? Maximizando la cantidad de tiempo que pasas en la plataforma. Y eso se consigue publicando contenidos que son poco probables, cosas estrambóticas y sensacionalistas que muchas veces tienen un tamiz negativo. Ese es un sesgo cognitivo humano que los algoritmos de IA aprovechan”.

Es en este contexto en el que Oliver menciona uno de los proyectos desarrollados en Ellis Alicante, un trabajo pionero a nivel mundial que estudia el llamado “sesgo del atractivo”, según el cual los seres humanos percibimos a las personas más atractivas también como más inteligentes, sociables, confiables y con menor probabilidad de ser criminales; tienen más probabilidad de ser promocionadas en sus trabajos y reciben sentencias judiciales más favorables. El estudio, que contó con la participación de 2.700 personas, concluyó que este sesgo actúa de forma opuesta en hombres y mujeres, para las que ser bella y atractiva llevaba en muchos casos a la asunción de que poseen un bajo nivel de inteligencia.

“Es esencial que los profesionales desarrollen un pensamiento crítico que les capacite para cuestionar y evaluar implicaciones sociales, culturales y éticas”, recuerda Tejero. “Además, es clave estimular la creatividad y mantener una mentalidad abierta capaz de entablar diálogos con otras disciplinas y sistemas de valores”.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Nacho Meneses
Coordinador y redactor del canal de Formación de EL PAÍS, está especializado en educación y tendencias profesionales, además de colaborar en Mamas & Papas, donde escribe de educación, salud y crianza. Es licenciado en Filología Inglesa por la Universidad de Valladolid y Máster de Periodismo UAM / EL PAÍS
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_