¿La inteligencia artificial nos hace más humanos?

Más allá de automatizar tareas y gestionar información, la IA tiene el potencial de ayudarnos a desarrollar las capacidades más humanas. Pero esto no siempre sucede

Imagen de un ojo humano con las letras "AI" (Inteligencia Artificial) y lenguaje de programación reflejado en su superficie.Jacques Julien (Getty Images)

Está detrás de las fotos que tomas con el móvil, de esa solicitud de crédito que te denegaron automáticamente, de las películas que ves en cualquier servicio de streaming o de las noticias que consultas en internet, porque la relación del ser humano con la inteligencia artificial es ya tan ubicua como invisible. “En la mayoría de los casos no sabemos que estamos interactuando con algoritmos de inteligencia artificial, pero son ellos los que predicen el tiempo; deciden qué actualizaciones leemos de nuestros amigos; qué películas vemos; qué música escuchamos; qué libros compramos e incluso por dónde vamos, porque los programas de mapas funcionan con IA. Si la mencionas, la mayoría piensa en ChatGPT, pero eso solo es la punta del iceberg”, explica Nuria Oliver, doctora por el MIT y directora científica y cofundadora de Ellis Alicante, una fundación de investigación en IA centrada en la humanidad.

En medio del fenómeno que representa el desarrollo de sistemas de inteligencia artificial, son numerosas las voces que reivindican la importancia del humanismo, y de las capacidades más intrínsecamente humanas, a la hora de diseñar, emplear e interpretar todos esos nuevos recursos tecnológicos, así como la capacidad de esta tecnología para cultivar esas habilidades que nos hacen más humanos. Pero ¿cuáles son esas características? ¿Sería correcto afirmar que las máquinas nos hacen más humanos?

“La llegada de la IA generativa representa un punto de inflexión revolucionario en nuestra relación con la tecnología porque, paradójicamente, mientras automatiza tareas y aumenta la eficiencia, nos exige ser más humanos que nunca, aplicando pensamiento crítico y potenciando la creatividad, la capacidad de contextualizar, la empatía o el aplicar un juicio ético a la respuesta que la máquina da a lo que le solicitamos”, sostiene Pedro Enríquez de Salamanca, Furby, diseñador e investigador creativo en Soulsight.

Inteligencia artificial y progreso

Esa relación de causalidad, sin embargo, no parece estar tan clara, ya que nada obliga al usuario a aplicar esas competencias humanas al interactuar con una inteligencia artificial. Tal y como advierte Oliver, “los sistemas actuales de IA no son perfectos; tienen una serie de limitaciones y, si queremos hacer un uso responsable de ellos, efectivamente necesitamos desarrollar una serie de habilidades como el pensamiento crítico y la verificación de fuentes, por ejemplo. Pero no es algo que vaya a suceder [de por sí], ya que tú puedes usar una IA generativa cualquiera, creerte todo lo que te está diciendo y actuar en consecuencia”. Un contexto en el que, reflexiona Enríquez, es necesario fortalecer conceptos como la confianza con el usuario, “en un mundo repleto de simulaciones, máquinas que generan vídeos de mentira y fake news que nos indignan o confirman en nuestro sesgo”.

Oliver entonces se pregunta cuántas personas realmente ejercen ese acercamiento crítico al interactuar con la IA: “Seguramente no muchas, porque los grandes modelos de lenguaje, los chatbots, tienen una capacidad verbal tan desarrollada y el texto que generan está tan bien articulado que automáticamente la mayoría pensamos que lo que dicen es verdad”. Otra cosa, recuerda, es que ese sistema de IA se desarrolle con eso en mente: “En Ellis Alicante tenemos un proyecto específico para que la inteligencia artificial fomente el pensamiento crítico, a través de un chatbot que no te responde a todo lo que te preguntas, sino que aplica el método socrático para que seas tú quien encuentre las respuestas”.

La doctora Nuria Oliver, cofundadora de Ellis Alicante.Napoleón Ramos

Por eso, con casi toda certeza, la clave está en la educación, de manera que la sociedad ponga de su parte todo lo necesario para recuperar esas capacidades que parecen haber quedado relegadas. “Que vuelva la Filosofía a los institutos, que el debate no sea un pasatiempo sino una realidad habitual, y que la capacidad de estructurar el pensamiento te diferencie y te permita explotar tu creatividad es un mundo donde se valora siempre más la inmediatez y la eficiencia”, señala Enríquez.

La relación con la IA generativa, añade, tiene que ser tan natural como lo es conversar, leer o pensar. “ChatGPT, Dall-E, CoPilot, DeepSeek... necesitan que les contemos qué queremos. Y en la necesidad de saber qué pedir, cuantos más conocimientos atesoremos, mejores preguntas nos haremos y más críticos seremos con las respuestas que nos de la máquina”.

En cualquier caso, “no hay que confundir desarrollo tecnológico con progreso, entendiéndolo como la mejora de la calidad de vida de todas las personas”, sostiene Oliver. “La pregunta debería ser si el ser humano es capaz de desarrollar una inteligencia artificial que nos ayude a desarrollar nuestras capacidades y habilidades.... Porque, si lo piensas, hoy la situación es casi la contraria: hace tiempo circulaba por internet un meme que decía “yo lo que quiero es que la IA planche, limpie la casa y vaya a la compra, para que yo pueda escribir o pintar. Pero lo que hay ahora es una inteligencia que escribe poemas o crea imágenes y a nosotros es a quienes toca fregar la casa e ir al mercado”. Por eso, explica, “no nos está haciendo más humanos, porque para las tareas que nos gustaría delegar no existe una tecnología con el nivel de competencia necesario”.

Ahora bien, ¿qué puede suceder si la inteligencia artificial no se desarrolla con esa perspectiva humanística? “El principal riesgo es que el ser humano quede desplazado del centro del “por qué” y del “para quién”. Una tecnología más avanzada pero que nos lleve a crear sociedades en las que los sesgos den lugar a situaciones de injusticia, o en las que no se respete la privacidad y la libertad de las personas”, afirma por su parte Catalina Tejero, decana de Humanidades en IE University. “Nos llevaría a retroceder en muchas conquistas de derechos y garantías que dábamos ya por ganadas”.

Desafíos éticos de la inteligencia artificial

Si hablamos de desarrollo tecnológico y progreso, también deberemos hacerlo sobre el verdadero significado de la innovación, señalan los expertos. Así, quizá, esta no radique en la perfección técnica, sino en la capacidad del ser humano para dirigir y dar sentido a la tecnología, frente a los numerosos desafíos éticos que plantean los avances en inteligencia artificial. Retos entre los que Oliver destaca ocho:

  • La violación computacional de la privacidad de las personas, es decir, el poder inferir atributos muy personales (como la orientación política o sexual) a partir de datos no personales (como el patrón de los “me gusta” en una red social).
  • El uso sin permiso de datos que contengan información personal para entrenar modelos de IA generativa.
  • Falta de transparencia u opacidad.
  • No hay garantía de veracidad en el contenido que está siendo generado.
  • Falta de diversidad, no solo en lo que respecta a los expertos en IA (de los que solo un 12 % a nivel mundial son mujeres), sino también en los algoritmos, que tienden a encasillarnos en ciertos patrones y estereotipos. Una carencia que puede estar contribuyendo, en parte, a la polarización de la sociedad, porque se crean como universos paralelos donde no hay una realidad compartida. Así, lo único que ve cada persona son contenidos afines a su ideología, lo que genera auténticas burbujas en la sociedad.
  • Discriminación. Cuando usamos algoritmos de IA para ayudarnos en la toma de decisiones, “muchas veces no solo se están replicando patrones de discriminación que existen en la sociedad, sino que incluso los pueden magnificar o amplificar”.
  • Otra limitación tiene que ver con la huella de carbono, debido al inmenso consumo energético de la inteligencia artificial. “Sabemos, por un lado, que la necesitamos para abordar el cambio climático, porque necesitamos modelos más precisos del clima; pero, por otro, los modelos de IA son de todo menos neutros a nivel de la huella de carbono”, admite.

Más allá de los mencionados, otro reto significativo es el de la manipulación subliminal del comportamiento humano, “por esa invisibilidad de la inteligencia artificial, que interacciona con nosotros así como desde el fondo, sin nosotros saberlo, en muchos casos se puede estar influenciando o manipulando nuestro comportamiento”.

Oliver destaca la fina línea que separa la persuasión de la manipulación, ya que “la mayoría de sistemas de IA del mundo digital lo que quieren al final es captar nuestra atención. Y para ello nos muestran contenidos llamativos que sean capaces de atraparla, lo que en cierto sentido es una manera de manipularnos. Y si clicamos aún mejor, porque hay más probabilidad de que generemos ingresos”.

Carencia de investigaciones independientes

Con el fin de hacer frente a algunos de esos desafíos, Oliver llama la atención sobre la falta de investigación ética e independiente en IA que estudie el impacto negativo de la IA en la sociedad. Una carencia que es necesario solventar por un motivo evidente, ya que la mayor parte de la investigación actual la realizan las grandes empresas tecnológicas de China y EE UU, motivadas principalmente por intereses comerciales.

“Hay preguntas importantes sobre la inteligencia artificial que probablemente no se están estudiando, y esto es así porque no les interesa a quienes han desarrollado esa tecnología. Por ejemplo: ¿Cuál es el impacto en la salud mental de las plataformas o redes sociales plagadas de inteligencia artificial? ¿Te has preguntado cómo gana dinero Facebook? Pues a través de la publicidad personalizada. ¿Y cómo se maximizan esos ingresos? Maximizando la cantidad de tiempo que pasas en la plataforma. Y eso se consigue publicando contenidos que son poco probables, cosas estrambóticas y sensacionalistas que muchas veces tienen un tamiz negativo. Ese es un sesgo cognitivo humano que los algoritmos de IA aprovechan”.

Es en este contexto en el que Oliver menciona uno de los proyectos desarrollados en Ellis Alicante, un trabajo pionero a nivel mundial que estudia el llamado “sesgo del atractivo”, según el cual los seres humanos percibimos a las personas más atractivas también como más inteligentes, sociables, confiables y con menor probabilidad de ser criminales; tienen más probabilidad de ser promocionadas en sus trabajos y reciben sentencias judiciales más favorables. El estudio, que contó con la participación de 2.700 personas, concluyó que este sesgo actúa de forma opuesta en hombres y mujeres, para las que ser bella y atractiva llevaba en muchos casos a la asunción de que poseen un bajo nivel de inteligencia.

“Es esencial que los profesionales desarrollen un pensamiento crítico que les capacite para cuestionar y evaluar implicaciones sociales, culturales y éticas”, recuerda Tejero. “Además, es clave estimular la creatividad y mantener una mentalidad abierta capaz de entablar diálogos con otras disciplinas y sistemas de valores”.

Sobre la firma

Más información

Archivado En