Felipe Gómez-Pallete, presidente de Calidad y Cultura Democráticas: “Estamos jugando a ser dios con la inteligencia artificial”
El autor y exdirectivo advierte de los intereses económicos ocultos tras innovaciones que “se venden solo como beneficios para la humanidad”
Felipe Gómez-Pallete, nacido en Reinosa (Cantabria) hace 78 años, ha podido observar desde atalayas directivas de grandes compañías, como Inditex o IBM, los efectos de las tecnologías que hace tiempo dejaron de ser nuevas. Autor de La sociedad de la información. Riesgos y oportunidades para la empresa española (Ciencias de la Dirección, 1988) junto a autores tan destacados como Eduardo Punset, Emilio Fontela, José Luis Sampedro y Luis Racionero, entre otros, se embarca ahora en una nueva aventura editorial junto a Paz de Torres (exdirectiva de Cisco), con quien comparte también la dirección de Calidad y Cultura Democráticas, una organización destinada a facilitar la participación ciudadana. Este nuevo trabajo, Que los árboles no te impidan ver el bosque: caminos de la inteligencia artificial (previsto para su publicación en Círculo Rojo en octubre), aborda la transformación de la sociedad a partir de los sistemas y máquinas que imitan la forma de pensar humana. Considera que hay que anticiparse y actuar ante algo tan prometedor como conflictivo. “Estamos jugando a ser dios”, advierte.
Pregunta. ¿Qué hay detrás de la inteligencia artificial?
Respuesta. Varias fuerzas. Una de ellas son los intereses económicos, no nos engañemos. También está el interés científico, cuya curiosidad no tiene límites. Y, después, el motor filosófico. El hombre siempre ha pretendido crear copias de él, incluso mejoradas. Uno de los autores que citamos [en el libro] afirma que lo hacemos por lo mismo que tenemos hijos. La pulsión que nos mueve es la de sentirnos creadores. Es como jugar a ser dios. Es lo que estamos haciendo. Esa sería la interpretación filosófica, pero la terrenal y potentísima es la de los intereses económicos que hay detrás de esto, como de cualquier innovación tecnológica.
P. Google despidió al ingeniero Blake Lemoine por atribuirle sentimientos a un programa de inteligencia artificial.
R. La inteligencia artificial no llegará a tener sentimientos. Se puede programar, convertir en algoritmos, todo lo que sea conocimiento o ideas, pero los sentimientos, el sentir humano, me parece absolutamente improgramable. Hace poco releí El mundo de ayer, de Stefan Zweig, donde afirma: “Sólo la ilusión, no el saber, hace al hombre feliz”. La ilusión no se puede algoritmizar y, por tanto, no creo en estas pretendidas réplicas transhumanas o poshumanas. A lo mejor estamos confundiendo el deseo con la realidad porque, si fuera cierto, apaga y vámonos.
Se puede programar, convertir en algoritmos, todo lo que sea conocimiento, ideas, pero los sentimientos, el sentir humano, me parece absolutamente improgramable
P. ¿Puede afectar la inteligencia artificial a la dignidad?
R. Es uno de los aspectos que más nos preocupa [a los autores del libro]. Dignidad, libertad, reconocimiento social…. Los avances en inteligencia artificial, de una u otra manera, pueden poner en riesgo o alterar estos valores. Rafael Yuste, que lidera el proyecto Brain y asesoró a Obama, advierte de que hay avances que están cambiando la naturaleza humana. Es muy serio.
P. ¿La tecnología es neutra?
R. La tecnología no es neutra, es como una cerilla con la que puedes encender la vela de cumpleaños de tu hijo o incendiar el monte. Todo el proceso tecnológico que acaba cristalizando en un producto, sea una cerilla o un sistema de inteligencia artificial, responde a los intereses y a los valores del momento en el que se desarrolla. Y la inteligencia artificial que se está desarrollando responde a unos intereses políticos, sociales y económicos.
P. ¿Somos demasiado incautos a la hora de ceder nuestros datos?
R. Hace poco, en una reunión de amigos, uno de ellos dijo que le daba igual que lo vigilen, pero debería saber que, si te acuestas con alguien y el otro también tiene móvil, mucha gente va a saber cuándo, dónde y con quién has dormido, por decir algo mundano. Estamos dando toda suerte de datos de nosotros mismos, de nuestro comportamiento, de lo que nos gusta o no, de dónde estamos, de qué compramos…
Todos los avances en inteligencia artificial, de una u otra manera, pueden poner en riesgo o alterar los parámetros que conforman la dignidad
P. ¿Eso atenta contra la dignidad de las personas?
R. Sí, entre otras cosas, porque invade tu privacidad. Socava tu dignidad porque te desprendes de argumentos íntimos que explican tu vida. Esgrimir que facilitamos los datos personales que queremos dar es una verdad a medias.
P. ¿La inteligencia artificial terminará destruyendo fuerza laboral?
R. Es una viejísima polémica. Llevo trabajando este tema desde los años ochenta, en el ámbito de las tecnologías de la información y la comunicación. Las tecnologías y, en concreto la inteligencia artificial, destruye y crea puestos de trabajo. Es evidente. Y el balance no está claro. Luis Racionero decía que no nos rasguemos las vestiduras porque cada vez haya menos trabajo: no es un fracaso del capitalismo; es la demostración de su éxito porque, si entendemos por capitalismo la paulatina sustitución del factor trabajo por el factor capital, es lo que estamos haciendo, estamos sustituyendo el trabajo humano por formas de capital y esto es lo que hay.
P. ¿Es solo una cuestión de cantidad o, también, de calidad del trabajo?
R. Ambas. La sustitución de la persona por algoritmos modifica y merma las posibilidades de aprendizaje, porque la máquina “se queda” con circunstancias en las que ya no puede formarse la persona porque le son opacas.
P. ¿Se puede regular la inteligencia artificial?
R. Los productos, los sistemas y los servicios que han nacido en el laboratorio y están en el mercado hay que regularlos, evidentemente. Europa tiene mucho más músculo e interés que Estados Unidos o China, pero esa batalla hay que seguir dándola. Pero nuestro foco no lo ponemos en la regulación de los sistemas ya existentes de inteligencia artificial. Nosotros preguntamos: ¿no sería conveniente también poner la lupa de la regulación en el origen, en el inicio, en la investigación básica? ¿Es lícito para la humanidad investigar cualquier cosa, desarrollar cualquier cosa? Una de nuestras citas favoritas es esta de Margaret Boden: “Debemos tener mucho cuidado con lo que inventamos”. Esa es la clave, porque la tecnología, una vez desarrollada, no hay quien la pare. La podemos regular, atemperar, pero llegamos tarde. ¿Por qué no explicamos los pros y los contras de regular la investigación básica, donde nacen los nuevos desarrollos? No hemos visto que haya interés ni foco puesto en la investigación, en el nacimiento del río. Nos justifican que, a la postre, aportarán remedios. Pero no nos dicen la otra cara de la moneda: los enormes intereses económicos a los que responden.
La tecnología, una vez desarrollada, no hay quien la pare. La podemos regular, atemperar, pero llegamos tarde
P. ¿Es el caso del metaverso?
R. ¿Quién va a crear el metaverso si no es porque, detrás de ello, hay un inmenso e inimaginable billonario cúmulo de intereses económicos? ¿Se está haciendo para la felicidad de la humanidad? Pues no. Entonces, ¿por qué no se dice así de claro?
P. ¿La ciudadanía puede hacer algo?
R. En nuestro libro hacemos una llamada a pertrechar a la ciudadanía con pensamiento filosófico e histórico. Si tiene formación sobre qué es la vida y cómo transcurre a lo largo del tiempo, manejaremos estas oleadas tecnológicas de una manera mucho más comedida o conducentes a la felicidad humana.
P. ¿Significa que estamos buscando la felicidad en la tecnología cuando está en nuestra propia esencia?
R. Estamos mirando fuera y hay que mirarse dentro. La inteligencia artificial está prácticamente ausente del debate público y queremos lanzar un pequeño grito, movilizar a la sociedad civil, impulsar iniciativas que hagan que los ciudadanos exijamos más claridad, que no se esconda parte de lo que nos venden solo como un beneficio para la humanidad. No es así. En absoluto. De momento, destruye puestos de trabajo con la promesa de que crea otros muchos e invade la privacidad de las personas. Cambia la esencia del ser humano, como dice repetidamente Rafael Yuste. No somos contrarios a la inteligencia artificial y sus beneficios. Somos contrarios a que se venda parte de la verdad.
¿Se está haciendo el metaverso para la felicidad de la humanidad? Pues no. Entonces, ¿por qué no se dice así de claro?
P. ¿Hay que introducir la ética en los primeros pasos de la tecnología?
R. En Estados Unidos, Francia, Italia o Canadá prestan mucha atención, muchos recursos, mucho dinero y muchos investigadores a la ética aplicada a la inteligencia artificial. En España lo vemos, pero con menos vigor; es más parte de un discurso oficial, porque hay que decirlo, pero no veo grandes impulsores de la ética en el campo de la inteligencia artificial entre nosotros, la verdad.
Puedes escribirnos a rlimon@elpais.es, seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter y apuntarte aquí para recibir nuestra newsletter semanal
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.