Anders Sandberg, neurocientífico: “Estamos al principio de la historia y tenemos la responsabilidad de no estropear demasiado las cosas”
El investigador de Oxford cree que las mayores amenazas para la humanidad las crean los propios humanos
Cuando se trata del futuro a largo plazo, un joven puede preocuparse por si tendrá pensión cuando se jubile o cómo será el planeta cuando sus bisnietos estén en la universidad. Pero, ¿y lo que viene después, qué? Para Anders Sandberg (Solna, Suecia, 50 años), investigador en el Instituto sobre el Futuro de la Humanidad de la Universidad de Oxford, pensar en el largo plazo supone reflexionar sobre lo que ocurrirá dentro de miles de años. El objetivo es garantizar ...
Cuando se trata del futuro a largo plazo, un joven puede preocuparse por si tendrá pensión cuando se jubile o cómo será el planeta cuando sus bisnietos estén en la universidad. Pero, ¿y lo que viene después, qué? Para Anders Sandberg (Solna, Suecia, 50 años), investigador en el Instituto sobre el Futuro de la Humanidad de la Universidad de Oxford, pensar en el largo plazo supone reflexionar sobre lo que ocurrirá dentro de miles de años. El objetivo es garantizar que los humanos de los próximos siglos y milenios tengan la oportunidad de nacer y sobrevivir.
Sandberg es neurocientífico computacional y forma parte de una corriente filosófica conocida como largoplacista, que estudia el futuro lejano. Para llegar hasta allá, la humanidad tendrá que supervivir a una serie de amenazas. “Existen las naturales, como los impactos de asteroides y los supervolcanes, pero la probabilidad de que esos eliminen a la humanidad a lo largo de un siglo es mucho menor de lo que supone el cambio climático o una guerra nuclear”, afirma.
A la lista de riesgos de baja probabilidad, pero de mucho impacto, Sandberg añade la inteligencia artificial (IA), que, mal empleada, puede llevar a un caos sistémico. Según argumenta, las mayores amenazas las crean los propios humanos y ahí es donde está el riesgo, pero él sigue optimista. “En el ahora se pueden tomar decisiones”, dice el investigador a EL PAÍS, tras impartir una conferencia sobre el futuro de la humanidad en el Centro Nacional de Investigaciones Oncológicas (CNIO), en Madrid. Sandberg estudia además otras cuestiones filosóficas relacionadas con la cognición aumentada, la criogenia humana y la búsqueda de vida extraterrestre.
Pregunta. ¿Cómo se compara el cambio climático con los riesgos que representan las nuevas tecnologías o la inteligencia artificial?
Respuesta. Los riesgos de la inteligencia artificial actualmente son casi nulos, pero muchos investigadores piensan que van a crecer y llegar a ser muy importantes, incluso en un futuro próximo. Lo interesante es que podemos evitarlo. Podemos trabajar en la creación de mecanismos de seguridad para la inteligencia artificial, así como para las biotecnologías. El riesgo disminuye si hacemos bien nuestro trabajo. El cambio climático es complicado porque se trata de algo sistémico: afecta a la economía, la política, la cadena de suministro, el ecosistema. Y eso significa que requiere soluciones muy diferentes. Para corregir la inteligencia artificial, incluso si descubres cómo hacerla de forma segura, aún necesitamos a los Gobiernos y las leyes. Eso, para mí, es lo que garantiza su seguridad.
P. ¿Qué tecnologías podrían escapar del control?
R. La gente suele mencionar que los robots se comportan mal, pero creo que los sistemas de asesoramiento podrían ser los más peligrosos. Imagine un programa creado para asesorar a una empresa y hacerla más rentable. Si es lo suficientemente bueno, tiene sentido usarlo porque da buenos consejos. Los ejecutivos que no los siguen podrían ser despedidos y eso maximiza los ingresos de la empresa, pero no respeta la ética. Al final, convierte la empresa en algo más despiadada, no porque sea mala, sino porque maximiza las ganancias. Y esto podrían replicarlo las demás empresas. Si hay una ley que lo prohíba, contratarán abogados para darle una vuelta. La situación se vuelve más problemática mientras sea más poderosa. Si tenemos sistemas muy potentes capaces de crear tecnologías muy inteligentes, es posible que ambos tengan efectos peligrosos.
P. ¿Algún ejemplo?
R. Los humanos pueden pedir a un ordenador un arma apocalíptica o un brazo robótico y eso amplifica la habilidad maliciosa. El otro problema es que queramos que el ordenador haga algo, pero no entienda por qué lo queremos. Por lo tanto, los verdaderos riesgos podrían estar en que consigamos tecnologías poderosas que alteren la forma de dirigir nuestra sociedad y que hagan que los humanos pierdan el control sobre ese efecto. Hasta cierto punto, ya lo hemos sufrido porque Estados, corporaciones y grandes instituciones ya usan inteligencia artificial, pero aún están hechas de personas y reglas. Automatizar todo el proceso podría suponer un mundo controlado por grandes sistemas que no son humanos, que no se preocupen por los valores y que simplemente se alejan en una dirección aleatoria que no se estableció con prudencia.
P. Meta creó a la plataforma de IA Galactica con la promesa de ayudar a la ciencia. Pero la tumbó después de tan solo tres días por los contenidos falsos que produjo. ¿Es un ejemplo de cómo la inteligencia artificial mal estructurada podría arruinar los sistemas?
R. Galactica está muy bien hecha para cosas que parecen una explicación científica basada en lo que está escrito en internet. Pero no dice la verdad, sino que inventa cosas que parecen ser verdaderas. Esto es peligroso porque en la ciencia no se debe inventar cosas. Es muy importante ser correcto, aunque sea aburrido. Así que podríamos acabar con sistemas que inventan noticias y hechos, todos falsos, que nos confundirían mucho. Sobre todo, teniendo en cuenta que los sistemas de inteligencia artificial se entrenan con lo que hay en internet. Si hay muchos contenidos científicos falsos que parecen muy serios porque tienen las ecuaciones correctas y están escritos en un estilo académico, es posible que en un futuro se obtengan sistemas aún más mentirosos. La verdad es muy valiosa y también muy frágil. Muchos de nosotros no sabemos cómo manejarla bien, pero los sistemas de inteligencia artificial son aún peores.
P. ¿Debemos tener miedo del futuro?
P. Tener miedo a algo significa querer huir de ello. El futuro es emocionante y horroroso, y está lleno de posibilidades. Es como un videojuego, un gimnasio en la selva o un parque infantil: hay cosas peligrosas con las que debes tener cuidado. También hay cosas muy interesantes. Y hay cosas con las que debemos jugar para crecer y ser mejores. Así que no debemos temer por el futuro, pero tener esperanzas y asegurarnos de que valga la pena hacerlo.
P. ¿Pensarán las generaciones futuras que los contemporáneos de ahora son delincuentes con el planeta?
R. Hasta cierto punto, culpamos a nuestros antepasados de hace miles de años por llevar a los mamuts a la extinción, pero no sabían de ecología ni siquiera sabían que podían hacer que el mamut se extinguiera. Es posible que las generaciones futuras tengan opiniones sobre lo que estamos haciendo y algunas hasta tendrán razón. A veces, suponemos que el futuro va a ser más sensato, con más conocimiento y recursos. Pero estamos aquí al principio de la historia y tenemos la responsabilidad de no estropear demasiado las cosas.
El futuro es como un videojuego, un gimnasio en la selva o un parque infantil: hay cosas peligrosas, pero otras muy interesantes
P. ¿El próximo paso es el espacio?
R. El espacio es una de las muchas paradas. Estamos expandiendo al espacio computacional, con la realidad virtual y la comprensión de la inteligencia artificial, pero también a un nivel psicológico. En un futuro, y probablemente relativamente próximo, daremos los primeros pasos para intentar dirigirnos al universo. Tal vez ese no sea el lugar más conveniente para vivir, pero es útil tener una copia de seguridad. Debemos tener copias de seguridad de nuestra civilización y lo más lejos posible.
P. ¿Cree que millonarios y exploradores espaciales como Elon Musk utilizan la posibilidad de un futuro en Marte como pretexto para no hacerse cargo de los problemas actuales?
R. Siempre hay una pelea entre los diferentes problemas. ¿Debo salvar a las personas que padecen malaria o pensar en la pobreza? ¿Debo hacer frente a la pobreza cuando pueden producirse pandemias? Es posible que las pandemias no sean tan graves como las guerras nucleares. Hay muchas cosas en las que trabajar. Podemos discutir sobre cuáles son las prioridades, pero al final tendrás que seleccionar una. Algunas personas usan pretextos al pensar en un futuro lejano, pero muchas están escapando de los grandes problemas de la humanidad al enfocarse solamente en el ahora. Hay gente que va a trabajar en la lucha contra la pobreza porque no se atreve a abordar una guerra nuclear. Eso también es un pretexto. En la práctica, deberíamos tener el mayor número posible de personas tratando de resolver la mayor cantidad posible de problemas. A veces, la solución a un problema también es útil para otro. Gracias a la búsqueda de soluciones a la covid, ahora tenemos vacunas de ARN. Eso parece estar creando una revolución para ayudar a curar muchas otras enfermedades, incluidas las no pandémicas. El espacio nos da muchas herramientas útiles para reciclar en la Tierra, la fabricación de alimentos espaciales parece ser útil como recursos de emergencia en nuestro planeta también.
Tal vez el espacio no sea el lugar más conveniente para vivir, pero es útil tener una copia de seguridad. Debemos tenerlas y lo más lejos posible
P. ¿Es posible tener un desarrollo infinito en un planeta finito?
R. Tal vez. Mucha gente dice que el crecimiento económico no puede continuar para siempre, pero este pensamiento asume que el valor económico está plasmado en cosas. La Mona Lisa no tiene tantos kilogramos de material. Sin embargo, su valor es enorme, y podríamos aprender a apreciar más el arte y apreciarla [la obra] aún más. El valor, que en realidad es de lo que se trata el crecimiento económico, no está tan ligado a la cantidad de materia. Del mismo modo, el desarrollo tecnológico, a menudo, implica hacer más con menos material. Los aviones modernos son más livianos que los antiguos porque llevan mejores materiales y funcionan con menos combustible. De hecho, muchas tecnologías avanzadas requieren menos recursos que en el pasado. En un largo plazo, el desarrollo infinito no cabe en un planeta finito y es mucho más seguro esparcirlo. Pero decir que es mejor tener menos tecnología no tiene sentido, porque significa menos eficiencia. Optar por la baja tecnología es un lujo hoy en día.
P. ¿Qué descubrimientos espera encontrar en la próxima década?
R. Me encantaría ver una buena forma de incorporar los valores humanos a la inteligencia artificial, para que podamos averiguar lo que realmente queremos cuando le pedimos que un ordenador haga algo. Y que incluso las máquinas sean capaces de decir “no voy a hacerlo porque no entendiendo completamente ese problema”. Actualmente, la IA ejecuta lo que el humano le dice, lo cual es peligroso. Del mismo modo, creo que debemos trabajar duro para obtener mejores fuentes de energía. Me alegra ver los avances en la fusión. Supongo que la energía solar va a ser mucho más poderosa y que vamos a ver el desarrollo con precisión atómica, la nanotecnología, lo que va a revolucionar el mundo. Podremos hacer las cosas de forma más limpia, con menos recursos y energía. Asimismo, crear mejores formas de reciclar materiales y fabricar ordenadores eficaces.
P. Hace unos años, usted dijo que muchos científicos tenían miedo de arruinar sus carreras al dedicarse a estudios sobre criogenia, por ejemplo. ¿Ocurre lo mismo con los largoplacistas?
R. Sí, mucha gente en astronomía, por ejemplo, piensa que es totalmente razonable dedicar un gran esfuerzo a entender el pasado del universo, pero se enfada cuando le pido que utilice las mismas ecuaciones para predecir unos cientos de miles de millones de años en el futuro. Ellos argumentan que la ciencia tiene que compararse con la realidad y no puede ponerse a prueba el largo plazo. Pero hay pronósticos climáticos que se proyectan en el futuro y son bastante importantes para establecer políticas. Hay muchos argumentos metodológicos en la ciencia y algunos de ellos son muy relevantes, pero creo que muchas personas solo se centran en una forma de usar sus conocimientos y no son conscientes de que se pueden aplicar a otros dominios. Creo que vale la pena intentar aprender todo lo que podamos sobre el futuro, no porque queramos tener una predicción perfecta, sino más bien obtener información que nos ayude a guiar nuestras próximas acciones.
Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter y apuntarte aquí para recibir nuestra newsletter semanal.