‘Dos minutos’ para el fin del mundo
El Boletín de Científicos Atómicos advierte de que "estamos jugando a la ruleta rusa con la humanidad"
La humanidad está en peligro. Ni en los momentos más alarmantes de la Guerra Fría el mundo estuvo más cerca del abismo. Es lo que asegura el Boletín de Científicos Atómicos, un grupo de expertos creado para avisar a la humanidad del riesgo de autoexterminarse. Para ello crearon un reloj simbólico, el Reloj del Apocalipsis, que muestra los minutos que nos quedan hasta la medianoche, es decir, el fin del mundo. El año pasado colocaron las manecillas a las 23:58, por lo que estábamos a dos minutos del fin. Y nada ha mejorado desde entonces, al contrario, por lo que se mantiene exactamente igual. Jamás en sus 72 años de historia el minutero estuvo más próximo a la medianoche: en 1953, en plenas pruebas de armamento termonuclear soviéticas y estadounidenses, también estaba a dos minutos. Si el 99,9% de todas las especies que han existido en la Tierra se han extinguido, parece lógico pensar que ese sea el futuro inevitable de la humanidad. Porque como dijo Carl Sagan: "La regla es la extinción. La supervivencia es la excepción".
Calentamiento, inestabilidad política, riesgo de guerra nuclear, desinformación... La humanidad está viviendo una "tormenta perfecta", como indicó Rachel Bronson, presidenta del Boletín, quien recordó que desde 2007 se incluyó el cambio climático como un riesgo grave para la humanidad que demandaba una respuesta "urgente e inmediata". "Parece que estamos normalizando un mundo muy peligroso", añadió Bronson. "Estamos jugando a la ruleta rusa con la humanidad", aseguró Jerry Brown, exgobernador de California y director ejecutivo del Boletín.
En el diagnóstico del grupo, del que forman parte 15 premios Nobel, comienza hablándose de dos amenazas principales, el cambio global y las armas atómicas: "Se vieron agravadas el año pasado por el uso creciente de la guerra de información para socavar la democracia en todo el mundo, ampliando el riesgo de estas y otras amenazas y poniendo el futuro de la civilización en un peligro extraordinario".
Estos miedos eran inimaginables hasta mediados del siglo XX, cuando las grandes superpotencias empezaron a jugar con fuego. Fue entonces cuando se creó el Boletín de Científicos Atómicos para avisar a la humanidad del riesgo de autoexterminarse. En los plácidos años de la década de 1990 llegó a estar a 17 minutos de las 0.00 horas, pero desde 2011 no ha dejado de aproximarse a la medianoche. Las 23:55 en 2014, las 23:57 en 2015, las 23:57 y 30 segundos en 2017... Hasta 1947, cuando se creó este organismo, la humanidad no tenía forma de autodestruirse por completo.
"Líderes impetuosos, disputas diplomáticas intensas e inestabilidades regionales se combinan para crear un contexto internacional en el que los peligros nucleares son demasiado reales"
Sin embargo, son bastantes los factores que podrían desencadenar la destrucción de la civilización humana. Históricamente se ha temido, fabulado y fantaseado en innumerables con el fin del mundo, o de la humanidad. Pero ¿cómo son los riesgos que acechan ahora? Se pueden ordenar de muchas formas: naturales y de origen humano, involuntarios y deliberados, que provoquen la extinción completa de la humanidad o que nos devuelvan a las cavernas...
Los cuatro jinetes humanos
En estos momentos, son cuatro los principales peligros que nos amenazan y que tienen detrás a los humanos: una catástrofe nuclear, el cambio climático, la biotecnología y la inteligencia artificial. Los riesgos de conflictos con armamento atómico y del calentamiento global han quedado detallados en el diagnóstico del Reloj del Apocalipsis: "Líderes impetuosos, disputas diplomáticas intensas e inestabilidades regionales se combinan para crear un contexto internacional en el que los peligros nucleares son demasiado reales".
Para muchos especialistas, la inteligencia artificial también supone un riesgo importante, por si terminara desarrollándose más allá de los intereses humanos. Y no solo sometiéndonos: incluso queriendo servir a nuestros propósitos podría ser terrible. El especialista Nick Bostrom habla de una obediencia "perversa" que también terminaría sojuzgándonos y pone como ejemplo una inteligencia artificial a la que se pidiera proporcionar felicidad a todas las personas y que respondiera implantando electrodos en los centros de placer de nuestros cerebros. Por eso demandan que se vigile su desarrollo, aunque todavía estamos lejos de que las máquinas den ese salto en sus capacidades que las permitan adaptarse a cualquier circunstancia para tomar decisiones por sí mismas.
Los expertos incluyen la biotecnología y la ingeniería genética, cada vez más accesibles, entre las futuribles amenazas
Los expertos también incluyen la biotecnología y la ingeniería genética entre las futuribles amenazas. La revolución de la edición genética con CRISPR permite hacer cualquier cosa con los organismos vivos. Y lo peor de estas nuevas tecnologías es que crecen exponencialmente sus capacidades junto a lo fácil y accesible que es su uso. Además, no hay forma de ponerle puertas al campo, como ha demostrado el caso del científico chino He Jiankui, al crear los primeros bebés modificados genéticamente contra todo límite legal o ético. "Cualquiera que sea la regulación impuesta, por razones prudenciales o éticas, nunca podría aplicarse plenamente en todo el mundo, como tampoco lo hacen las leyes contra las drogas o las leyes fiscales. Cualquier cosa que se pueda hacer será hecha por alguien, en algún lugar. Y eso es profundamente aterrador", sentencia Phil Torres, autor de Moralidad, previsión y prosperidad humana. Una introducción a los riesgos existenciales (Pitchstone).
Catástrofes naturales... o no
A pesar de la inminencia de estos riesgos, los especialistas avisan de que no debemos menospreciar los peligros naturales y de nuestro entorno. Ni siquiera los que todavía desconocemos de la naturaleza, como los temibles supervolcanes, una amenaza prácticamente desconocida hasta hace tres décadas. Sin embargo, ahora sabemos que una supererupción que tuvo lugar hace 70.000 años provocó lo más parecido a un invierno nuclear, poniendo a los sapiens al borde de convertirse en una especie efímera en la Tierra.
La gripe española acabó de un plumazo con decenas de millones de vidas, la viruela arrasó con hasta el 75% de los aztecas en algunas regiones, la peste negra mató a entre el 11% y el 17% de la población de todo el planeta. En un mundo tan globalizado, una grave epidemia desconocida tendría la capacidad de convertirse en un problema planetario, como mostró la penúltima crisis del ébola.
Además, como decían los galos, hay que vigilar que no caiga el cielo sobre nuestras cabezas. Son demasiados los asteroides y cometas potencialmente peligrosos que no tenemos localizados. Y es algo que va a ocurrir: cada medio millón de años, la Tierra es golpeada con alguna roca espacial de un kilómetro de diámetro, unas dimensiones que podrían ser catastróficas.
Los posibles riesgos existenciales para la humanidad pueden ser provocados sin querer, derivados de la ignorancia, errores formidables o situaciones inesperadas
Equivocados e ignorantes
"Así pues, tanto las sociedades como los grupos humanos más pequeños pueden tomar decisiones catastróficas por toda una serie secuenciada de razones: la imposibilidad de prever un problema, la imposibilidad de percibirlo una vez que se ha producido, la incapacidad para disponerse a resolverlo una vez que se ha percibido y el fracaso en las tentativas de resolverlos", escribe Jared Diamond en su libro Colapso. Los especialistas también advierten de los posibles riesgos existenciales provocados sin querer, es decir, derivados de la ignorancia, errores formidables o situaciones inesperadas.
Por ejemplo, por un mal gobierno (como podría suceder si se ignorara el cambio climático y la pérdida de biodiversidad), o una decisión equivocada, como emprender una gran intervención de geoingeniería planetaria con terribles e imprevistas consecuencias. Muchos de estos riesgos pueden ser solo posibles factores detonantes: cuando tropezamos en el primer escalón de la escalera, lo que tememos no es una leve pérdida de equilibrio, sino seguir cayendo escalón tras escalón hasta rompernos el cuello, como recoge Bostrom en su libro Riesgos catastróficos globales (Oxford University Press).
"No podemos cosechar los beneficios de la ciencia sin aceptar algunos riesgos (...). Toda tecnología es peligrosa en sus primeras fases. En nuestro mundo cada vez más interconectado, hay nuevos riesgos cuyas consecuencias podrían ser globales", escribe Bostrom en ese mismo texto. Por ejemplo, la amenaza de llamar la atención de una civilización extraterrestre que nos borre del mapa. Eso es lo que llevó a Carl Sagan a criticar la emisión de señales desde la Tierra hacia otros mundos como "profundamente imprudente e inmaduro". Porque prefería que seamos la excepción de la regla de las especies terráqueas.
Puedes escribirnos a javier@esmateria.com o seguir a MATERIA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.