A dos minutos del fin del mundo
El Boletín de Científicos Atómicos advierte de la “ruleta rusa” a la que se enfrenta la humanidad La biotecnología y la ingeniería genética se suman a las amenazas La inteligencia artificial también supone un riesgo para el hombre
La humanidad está en peligro. Ni en los momentos más alarmantes de la Guerra Fría el mundo estuvo más cerca del abismo. Es lo que asegura el Boletín de Científicos Atómicos, un grupo de expertos creado para avisar a la humanidad del riesgo de autoexterminarse. Para ello, crearon un reloj simbólico, el Reloj del Apocalipsis, que muestra cuánto nos queda hasta la medianoche, es decir, el fin del mundo. Estamos a dos minutos.
Calentamiento, inestabilidad política, riesgo de guerra nuclear, desinformación... La humanidad vive una “tormenta perfecta”, según indicó Rachel Bronson, presidenta del Boletín. “Parece que estamos normalizando un mundo muy peligroso”, añadió. “Estamos jugando a la ruleta rusa con la humanidad”, aseguró Jerry Brown, exgobernador de California y director ejecutivo del boletín.
En el diagnóstico del grupo, del que forman parte 15 premios Nobel, se señalan dos amenazas principales, el cambio climático y las armas atómicas: “Se vieron agravadas el año pasado por el uso creciente de la guerra de información para socavar la democracia en todo el mundo, ampliando el riesgo de estas y otras amenazas y poniendo el futuro de la civilización en un peligro extraordinario”. Estos miedos eran inimaginables hasta mediados del siglo XX, cuando las grandes superpotencias empezaron a jugar con fuego. Fue entonces cuando se creó el Boletín de Científicos Atómicos para avisar a la humanidad del riesgo de autoexterminarse.
En estos momentos, son cuatro los principales peligros que nos amenazan y que tienen detrás a los humanos: una catástrofe nuclear, el cambio climático, la biotecnología y la inteligencia artificial.
Los riesgos de conflictos con armamento atómico y del calentamiento global han quedado detallados en el diagnóstico del Reloj del Apocalipsis: “Líderes impetuosos, disputas diplomáticas intensas e inestabilidades regionales se combinan para crear un contexto internacional en el que los peligros nucleares son demasiado reales”.
Para muchos especialistas, la inteligencia artificial también supone un riesgo importante, por si terminara desarrollándose más allá de los intereses humanos. Y no solo sometiéndonos: incluso queriendo servir a nuestros propósitos podría ser terrible.
El especialista Nick Bostrom habla de una obediencia “perversa” que también terminaría sojuzgando al hombre y pone como ejemplo una inteligencia artificial a la que se pidiera proporcionar felicidad a todas las personas y que respondiera implantando electrodos en los centros de placer de nuestros cerebros.
Los expertos también incluyen la biotecnología y la ingeniería genética entre las amenazas. La revolución de la edición genética con el método conocido como Crispr permite hacer cualquier cosa con los organismos vivos. Y lo peor de estas nuevas tecnologías es que su exponencial crecimiento en sus capacidades se une a lo fácil y accesible que es su uso. Además, no hay forma de ponerle puertas al campo, como ha demostrado el caso del científico chino He Jiankui, al crear los primeros bebés modificados genéticamente contra todo límite legal o ético.
Tampoco menosprecian los científicos los peligros naturales, como una supererupción que tuvo lugar hace 70.000 años y que puso a los sapiens al borde de convertirse en una especie efímera en la Tierra.
Por otro lado, en un mundo tan globalizado, una grave epidemia desconocida tendría la capacidad de convertirse en un problema planetario, como mostró la penúltima crisis del ébola.
Además, son demasiados los asteroides y cometas potencialmente peligrosos que no tenemos localizados. Y es algo que va a ocurrir: cada medio millón de años, la Tierra es golpeada con alguna roca espacial de un kilómetro de diámetro.
Los especialistas también advierten de los posibles riesgos existenciales provocados sin querer, es decir, derivados de la ignorancia, errores formidables o situaciones inesperadas. Porque muchos de estos riesgos pueden ser solo posibles factores detonantes: cuando tropezamos en el primer escalón de la escalera, lo que tememos no es una leve pérdida de equilibrio, sino seguir cayendo escalón tras escalón hasta rompernos el cuello, como recoge Bostrom en su libro Riesgos catastróficos globales (Oxford University Press).