Espera un poco!

No tienes nada aún. ¿Ya viste lo nuevo en nuestra Store?

Ayy, close that door, we blowin' smoke
Lists Perspectives

Superhumanos y un desastre ambiental: Estas son las predicciones del nuevo libro póstumo de Stephen Hawkins

Stephen Hawking. Imagen: Getty Images/Archivo
Words mor.bo

Ya han pasado más de siete meses desde que Stephen Hawking, físico teórico, cosmólogo y autor, falleciera para reencontrarse con las estrellas. Para nadie es un secreto que Hawking fue el científico más famoso y más mediático desde Einstein, y conocido tanto por su innovador trabajo en física y cosmología como por su malicioso sentido del humor.

Durante su carrera, educó a millones de lectores sobre los orígenes del universo y la naturaleza de los agujeros negros, e inspiró a millones más al desafiar un pronóstico precoz y aterrador de esclerosis lateral amiotrófica, que originalmente solo le dio dos años de vida y él superó por 50 años más.

Hawking no solo desentrañó algunos de los misterios más grandes del universo, sino que también creyó que la ciencia jugaba un papel fundamental en la solución de problemas aquí en la Tierra. Ahora, mientras enfrentamos inmensos desafíos en nuestro planeta, incluido el cambio climático, la amenaza de una guerra nuclear y el desarrollo de la inteligencia artificial, dirige su atención a los problemas más urgentes que enfrentamos.

¿Sobrevivirá la humanidad? ¿Debemos colonizar el espacio? ¿Dios existe? Estas son solo algunas de las preguntas que Hawking aborda en su libro póstumo Brief Answers to the Big Questions, a publicarse mañana 16 de octubre en inglés, y en español, el día 30 de octubre. El libro es un brillante último mensaje al mundo que tanto apreció, y en el que no solo responde cuestiones como estas, sino que también predice el futuro de la humanidad: Spoiler alert: haz tus maletas para irte a Marte.

1. ¿Será la inteligencia artificial superior a la humana?

Para Hawking, lo más importante será la regulación de la misma, porque si no, estaremos en problemas. Saben, a lo Skynet.

“El advenimiento de una inteligencia artificial súper inteligente sería lo mejor o lo peor que le haya ocurrido a la humanidad. El verdadero riesgo con la IA no es la malicia, sino la competencia. Una IA súper inteligente será extremadamente buena para lograr sus objetivos, y si esos objetivos no están alineados con los nuestros, estamos en problemas. Probablemente no seas un malvado que odia a las hormigas y pisa a las hormigas por malicia, pero si estás a cargo de un proyecto hidroeléctrico de energía verde y hay un hormiguero en la región que será inundado, pues qué mal para las hormigas, ¿no?. No pongamos a la humanidad en la posición de esas hormigas”.

2. ¿Sobreviviremos en la Tierra?

Según el científico, en los próximos 1.000 años, el planeta se verá afectado por el desastre ambiental o por una guerra nuclear, y los humanos que logren salir del planeta, con mejores y más avanzados recursos podrán crear una raza superior de humanos que desafiarán las leyes contra la ingeniería genética, mejorando los recuerdos, la resistencia a las enfermedades y la esperanza de vida, pues no habrá tiempo de esperar a que la evolución darwiniana lo haga.

“Una vez que aparezcan estos superhumanos, habrá problemas políticos importantes con los humanos no mejorados, que no podrán competir. Presumiblemente, morirán o dejarán de ser importantes. En cambio, habrá una raza de seres que se diseñan a sí mismos, y que se mejoran a un ritmo cada vez mayor. Si la raza humana logra rediseñarse, probablemente se extenderá y colonizará otros planetas y estrellas”.

3. ¿Hay otra vida inteligente en el universo?

Hawking reconoce que hay varias explicaciones de por qué la vida inteligente no se ha encontrado o no ha visitado la Tierra. Sus predicciones aquí no son tan audaces, pero su explicación preferida es que los humanos han “pasado por alto” formas de vida inteligente que están ahí fuera.

“¿Por qué no nos han visitado? Quizás la probabilidad de que la vida aparezca espontáneamente es tan baja que la Tierra es el único planeta en la galaxia, o en el universo observable, en el que ocurrió. Otra posibilidad es que existía una probabilidad razonable de que se formaran sistemas que se reproducen a sí mismos, como las células, pero que la mayoría de estas formas de vida no evolucionaron a la inteligencia. Estamos acostumbrados a pensar que la vida inteligente es una consecuencia inevitable de la evolución, pero, ¿y si no lo es?”

4. ¿Existe Dios?

Aquí la respuesta es franca y directa: no.

“La pregunta es, ¿la forma en la que el universo comenzó a existir fue elegida por Dios por razones que no podemos entender, o fue determinada por una ley de la ciencia? Creo que la respuesta es la segunda. Si lo desean, pueden llamar a las leyes de la ciencia “Dios”, pero no sería un Dios personal con el que te encontrarías y podrías formularle preguntas”.

5. ¿Cuál es la mayor amenaza al futuro del planeta?

Para Hawking, la amenaza número uno es una colisión con un asteroides, igual a la que mató a los dinosaurios.

“Una colisión de asteroides sería una amenaza contra la cual no tenemos defensa. Un peligro más inmediato es el cambio climático fuera de control. Un aumento en la temperatura del océano derretiría las capas de hielo y causaría la liberación de grandes cantidades de dióxido de carbono. Ambos efectos podrían hacer que nuestro clima sea como el de Venus, que tiene una una temperatura de 250ºc.”

Despues de leer, ¿qué te pareció?

  • 2
    Me gustó
  • 1
    Me prendió
  • 2
    Lo amé
  • 1
    Me deprime
  • WTF!
  • Me confunde
Canvas

MOR.BO × Lin Zhipeng

$6.000

Thom Yorke está harto de la apatía: “Si sales a la calle, si te involucras en la política, puedes cambiar las cosas. Ahora es mucho más difícil pensar así, pese al gran potencial de Internet y las redes sociales. De hecho, sucede lo contrario. Hay un vacío de acomodo y negación donde todas las opiniones son iguales y nada tiene consecuencias” + More