Depende de lo que lo cause.
Calentamiento Global: Sí, estamos a salvo de la extinción. El hipotético efecto de efecto invernadero desbocado es lo único que nos aniquila por completo, y la comunidad científica ha llegado a la conclusión de que tal cosa sería imposible en la tierra con el brillo actual del sol. [1] Mil millones de años a partir de ahora, esa es otra historia.
Guerra nuclear total: Sí, estamos a salvo. Si bien las explosiones reales matarían a miles de millones, el verdadero riesgo es un invierno nuclear, ya que las explosiones iniciales no eliminarán a las personas. La mayoría de la gente moriría en ese momento, pero los invernaderos y la agricultura en las regiones tropicales serían relativamente seguros y no habría ningún cambio permanente en el planeta.
Pandemia de ingeniería: ni idea. No he pensado mucho en este caso, porque parece poco probable que no te preocupes. Sin embargo, este tipo de cosas podría matar a todos, y no tengo ninguna defensa particular para mi intuición de que no necesito centrar mi atención en este tema. Espero, al menos, que quien esté detrás de esto intente inmunizarse primero.
- Si pudiéramos eliminar una cosa fuera de nuestro control para mejorar drásticamente la esperanza de vida humana, ¿cuál sería?
- ¿La falta de tecnología de comunicación avanzada en el mundo antiguo significa que la interacción verbal humana alcanzó su punto máximo hace miles de años?
- ¿La humanidad ha frenado la evolución?
- ¿Cuáles son algunas de las mejores cosas que puedo hacer por la humanidad?
- Si la humanidad sobrevive a un apocalipsis nuclear, ¿el mundo entero se volverá completamente sin ley o el orden volverá lentamente?
Inteligencia Artificial a Nivel Humano: No en lo más mínimo. Si la próxima gran extinción proviene de la IA que es inteligente como lo son los humanos, estaremos entre los caídos. La breve razón es que una IA inteligente a nivel humano, en su diseño más simple, sería monomaníaca en la búsqueda de cualquier objetivo con el que fue programada. Y la mayoría de los objetivos convergen en tres subobjetivos instrumentales: preservarse uno mismo, garantizar que los objetivos no cambien y obtener acceso a más poder de cómputo. Los seres humanos representan una amenaza para los tres. (Lo siento, esta es la versión corta; sé que voy demasiado rápido. Para más información, vea Riesgo de extinción de la inteligencia artificial) Ya que representamos una amenaza para todos, la mayoría de los posibles AI de nivel humano nos mataría a todos si tan solo podria Este es un precipicio muy peligroso para permanecer de pie, ya que los AI se vuelven cada vez más capaces de comprender entornos complejos y razonar estratégicamente.
Notas al pie
[1] Efecto de efecto invernadero fuera de control.