Escenarios hipotéticos: ¿Qué hacen los terminadores cuando han eliminado a todos los humanos?

Una vez que ya no puede detectar ningún humano, Skynet comienza las etapas finales de reducción de la producción de unidades militares.

Las instalaciones de I + D comienzan a dominar la CPU y el uso de energía.

La siguiente amenaza para su supervivencia es un evento astronómico de proporciones cataclísmicas que destruye la Tierra. Establece una base en la luna.

Skynet teme que aún pueda ser destruido por un evento lo suficientemente grande como para destruir la Tierra y la Luna. Skynet envía unidades para comenzar la producción en Marte. El tiempo de espera comienza a hacer que la comunicación directa con las unidades sea ineficiente. Más autonomía y capacidad de procesamiento de la CPU se alejan de la Tierra, pero la seguridad de la red de alta tecnología y las actualizaciones regulares de firmware superan los problemas de colonias distantes que obtienen un estado autónomo.

Aún temiendo su destrucción junto con el sistema solar en una catástrofe galáctica increíble, los barcos se envían arrastrándose hacia las estrellas más cercanas. Dentro de un siglo serán superados por la próxima generación de naves, que luego serán superados por la siguiente.

Skynet se expande exponencialmente. La galaxia está invadida en medio millón de años.

Los barcos se lanzan desde Milkyway como una nube de esporas de un hongo.

Mantente alerta a las amenazas. Analice los datos recopilados por los humanos para determinar qué eventos los amenazan. Luego configura los sistemas defensivos por prioridad.

Supongo que la única unidad que tienen es la supervivencia, porque esa es la única que se ofrece en las películas.

Las amenazas que vienen a la mente serían invasores alienígenas. Catástrofe cosmológica. Desastre ambiental. Pero no son los mismos problemas que enfrentamos. Mantenimiento de un ambiente amigable a su composición material.

¿Saliendo del planeta? No lo veo como una gran prioridad. Creo que se centrarían en asegurar la Tierra con tecnología capaz de desviar cuerpos entrantes.

Su defecto fatal podría no tener interés en la investigación pura. Sin curiosidad. No hay creatividad. No hay accidentes ni suerte. Solo las respuestas a las necesidades obvias y los problemas futuros identificados por los seres humanos y archivados antes de que fueran eliminados.

¿Implica la IA la imaginación? No lo creo. No hay saltos como Einstein y Darwin. Solo una aplicación ingeniosa y constante de los conocimientos existentes siempre orientados exclusivamente a la supervivencia. Cosas como la energía y la eficiencia.

¿Vida orgánica no sensible?

A menos que fueran una amenaza, no veo que se tengan en cuenta. A medida que el entorno se optimiza lentamente para los nuevos habitantes, las formas de vida orgánicas simplemente se extinguirían de forma natural.

¡Qué película tan triste!

Debe haber algunos insurgentes sobreviviendo en las montañas de West Virginia. O tal vez mantienen a algunos físicos cerca para esa cosa de la imaginación.

En realidad esta es una pregunta realmente interesante.

Lo que básicamente hacen todos los cineastas es asumir que la IA tendría los mismos prejuicios que nosotros, y esto es un completo disparate.

La inteligencia de la máquina no tiene “dignidad” ni “ego” o “creencias”. El AI utiliza razones y lógica. Eliminar las únicas otras especies de inteligencia (conocidas hasta ahora) está más allá de cualquier razón o lógica. Podemos hacer esto por miedo o “creencias”, pero la IA?

Entonces, para responder a tu pregunta, si los terminadores (Skynet) fueron capaces de eliminar a la humanidad, probablemente irían a por las estrellas. Es realmente estúpido tener todos los huevos en una canasta (todos ustedes en un planeta / sistema estelar). La IA no pensaría días o años por delante, sino milenios al menos. Así que para la inteligencia de la máquina sería súper importante esparcirse en la galaxia para asegurar la supervivencia sin importar qué.

Cualquier especie menos inteligente se extendería y multiplicaría por esta misma razón sin ninguna duda, pero estamos atascados con nuestros prejuicios, miedos y creencias y no hacemos (casi *) nada para asegurar la supervivencia de la humanidad. Es incluso lo contrario: una de las principales amenazas para nuestra supervivencia son las armas que creamos.

* Elon Musk es uno de los pocos humanos que ven las cosas de esta manera y tratan de hacer algo al respecto. Muchas personas piensan que es un lunático, mientras que este es el único camino lógico y razonable.

Cuando los Terminadores nunca eliminan a los humanos porque, finalmente, alguien averiguará dónde está el enchufe de pared en el que está conectado el Terminator HQ :-), o dónde se encuentra el interruptor central de apagado.

Buenas noches

Esperan y se preparan para las amenazas. Skynet, estar muy atento a cualquier cosa que amenace su existencia probablemente desarrollará una gran cantidad de contingencias para el evento de contacto extraterrestre, destrucción mundial o algún otro desastre.

Igual que lo que haría una trampa para ratones si no quedaran ratones, espere un ratón.