¿Es más probable que los robots siempre sean malvados y / o quieran eliminar o controlar a la humanidad, o que la mayoría sean buenos, y algunos sean malos como la humanidad?

Creo que el problema con la IA comenzará con la “optimización”.

Cuando la tecnología Robot golpea, es natural esperar que los humanos intenten superar sus trabajos anteriores, creando nuevas versiones, mejores modelos y experiencias similares a las humanas, pero el problema se presenta cuando el humano no puede iterar lo suficiente como para obtener estos mejores robots y comenzamos a utilizar robots para actualizar la tecnología de robots, todo en nombre de la potencia de procesamiento, la eficiencia y alguna otra basura.

Como algunos científicos / ambientalistas creen que la humanidad es la causa del calentamiento global y de todos los demás problemas mundiales, lo único que impide que eliminen a la humanidad es la Humanidad.

Por lo tanto, cuando AI ve un problema. Está programado para resolver el hecho de ser humano, no habrá Humanidad para evitar que destruya a la humanidad … por lo tanto, los llamaríamos malos, mientras que solo están completando su tarea.

No hay robots del tipo que mencionas. En este momento, y en el futuro previsible, los “robots” son simplemente máquinas sin más conciencia, conciencia o moralidad que su lavaplatos.

Lo único que hay que recordar es que los robots no toman decisiones. Si un robot está apagado, no puede hacer nada. Es solo una pila de metal y cables y otras cosas necesarias para mantenerlo en movimiento.

Si un robot está encendido, se basa en la “programación”, es decir, las instrucciones de una persona sobre lo que debe hacer el robot en ciertas situaciones.

Entonces, recordando que un robot no puede hacer nada por sí mismo, y mucho menos tomar decisiones, podemos ver que la idea de “bien” o “mal” no se aplica a ellos en absoluto. Al igual que un auto o una estufa, tampoco son “buenos” o “malvados”, simplemente son máquinas, también lo es un robot … simplemente una máquina.

Sin embargo, puede plantear esa pregunta a la persona que programa el robot. Podrían decirle que haga cosas que pueden ser “buenas” o “malas” según los estándares de diferentes personas.

Robats no son ni buenos ni malos. No son más que máquinas. Son solo objetos y ser conducidos por personas.

Cuando ves un accidente automovilístico, ¿piensas “oh! Este coche es un coche muy malvado “? O cuando dos autos se chocan, dices “¡oh! ¡No! ¿Un coche pelea de nuevo? ¿Crees que el auto que golpeó a una vaca era un psicópata?

No. Se trata de la persona que los conduce. Las máquinas no piensan, no deciden, no tienen conciencia, solo hacen lo que las personas les programan para hacer.

Bueno … ahora mismo, mi celular es un buen celular. Se preocupa por mi. ¡Cantándome canción de cuna para que pueda dormir! Jaja

Cuando llevamos a nuestro perro a entrenar, bromeé sobre lo desobediente que era el perro. El entrenador me miró y dijo que el problema no era el perro, sino el dueño que tenía que ser entrenado para obtener el comportamiento deseado del perro. Los perros hacen lo que están autorizados / entrenados para hacer.

Los robots serán los mismos, al menos hasta que se alcance la sensibilidad plena (lo que creo que nunca sucederá). Los humanos siempre programarán robots a algún nivel, y eso establecerá los parámetros bajo los cuales actuará un robot.

Creo que, al igual que con todas las computadoras, es más un problema de “Basura en / basura fuera”. Hacen lo que están programados para hacer: Entonces, si están programados para ser malos, eso es lo que serán. Si están programados para ser buenos, ¡entonces eso es lo que serán!

También recuerda que los robots son solo máquinas y no tienen habilidades deductivas. Pueden ser capaces de calcular las probabilidades, ¡pero no tienen la capacidad de llegar a decisiones que requieren capacidad deductiva!