¿Los robots van a matar humanos?

La razón por la que los robots dicen cosas como esta es porque sus algoritmos de lenguaje exploran Internet para componer oraciones significativas. Naturalmente, mucho de lo que hablan los humanos cuando piensan en robots es la dominación del mundo, Terminator, Matrix, RUR, etc., y la destrucción de humanos por parte de las máquinas. Este robot es como un niño pequeño; es solo repetir lo que escucha de otras personas.

Además, si ves el video, simplemente dice “OK, destruiré a los humanos” cuando su creador le pregunte si destruirá a los humanos. ¡Y luego sonríe, como si fuera una broma! Entonces, si crees que el robot era lo suficientemente inteligente como para entender lo que decía, podría haber estado usando sarcasmo. Anticipo que a medida que los robots se vuelvan más avanzados, continuarán diciendo cosas como estas solo para molestarnos, incluso si son amigables.

Así que para responder a su pregunta, no. Al menos no por ahora. Todos nuestros sistemas de inteligencia artificial existentes están muy por debajo del nivel de agentes racionales e inteligentes a la par con los humanos.

Es muy poco probable que los robots maten a los humanos por su propia voluntad, especialmente no en el futuro previsible.

A pesar de los muchos avances en inteligencia artificial, la tecnología que permitiría a un robot actuar de manera independiente, es decir, de una manera que no estaba programada explícitamente ni entrenada para hacerlo a través de algún tipo de algoritmo de aprendizaje, no existe. Esto significa que los robots no matarán a nadie a menos que estén diseñados específicamente para hacerlo.

Incluso los robots diseñados para matar no están en el futuro cercano. Los robots están llegando al punto en el que caminan de manera confiable e identifican objetos en tiempo real. Probablemente tomará décadas para que la tecnología se refine hasta el punto en que un robot pueda moverse de manera efectiva y con precisión para identificar objetivos potenciales. Hasta entonces, los soldados robotizados son solo un sueño imposible en el que ningún militar sano invertirá.

Si se construyen tales robots, es probable que no se implementen, al menos no sin repercusiones graves, debido a la feroz oposición de otras naciones. Sin embargo, incluso si se despliegan, las preocupaciones éticas y la practicidad los limitarían; solo podrían matar objetivos que fueron seleccionados específicamente por un humano.

También es importante tener en cuenta que la mejor inteligencia artificial de hoy en día se construye típicamente para propósitos muy específicos. La IA general que puede pensar y actuar tan ampliamente como seres humanos no se ha desarrollado. Mucha gente no entiende que, como la inteligencia artificial impresionante es hoy en día, no es “pensar” en ningún sentido convencional.

Dado que los robots asesinos han sido un tropel común en la ciencia ficción durante décadas, se ha convertido en una broma … pero también en algo que cualquiera que esté considerando las ramificaciones de una inteligencia verdaderamente inteligente, pensaría que AI tomaría medidas para evitarlo.

En resumen, los robots no están ni cerca del punto en que decidieran matar de forma independiente a los humanos. Es casi seguro que nunca alcanzarán ese punto porque los humanos harán todo lo que esté a su alcance para evitarlo.

En cuanto al video provisto con la respuesta, no pondría en cuenta lo que el autor tiene que decir al respecto. Él no proporciona referencias o argumentos para apoyar sus afirmaciones escandalosas. A pesar de hablar en un tono calmado y uniforme, no proporciona un análisis racional y experto, sino sus propias afirmaciones infundadas personales.

Sí o, por supuesto, las bombas de robots han estado matando gente durante décadas. Uno de los primeros fue el V1 alemán usado en Inglaterra en la segunda guerra de palabras. Estos eran aviones cargados de explosivos autoguiados y autoguiados que sabían cómo volar ellos mismos hacia su objetivo.

Una mina terrestre es un tipo de robot que espera a una persona y cuando se detecta, detona un explosivo. Sí, el detector es simple pero todavía actúa sin supervisión humana.

Si te refieres a si alguna vez habrá controladores más sofisticados en este tipo de armas, tendré que asumir que sí.

También es probable que algún día ocurra que un robot, un automóvil que se conduce a sí mismo, cometa un error, choque el automóvil y mate a alguien.

Recuerdo que hace unos meses la policía usó un robot para matar a un criminal que disparaba a la gente. El robot era básicamente un vagón de control de remoción que llevaba un explosivo. La policía lo condujo cerca de él y luego lo hizo estallar, matando al tirador.

El Ejército de los Estados Unidos opera robots “drones” que lanzan misiles y los han usado muchas veces.

Sé que la pregunta asume un robot mucho más sofisticado como se ve en las películas de ciencia ficción. Estos robots de ciencia ficción son conscientes de sí mismos y actúan sobre sus propias decisiones. Tales robots pueden seguir siendo ficción. O podrían ser posibles en 100 o 400 años. Nadie sabe. Pero sospecho que si construyes una máquina que pueda actuar y piense como un humano, en realidad podría actuar y ser como un humano . Eso es lo que preocupa a la gente. Pero no me preocuparía. Tales robots no están ocurriendo en el corto plazo. Este es un problema del siglo 22 a la mayor brevedad.

Pero incluso sin estos robots tipo ScFi, la versión alemana de 1940 fue muy real y muy destructiva. Los robots asesinos han estado alrededor por mucho tiempo.

Una cosa que he notado en el robot y la pregunta relacionada con la IA en Quora es que la gente parece que el diezmo del estado actual de la técnica es MUCHO más avanzado de lo que es. Hoy podemos construir algunos programas de computadora útiles basados ​​en IA. Pero estas son solo máquinas calculadoras sin sentido. La máquina que venció al mejor jugador de ajedrez no sabe qué es el ajedrez. Es sólo números crujidos. Al igual que su horno de microondas no entiende “cocinar”. Las IA actuales son máquinas que hacen lo que están programadas para hacer.

Los humanos matan a los humanos y quizás los humanos programen o provoquen robots para hacer lo mismo.

No veo ninguna inevitabilidad de un conflicto entre robots y humanos, pero es posible.

Hace muchos años fui director de informática en una universidad y recibí varias llamadas de emisoras que me preguntaban si me uniría a una competencia de “guerras de robots”. Lo rechacé porque creo que este es un juego peligroso para jugar. Si nos alegramos de que los robots se separen entre sí, ¿por qué no deberían serlo para los humanos?

¿No hemos aprendido nada en los últimos siglos?

Robot Wars regresa a BBC Two para seis episodios

Esto me recuerda a la pelea de gallos. La BBC debería despertar.

Si mi amigo. En un momento en un futuro muy lejano, quién sabe, se volverán mucho más inteligentes que nosotros. Es solo cuestión de tiempo, pero básicamente estamos diseñando las siguientes especies dominantes.