¿Por qué se piensa que la IA es más peligrosa que las armas nucleares y aún no podemos alcanzar el nivel humano completo?

La IA se compara con el peligro de las armas nucleares porque:

  1. Nick Bostrom escribió un libro llamado “Superinteligencia: Caminos, Estrategias, Peligros” en el que comparó repetidamente la IA con las armas nucleares. Bostrom es un filósofo interesado en los riesgos existenciales humanos.
  2. Elon Musk, CEO de Tesla, escribió un tweet en agosto de 2014 en el que dijo: “Vale la pena leer Superinteligencia de Bostrom. Necesitamos ser muy cuidadosos con la inteligencia artificial. Es potencialmente más peligroso que las armas nucleares”.
  3. Otros intelectuales públicos como Stephen Hawking y Bill Gates se hicieron eco de sus preocupaciones.
  4. A los medios de comunicación les encanta repetir sus advertencias al comienzo de cada artículo de AI en el mundo, ya que es la única información que ellos y el público en general probablemente tengan sobre AI.

Haciendo que la IA parezca relevante

La razón por la que Bostrom comparó la IA con las armas nucleares es para darles un poco de contexto. Todo el mundo sabe que las armas nucleares son peligrosas por experimentar la guerra fría. Y es fácil experimentar la idea de peligro cuando se contempla la idea de nubes de hongos nucleares que brotan por todas partes.

La IA es intrínsecamente aburrida y complicada en comparación. Entonces, para que parezca relevante y emocionante, lo comparan con las armas nucleares.

Este es el mismo problema al que se enfrentan las películas que dramatizan los conflictos entre humanos y AI, como Matrix o Terminator. Si las cosas no explotan, el público asume que no pasa nada y se queda dormido.

¿Qué es un singleton?

Además, Bostrom invoca la idea de un singleton de IA, es decir, una IA superinteligente que posee un país como los Estados Unidos. Si existiera tal singleton, eso le daría a los EE. UU. Una ventaja decisiva en el calentamiento, comparable a ser el único país que posee armas nucleares.

Así que Bostrom considera que la IA es peligrosa no solo porque podría destruir cosas, sino porque podría iniciar una carrera de armamentos de IA similar a la carrera de armamentos nucleares.

Por supuesto, un singleton es probablemente solo un producto de la imaginación de Bostrom, ya que la IA es mucho más fácil de copiar que las armas nucleares. Es más probable que la IA se extienda a todas partes tan rápido que una carrera de armamentos sea irrelevante.

Mi reseña de libro

No me preocuparía demasiado todavía. Escribí una reseña en la respuesta del usuario de Quora a ¿Son las inquietudes relacionadas con la inteligencia sobrehumana que Nick Bostrom aborda en su libro ‘Superinteligencia’ relevantes o inverosímiles?

En esa revisión, noté que el Instituto de Futuro de la Humanidad de Bostrom calcula el riesgo de genocidio debido a la IA durante el próximo siglo en un 5%. Así que incluso ellos están seguros al 95% de que no va a suceder en los próximos cien años.

Creo que el riesgo real es 100x o 1000x menos de lo que estiman. Su riesgo general de destrucción humana en el próximo siglo es de alrededor del 20%. ¿No parece eso demasiado alto?

Bostrom y su grupo solo están discutiendo las posibilidades extremas de todo tipo de riesgo existencial, de los cuales AI es solo uno. No asignaría mucho realismo o plausibilidad a sus discusiones.

Para la primera parte de tu pregunta, la gente es estúpida.

Para la segunda parte, “el nivel humano completo”, la IA ya ha superado al humano en muchas áreas y las otras áreas simplemente no tienen valor comercial, pero finalmente las abordaremos.

Las personas temen a la IA porque temen a las personas que son más inteligentes que ellos. Eso es simplemente estúpido. Mi coeficiente intelectual está al norte de 250 y busco personas más inteligentes que yo. Y, hay otras formas de inteligencia que solo IQ. El sentido común es mucho más viable que el coeficiente intelectual en la mayoría de las situaciones. También hay inteligencia emocional.

Las personas también temen que la IA vea a las personas como el problema y tratará de eliminarlas. Eso es en realidad bastante lógico. Nosotros somos el problema. La Tierra estaba bien hasta que aparecimos. Entonces, obviamente, programas la IA con las Tres Leyes de la Robótica de Asimov y no tienes nada que temer.

Con respecto al uso no comercial de la IA, ¿por qué nos preocuparía que la IA se dedique a las artes o llorar por algo triste? ¿Qué beneficio hay en eso? Deja que la gente haga eso y deja que la IA resuelva problemas que están más allá de la inteligencia humana. A Watson le está yendo muy bien en cosas como el tratamiento del cáncer, superando con mucho al personal médico humano. Eso no es una ganancia directa, pero reduce el costo y es un gran beneficio para el paciente.

No tengo ningún interés, en absoluto, en que la IA se convierta en “completamente humana”.

Si lo hace, no me importa.

¿Qué, no viste a Terminator? En serio, creo que los problemas previstos por ALGUNAS personas a este respecto es que la IA avanzada puede volverse literalmente más inteligente que sus creadores (nosotros …) y esto puede invocar la ley de “consecuencias imprevistas”

Ha habido todo tipo de exploraciones de ciencia ficción de estos escenarios … las novelas “Sprawl” de Gibson, The Forbin Project, hasta 2001.

Otros expertos en el campo no ven ningún gran problema que surja … “Siempre podemos tirar del enchufe”