La IA se compara con el peligro de las armas nucleares porque:
- Nick Bostrom escribió un libro llamado “Superinteligencia: Caminos, Estrategias, Peligros” en el que comparó repetidamente la IA con las armas nucleares. Bostrom es un filósofo interesado en los riesgos existenciales humanos.
- Elon Musk, CEO de Tesla, escribió un tweet en agosto de 2014 en el que dijo: “Vale la pena leer Superinteligencia de Bostrom. Necesitamos ser muy cuidadosos con la inteligencia artificial. Es potencialmente más peligroso que las armas nucleares”.
- Otros intelectuales públicos como Stephen Hawking y Bill Gates se hicieron eco de sus preocupaciones.
- A los medios de comunicación les encanta repetir sus advertencias al comienzo de cada artículo de AI en el mundo, ya que es la única información que ellos y el público en general probablemente tengan sobre AI.
Haciendo que la IA parezca relevante
La razón por la que Bostrom comparó la IA con las armas nucleares es para darles un poco de contexto. Todo el mundo sabe que las armas nucleares son peligrosas por experimentar la guerra fría. Y es fácil experimentar la idea de peligro cuando se contempla la idea de nubes de hongos nucleares que brotan por todas partes.
La IA es intrínsecamente aburrida y complicada en comparación. Entonces, para que parezca relevante y emocionante, lo comparan con las armas nucleares.
- ¿Por qué los humanos crearon religión? ¿Qué ventaja evolutiva proporcionó la religión a los humanos?
- ¿Qué inventos o descubrimientos teóricamente posibles podrían revolucionar nuestra percepción de la realidad y la verdad?
- ¿Por qué hacer algo que ayuda a la humanidad en lugar de hacer algo que amas?
- Si no puedo aceptar que alguien más sea intolerante hacia cierto grupo social o religioso, ¿no me habré convertido en el mal que aborrezco?
- ¿Cómo puede cada pieza de ajedrez inspirar una vida humana?
Este es el mismo problema al que se enfrentan las películas que dramatizan los conflictos entre humanos y AI, como Matrix o Terminator. Si las cosas no explotan, el público asume que no pasa nada y se queda dormido.
¿Qué es un singleton?
Además, Bostrom invoca la idea de un singleton de IA, es decir, una IA superinteligente que posee un país como los Estados Unidos. Si existiera tal singleton, eso le daría a los EE. UU. Una ventaja decisiva en el calentamiento, comparable a ser el único país que posee armas nucleares.
Así que Bostrom considera que la IA es peligrosa no solo porque podría destruir cosas, sino porque podría iniciar una carrera de armamentos de IA similar a la carrera de armamentos nucleares.
Por supuesto, un singleton es probablemente solo un producto de la imaginación de Bostrom, ya que la IA es mucho más fácil de copiar que las armas nucleares. Es más probable que la IA se extienda a todas partes tan rápido que una carrera de armamentos sea irrelevante.
Mi reseña de libro
No me preocuparía demasiado todavía. Escribí una reseña en la respuesta del usuario de Quora a ¿Son las inquietudes relacionadas con la inteligencia sobrehumana que Nick Bostrom aborda en su libro ‘Superinteligencia’ relevantes o inverosímiles?
En esa revisión, noté que el Instituto de Futuro de la Humanidad de Bostrom calcula el riesgo de genocidio debido a la IA durante el próximo siglo en un 5%. Así que incluso ellos están seguros al 95% de que no va a suceder en los próximos cien años.
Creo que el riesgo real es 100x o 1000x menos de lo que estiman. Su riesgo general de destrucción humana en el próximo siglo es de alrededor del 20%. ¿No parece eso demasiado alto?
Bostrom y su grupo solo están discutiendo las posibilidades extremas de todo tipo de riesgo existencial, de los cuales AI es solo uno. No asignaría mucho realismo o plausibilidad a sus discusiones.