¿La singularidad de la IA eliminará a los humanos o no?

Según el famoso artículo de 1993 de Vernor Vinge, la singularidad es un horizonte de eventos en el futuro. No es posible predecir nada al respecto.

Una singularidad matemática es un punto donde el valor de una función va hasta el infinito. Una singularidad tecnológica es un punto hipotético en el tiempo donde el progreso llega al infinito. Vinge, IJ Good y Ray Kurzweil pronostican una singularidad en la lógica de que si podemos crear una IA que supere nuestra propia inteligencia, entonces también puede hacerlo, más rápido.

Esto es controvertido. No está claro qué significa “inteligencia” o cómo medirla. En muchos sentidos, las computadoras ya superan la inteligencia humana según la prueba que elija. Pero podemos medir el conocimiento (en bits de información) y la potencia de cálculo (en operaciones por segundo y bits de memoria). Para casi cualquier prueba o competencia que podamos usar para medir algo que llamamos inteligencia, ya sea ajedrez o reconocimiento facial o la traducción de idiomas o la conducción de un automóvil, el ganador generalmente se decide por quién tiene el mejor software y la mayoría de los datos se ejecutan de la manera más rápida. hardware.

El conocimiento y la potencia de computación están creciendo exponencialmente con una tendencia a largo plazo hacia una reducción del tiempo de duplicación. Parece que estas tendencias podrían llegar al infinito, aunque eso violaría las leyes de la física como las entendemos actualmente. Específicamente, el universo observable tiene un poder de computación finito y una capacidad finita para almacenar información de acuerdo con el documento de Seth Lloyd, Capacidad computacional del universo.

¿Por qué un horizonte de eventos? A medida que crece el conocimiento futuro, la fracción de lo que sabemos ahora se reduce. Si el conocimiento futuro crece hasta el infinito, entonces la fracción de lo que actualmente sabemos es exactamente cero.

Las predicciones del futuro lejano son un tema popular en la ciencia ficción. Pero son muy divergentes. Quizás un mundo de robots y naves espaciales, o la extinción de toda la vida, o un mundo virtual con genios mágicos, o un desastre gris. Las predicciones históricas del presente han sido ridículamente erróneas, pero hoy no estamos mejorando. Creo que Vinge tenía razón. El futuro para mí parece un horizonte de eventos.

Supongo que te refieres a una singularidad de IA. Una singularidad de agujero negro obviamente eliminaría a los humanos si apareciera en algún lugar cerca del planeta.

Sin embargo, debo señalar que, a diferencia de la singularidad del agujero negro, la singularidad de la IA es una fantasía basada en una hipótesis de sistemas de superación personal. Sin embargo, esta fantasía se basa en antropomorfizar nuestras máquinas. No es que las máquinas no puedan aprender, sino que no pueden elegir qué aprender o cómo aprender. No tienen nada en ellos que les diga cómo o, más precisamente, por qué hacer tales cosas.

Como UC Berkely, el profesor de filosofía John Searle escribe:

[Las computadoras] tienen, literalmente […], sin inteligencia, sin motivación, sin autonomía y sin agencia. Los diseñamos para que se comporten como si tuvieran ciertos tipos de psicología, pero no existe una realidad psicológica en los procesos o comportamientos correspondientes. […] [L] a maquinaria no tiene creencias, deseos, [o] motivaciones.

[27]

Las computadoras hacen lo que están programadas para hacer. Podemos programarlas para que aprendan, por ejemplo, pero solo de la forma en que las programamos para que aprendan. Por ejemplo, me gustaría que mi Echo vea los comandos que he dado anteriormente y aprenda de ellos. Sin embargo, solo se puede hacer esto por las formas en que se le ha “enseñado” a hacerlo un ser humano que ha descubierto cómo hacerlo. Las máquinas pueden identificar patrones, pero solo patrones que se les ha enseñado a buscar. En otras palabras, el aprendizaje automático no tiene nada que ver con el aprendizaje humano y nunca lo será.

AI asume la conciencia de tipo humano y la autoconciencia en una máquina que le dará motivación para aprender y la capacidad para hacerlo. Ni siquiera sabemos qué es la conciencia humana en los humanos, mucho menos una máquina. No tenemos teoría que lo explique. No tenemos ninguna prueba para ello.

Por supuesto que no podemos saberlo, pero creo que hay razones para decir que no, probablemente no lo haría.

¿Por qué?

Debido a que somos interesantes, complejos y probablemente bastante raros como tipo (inteligentes, sociales, tecnológicos), eliminarnos sería destruir algo que valdría la pena preservar. Podemos ser remediados por algo tan poderoso, y algo que inteligente no querría perder eso, o al menos eso creo.

Y al lado, “Haríamos grandes mascotas”.

Literalmente no podemos saberlo. Se llama una “singularidad” de la definición matemática; un punto donde el valor de una función va al infinito o se vuelve indefinible o deja de comportarse de una manera predecible.

El punto central del uso de esa palabra para la mejora automática de la IA fuera de control es que podría dar lugar a cualquier cosa, y lo que suceda después no se puede predecir porque las decisiones se tomarán por mentalidades que, literalmente, somos incapaces de entender.

Cualquiera que diga saber está realmente adivinando; Por favor, tenga cuidado de no confiar en ninguna respuesta que no admita esto.

¿La singularidad de la IA? Probablemente no.

Pero definitivamente se aboliría, si no terminara la idea de que estamos “en control”.

Sí.