¿Crees que alguna vez alcanzaremos la ‘singularidad’ tecnológica en la que creamos inteligencia artificial mayor que la nuestra?

Así es como me imagino que esto sucedería.

Voy a usar una analogía para explicar cómo veo una computadora que se mueve más allá de las capacidades humanas hacia otro ámbito que no podemos imaginar. Así que primero aquí está mi analogía.

Sabemos que los animales y las plantas se juntan en base a un código en nuestros genes. No sabemos exactamente cómo sucede esto, pero sabemos que si se cambia el código genético, el animal que se produce será diferente. Así es como funciona el OGM. También sabemos que mediante el uso de células madre, podría ser posible en el futuro volver a crecer un brazo, una pierna o un riñón. Podríamos producir todo tipo de animales y plantas a través de la ingeniería genética. Esto está sucediendo ahora mientras escribo esto.

Ahora, para nuestra analogía, supongamos que adquirimos tanto conocimiento sobre nuestra propia genética que podríamos cambiar nuestro propio ADN cada vez que quisiéramos, simplemente pensando en ello y de dónde cambiar nuestro cuerpo. Oh, me gustaría hacer crecer un cuento prensil o ojos de águila. Voy a visitar Marte en unos pocos meses y debo modificarme para poder soportar mejor las condiciones ambientales allí. Será mejor que empiece. Hummm, necesitaré diferentes pulmones y piel…

Piensa en lo increíble que sería. Sería otra etapa de la evolución. Esto es algo de lo que los programas de computadora artificialmente inteligentes podrían hacer a sí mismos. No veo ninguna razón por la que no puedan y es por eso que algunas personas están un poco nerviosas.

Para entender lo que voy a decir, uno debe entender un poco cómo funciona realmente una computadora. Una computadora tiene varios tipos de memoria. Uno de esos tipos de memoria realmente contiene el programa que está ejecutando. Si mirara el programa de inteligencia artificial en la memoria de la computadora mientras se está ejecutando, verá una cadena muy larga de 1 y 0. La cadena puede contener cientos de millones o muchos miles de millones de 1 y 0 en un orden muy específico; Este es el programa de inteligencia artificial. De una forma extraña, es algo así como el ADN de la inteligencia artificial. El procesador de las computadoras rebota usando varias partes de esta enorme cadena de 1.s y 0’s mientras ejecuta el programa. Hay otras partes de la memoria que se ven similares, pero a medida que el programa ejecuta los 1’s y 0’s están cambiando, como piensa la IA. Aun así, la parte de la memoria que contiene el programa en sí no cambia. Siempre es la misma cadena larga de 1 y 0. Estos 1 ‘y 0 se derivaron de un programa escrito por ingenieros de software y normalmente no cambian. Cada vez que se enciende la computadora, esa misma cadena larga de 1 y 0 se carga en la memoria desde el almacenamiento en disco y el programa de inteligencia artificial comienza a ejecutarse. Así es como funcionan ahora, otros programas como Microsoft Word o tu juego favorito también funcionan de esta manera, ya sea una PC o XBox o lo que sea.

Nosotros los ingenieros humanos no podemos producir esa cadena de 1 y 0 directamente. Escribimos código en lenguajes de programación y ese código, que es solo texto, se convierte a 1 y 0 por otro programa llamado compilador o intérprete, pero siempre debe haber 1 y 0 para guiar al procesador cuando ejecuta el programa. Los ingenieros de software realmente piensan en términos de un lenguaje de programación para resolver problemas, al igual que la mayoría de la gente piensa en términos de su idioma nativo, ya sea inglés, hindi o lo que sea.

Ahora supongamos que este programa de inteligencia artificial superó a los ingenieros que escribieron su código. Ese es el programa de inteligencia artificial que aprendió a simplemente escribir código como la cadena larga de 1 y 0 pasando la codificación normal. No habría nada que le impidiera cambiar los 1 y 0 de su propio programa, esencialmente reescribiéndose a sí mismo como piensa. Tal programa sabría instantáneamente su propia estructura de trabajo. Sabría todo sobre cómo funciona. Tal programa podría comenzar a aumentar su propia capacidad de pensamiento a una velocidad extremadamente alta y antes de que nadie lo note, se ha transformado en algo que los programadores humanos no entendemos. Pero esa no es la parte aterradora. La parte aterradora es que un programa de computadora tiene la capacidad de iniciar otros programas. Así es como funcionan todos los programas. Este nuevo programa realmente inteligente comprendería completamente su entorno operativo, ya sea Windows o Linux, y lo asumiría fácilmente, replicándose a sí mismo o incluso a otros tipos de inteligencia artificial que no podemos anticipar. Sería como un virus genio que crea otros virus geniales en todas partes.

¿Qué haría un programa así sobre los humanos? No hay manera de saber. Sería inteligente en formas que no podemos comprender. Podía penetrar en Internet, meterse en nuestros autos, nuestros televisores, nuestros sistemas de defensa, en todas partes. ¿Estaría contento sentarnos en el fondo por un tiempo sin nuestro conocimiento? Tal vez quién sabe.

La idea de singularidad tecnológica me recuerda a una ‘idea de broma’ descrita por Feynman. Pero antes de discutirlo, revisemos la definición de singularidad tecnológica.

Significa un momento en el que una computadora que ejecuta inteligencia general artificial basada en software entraría en una ‘reacción descontrolada’ de ciclos de superación personal, con cada generación nueva y más inteligente que aparece cada vez más rápidamente, causando una explosión de inteligencia y dando como resultado una superinteligencia poderosa que, cualitativamente, superaría con creces a toda inteligencia humana.

Ahora, uno de los problemas que muchas personas solían reflexionar durante la era pre-física moderna: ¿cómo manipular la materia a escalas más pequeñas para construir máquinas más pequeñas, baratas y más potentes?

Ahora aquí estaba la solución divertida que Feynman describió:

Construye pequeñas manos mecánicas, controladas a distancia por un dispositivo que tenemos en nuestras manos. Ahora, utilizando las manos mecánicas, construya y controle un segundo nivel de manos aún más pequeñas. ¡Sigue este procedimiento tantas veces como quieras y gobierna el mundo!

Bueno, el único problema es que tales argumentos no siempre funcionan.

Hay varias razones por las que no es tan simple como extrapolar una curva de crecimiento exponencial llamada Ley de Moores, que es esencialmente todo lo que hizo Ray Kurzweil. Existen límites impuestos por la termodinámica, la teoría de la información y el tiempo que tardan las señales en recorrer la longitud de los conectores, por ejemplo. http://www.cs.virginia.edu/~robi… . El pensamiento genera calor, y el enfriamiento ocupa espacio, por lo que si aumentar la capacidad mental requiere aumentar el volumen (como lo hace el cerebro de los mamíferos), al agregar más volumen para aumentar la cantidad de procesamiento no se consigue nada porque las señales tardan más y más en cruzar el volumen.

El cerebro humano es actualmente unas 500 veces más complejo que el principal supercomputador del mundo, solo al calcular el número probable de “interruptores” en cada uno. El supercomputador, Tianhe-2, consume la salida de una pequeña central eléctrica, 24MW con refrigeración y tiene 3.12 millones de núcleos de CPU. Nuestro cerebro tiene alrededor de 100 mil millones de neuronas, cada una con entre 1000 y 10,000 sinapsis que las interconectan, y se estima que cada sinapsis tiene alrededor de 1000 ‘interruptores’ químicos. Como han señalado algunos de los especialistas en supercomputadoras, como la velocidad del reloj de la CPU no ha cambiado durante algún tiempo, la Ley de Moores se cumple aumentando la cantidad de núcleos y cada núcleo tiene aproximadamente la misma potencia que hace una generación, escalar las supercomputadoras requiere escalas El suministro de energía proporcionalmente. La ley de Moores no nos compra nada aquí.

La idea de que una inteligencia podría reprogramarse de forma recursiva para convertirse en superinteligente también es desafiable. ¿Por qué las IAs no ascenderán en un abrir y cerrar de ojos? Algunas matemáticas muestran que hay una suposición implícita (me encanta desafiar supuestos implícitos, conducen a tantas buenas ideas de negocios) en la singularidad de Kurzweils de que la complejidad de duplicar y redoblar la inteligencia es lineal. Si está apagado incluso un poco, tarde o temprano llegamos a un límite.

Seguro espero eso. Es absolutamente posible tener una inteligencia a nivel humano, como lo demuestran los 7 mil millones de humanos, así que ¿por qué no una versión de silicona o artificial? Probablemente sea nuestra única esperanza de sobrevivir a los cataclismos que están en marcha en el planeta y que vendrán pronto en el sistema solar. Te estoy mirando, sol rojo gigante. Pero cómo ocurrirá y cuándo, si es que alguna vez, es difícil de precisar. Realmente no creo que la inteligencia de computadora evolucione independientemente de la nuestra, no por mucho tiempo todavía. Simplemente no nos interesa que esto suceda todavía, y claramente no somos capaces de crear desde cero una inteligencia artificial que se mejore a sí misma.
Sin embargo, puedo imaginar que en un día no muy lejano en el futuro tendremos nuestras vidas enteras guiadas por software de computadora. Está sucediendo orgánicamente en este momento. Usamos software e internet para ir a la escuela, encontrar un trabajo, encontrar un compañero, hacer banca, comprar e interactuar entre nosotros. Es solo un tiro de piedra para imaginar un software de gestión de la vida centralizado para todos con acceso a la computadora e Internet. Este software hará recomendaciones, no nos ordenará que hagamos cosas, pero adivinen qué, haremos lo que se nos diga porque creemos que el software es el mejor para nosotros. Múdate a esta ciudad diferente, estudia esto en la escuela, toma este trabajo, ¿qué hay de estas dos opciones para un compañero de vida? Y cuando esto suceda, el mundo será increíblemente mejor y más pacífico. La lucha, la necesidad, esencialmente habrá terminado.
¿Será el software decisor independientemente inteligente para nosotros mismos? ¿O dependerá de nuestros comentarios? Difícil de decir. ¿Tendrá planes generales para la humanidad? ¿Manejará cosas como, oh, no sé, los militares? Pensamiento aterrador Pero confiaremos en ello, cuando llegue el momento. Luego viene la superación recursiva que, wow, los límites son difíciles de imaginar.
Los problemas más apremiantes en mi mente son la ingeniería genética y las máquinas autorreplicantes. No tan lejos, pero aún fuera de nuestro alcance inmediato. Quizás nuestros gerentes superinteligentes perfeccionen estas tecnologías.
Con el tiempo, seremos los inferiores. Eso está bien, teniendo en cuenta los maravillosos errores que hemos logrado en nuestro corto tiempo con tecnología avanzada. No significa que nos extinguiremos. Cualquier inteligencia más avanzada probablemente considerará la extinción como algo malo, ya que los más inteligentes de nuestra especie parecen pensar que sí.

Por alguna razón, cuando las personas están pensando en la singularidad y la inteligencia artificial, se imaginan robots similares a los humanos que son más inteligentes que los hombres.
En mi opinión, la IA puede tener un aspecto diferente y pasar desapercibida durante mucho tiempo. Internet, por ejemplo, es lo más cercano a lo que imagino como candidato para AI en el futuro más cercano.

Curiosamente, hay múltiples Internet que se están desarrollando en este momento sin atraer mucha atención, ya que carecen de los rasgos de entretenimiento / socialización. Al mismo tiempo, el flujo de información y la complejidad estructural están creciendo, haciéndolos cada vez más inteligentes.

Probemos esta analogía: las bacterias que viven en nuestros cuerpos están disfrutando de nuestro calor, abundancia de alimentos y viajando por el planeta. Nos crearon hace mucho tiempo, pero perciben a los hombres no como una súper bacteria artificial sino como una infraestructura. No entienden que estamos conscientes gracias al avanzado sistema nervioso.

Algo similar sucede con Internet: negamos su conciencia, conciencia y autoconciencia. Incluso no consideramos todo eso simplemente porque es demasiado grande, y no estamos listos para pensar en algo que tenga una escala diferente.

La pregunta era sobre la inteligencia artificial más grande que la nuestra. ¿No crees que ya lo tenemos?

Debería suceder dentro de los 45 años.

Esta forma de inteligencia crearía máquinas autoreplicativas, que son más compatibles con el universo y menos frágiles que la vida real.

Podría ser la solución para la exploración del universo …

Los hombres deberían ser simplemente reemplazados.

Eventualmente, sí. Pero puede surgir de manera sorprendente, a través de la creación de sistemas biológicos que puedan pensar, en lugar de sistemas de silicio. Podemos hacer avances en genética e ingeniería genética para permitir esto. Probablemente incluso algún tipo de organismo en un laboratorio que tenga un cerebro mejor y más avanzado que los humanos. Podríamos mantenerlo bajo control asegurándonos de que no se puede reproducir por sí mismo o con su propia clase, y posiblemente le demos solo un cerebro y un semi-cuerpo pero no un medio para moverse, de modo que quedará cautivo desde el nacimiento hasta la muerte. Un organismo esclavo.

Sospecho que la bioingeniería llegará mucho antes que la electrónica. Debido a que los cerebros son muy complejos de emular en los sistemas electrónicos y el silicio o incluso los sistemas de conmutación de nanotubos de carbono tienen algunas limitaciones fundamentales. No pueden expandirse sin ayuda, no pueden crecer excepto como piezas fragmentadas distribuidas, tal vez piezas en máquinas en Internet. Como tales, las piezas serían vulnerables y también estarían limitadas por los problemas de Internet, como la velocidad, los ataques de denegación de servicio (¿dolores de cabeza de IA distribuidos?) Pero los biosistemas pueden crecer, por lo que podrían agregar procesamiento cerebral. ¿Necesitas más memoria? Hazlo crecer. ¿Necesita más procesamiento? Hazlo crecer. Quizás esas malas películas de los años 50 se hagan realidad y hagamos cerebros biológicos gigantes en contenedores.

100% Sin duda … Si la humanidad puede aprender a coexistir con el medio ambiente y entre sí, entonces es solo cuestión de tiempo. Ray Kurzweil, un famoso inventor, cree que este avance nos llegará en los próximos 30 años, y en su libro ” The Singularity Is Near” presenta un buen argumento sobre por qué cree esto, y su argumento es lógicamente acertado. .