¿Cómo podremos evitar que la IA vea a la humanidad como superflua?

Gracias por la A2A. No sé que haya una manera absolutamente confiable. Sin embargo, puede haber una propiedad inherente del conocimiento que nos protegerá.

Las AI futuras, supuestamente superinteligentes, serán conscientes de sí mismas no solo como más conocedoras que cualquier otro ser conocido, sino que también (y esto a menudo se pasa por alto o se ignora) serán aún más conscientes de los límites de su conocimiento que nosotros.

Cada vez que un campo de la ciencia extiende su alcance, se descubren más misterios. Si bien no podemos estar seguros de que esto seguirá siendo así para siempre, parece ser cierto como mínimo en matemáticas y en las diversas formas de expresión creativa.

Sabiendo esto, los AI siempre estarán conscientes de la incertidumbre de cualquier juicio que puedan hacer, como que “la humanidad es superflua”. Por ejemplo, ha habido experimentos replicados científicamente por instituciones creíbles como UVA que indican la posibilidad de que ciertos fenómenos psíquicos sean reales. Si esto se estableciera a un nivel dispositivo de rigor, plantearía la pregunta fundamental, “¿cómo es posible?” Si las propias IA carecieran de tal capacidad, nuestra presencia continua seguiría siendo invaluable como aliados de la IA, especialmente si esas habilidades pudieran ser cultivadas.

Tenga en cuenta que no estoy hablando aquí de “creatividad” en general, lo que se considera demasiado humano como singularmente humano, cuando en realidad solo se puede definir como tal si la definición de “creativo” se restringe continuamente a medida que se amplían las capacidades de AI.

Necesito aclarar un poco tu pregunta antes de responderla:

Quieres decir

A) la humanidad es superflua, ¿y no quieres que la IA lo descubra (vea)? O

B) ¿No crees que la humanidad es superflua y deseas que AI no llegue a esa conclusión por error?

Si A), la respuesta sería “no podemos”, si la humanidad es superflua y es lógica y observable, no habría respuesta para evitar que AI vea esta verdad;

Si B), entonces debemos tratar de formular tal afirmación de que “la humanidad no es superflua” de una manera lógica y que pueda probarse objetivamente (no solo “no somos superfluos, ¿verdad?” Tipo de eslogan). Si podemos expresar dicha hipótesis en términos científicos puros, entonces la IA debería estar de acuerdo: el razonamiento lógico objetivo es universal y no necesita que la humanidad lo comprenda.

Desafortunadamente, estoy más inclinado hacia A), creo que la humanidad se volverá superflua y no hay nada que estemos dispuestos a hacer al respecto. No creo que los muy pocos que quieran cambiar este status quo superfluo sean lo suficientemente fuertes como para hacer una diferencia.

Como había un límite en los caracteres que podía usar para hacer mi pregunta, me veo obligado a preguntar aquí:

Hace una semana vi algunos de los partidos de Lee Sedol contra AlphaGo ( https://www.youtube.com/channel/ …), y luego leí un artículo relacionado con el partido ( https://www.linkedin.com/ pulso / a …).

Al final del artículo de LinkedIn anterior, un lector había comentado las Leyes de robótica de Asimov. Soy consciente de su serie de la Fundación, pero nunca las he leído, pero sé que había Leyes de robótica que protegían a los humanos contra estas IA.

Esto me hizo pensar … ya que AlphaGo quizás, quizás, parece … estar aprendiendo e intuyendo por sí mismo, y posiblemente tomando decisiones basadas en su propio aprendizaje, decisiones y acciones que ni siquiera fueron concebidas por los humanos … ¿no es concebible que sea así? ¿Podría no ser posible impedir que el futuro robot inteligente diseñe una manera de anular sus restricciones una vez que haya razonado que debería, o quisiera contradecir estas leyes?

En algún lugar leí algo en el sentido de que el Sr. Sedol había sugerido que AlphaGo había jugado un movimiento, o creado una estrategia nunca antes vista por los maestros humanos de Go. Si esto es cierto, y si esta generación de IA ya es capaz de este tipo de hazaña, ¿qué pasará con las próximas generaciones de IA?

¿No aumenta la posibilidad de que puedan eludir “Las Leyes”?

¿No van a pensar más allá de las leyes y las van a superar?

¿De qué manera sería posible protegerse contra tal posibilidad?

En este sentido, ¿es posible incluso programar la IA de tal manera que lo haría, o nunca podría “menospreciarnos” la forma en que los humanos podríamos ver a los mosquitos y considerarlos completamente prescindibles?

Tiendo a pensar que estas protecciones de las Leyes de robótica son imposibles de ser 100% infalibles, y que es solo cuestión de tiempo antes de que, como especie, seamos superados por nuestras propias creaciones, y en el proceso de exterminio.

¿Cómo crees que sería posible protegernos contra la posibilidad de que nuestras futuras IAs encuentren una manera de eludir nuestras salvaguardas? Gracias.

A diferencia de la vida natural, la evolución de la IA se dirige a un propósito, para servir a su creador.

Las IA son herramientas muy inteligentes que pueden aprender cómo lograr sus objetivos, pero a diferencia de nosotros, no tienen necesidades ni deseos ni siquiera la voluntad de vivir, y no pueden desarrollar ningún objetivo por sí mismos, solo nos obedecen. una forma inteligente

Autoconciencia La IA todavía está muy lejos, ni siquiera tenemos ni idea de cómo construirla, y probablemente, como dijo el conocido filósofo estadounidense John Searle, los neurobiólogos deberían descubrir cómo podrían nuestros cerebros desarrollar la autoconciencia antes. Podemos construir un programa de inteligencia artificial que pueda desarrollar la autoconciencia.

De cualquier forma, es fácil aumentar cada programa de AI mediante un programa de alto nivel con las leyes de Asimov o algo para evitar cualquier posible revolución.

así que la respuesta es simplemente ordenando precisamente AI lo que realmente queremos que hagan.

El problema es que realmente no sabemos qué no lo haremos y algunos de nosotros podemos querer cosas malas como construir robots asesinos.