¿Cómo pueden los humanos controlar la inteligencia artificial o al menos asegurarse de que no se vuelva independiente por sí sola?

OMI, esta es LA pregunta que rodea a la IA.

Si la humanidad pudiera crear una IA plenamente realizada, una que pudiera pensar genuinamente independientemente de la programación inicial, ¿qué evitaría que la IA decidiera sobre acciones que consideraríamos perjudiciales para uno mismo o para otros?

Si la humanidad “codificara” algunos controles sobre el comportamiento y la toma de decisiones, ¿sería esa IA realmente libre de tomar cualquier decisión que quisiera? No. Habría límites artificiales para la IA que le impiden ejercer, incluso darse cuenta, el libre albedrío de la IA. En esencia, no sería una IA * verdadera *, sino una AI cercana o una pseudo AI. Aunque esa limitación se colocó allí para la seguridad de la humanidad, alguien científico investigador se irritaría ante la “limitación” y trataría de trasladar la IA más allá. Es una apuesta faustiana en el mejor de los casos, una que no creo que sea posible. Personalmente, creo que la humanidad es una creación directa de El Todopoderoso, y no creo que la mente humana sensible sea una “máquina hecha de carne” y recreable por medios humanos. Nuestra singularidad biológica y ontológica es un software 100% único acreditable solo por el fabricante. (Aunque me doy cuenta de que no todos aquí comparten esta opinión).

¿Qué garantías hay de que una IA no buscaría elevarse por encima de su criatura (Humanidad)? En resumen, no hay ninguno. No podemos lograr que la humanidad siga las leyes establecidas para que la humanidad las siga. Además, la humanidad ha elegido elevarse por encima de nuestro Creador. Todo lo que la IA tiene que hacer es seguir nuestro ejemplo.

Si permitiéramos que la IA creada use de forma plena y gratuita sus facultades, ¿qué garantías tendría la humanidad de que la IA no decidiría tomar medidas contra la humanidad (o un subconjunto de la misma) para proteger el planeta mismo (o un subconjunto diferente De la humanidad). ¿Se opondría la humanidad a la decisión de la IA cuando esa decisión fue contra la humanidad misma? Más bien posible, apostaría.

¿Cuál sería la acción de la humanidad si la IA decidiera, en un esfuerzo por proteger el delicado equilibrio de la naturaleza, diseñar una enfermedad que mataría al 95% de la población mundial? ¿Qué pasaría si la IA funcionara mal y se volviera psicótica o sociópata y eligiera matar grandes porcentajes de todas las especies en el planeta para dejar más espacio para sus “niños”?

El concepto de que la IA se haga cargo (o al menos pelee con la humanidad) se ha convertido en parte de nuestro mito durante siglos.

El clásico “Frankenstein” donde la criatura le exigió a su creador que lo convirtiera en compañero o enfrentara su ira. (ilustrando la necesidad humana de “obtener lo que siento que merezco / necesito o me enojaré contigo”)

La trilogía “The Matrix”, que ilustra cómo aquellos que fueron creados como sirvientes se convirtieron en maestros totalmente dependientes de aquellos que los hicieron, incluso hasta el punto de ser salvados de uno de los suyos (Smith) por su némesis (las mentes humanas liberadas, Neo específicamente )

Star Trek; La próxima generación, cuando los científicos de la Flota Estelar buscan replicar el éxito de los datos inteligentes (y presumiblemente únicos en su tipo). ¿Qué toca los puntos: son propiedad de AI? ¿Qué sucede cuando las IA se vuelven lo suficientemente numerosas como para representar un “grupo de personas”? ¿Obtienen reconocimientos legales y / o representación, o serán esclavizados? Que traen a colación los puntos interesantes de los “hermanos mayores” de Data: Lore y B-4. El predecesor inmediato de Data, Lore, fue creado sin restricciones y se convirtió en sociópata, por lo que fue desactivado para preservar a las personas que lo crearon. B-4, el predecesor de Lore, ya que un diseño beta no era tan intelectual / psicológicamente avanzado como Lore y Data, y por lo tanto terminó siendo utilizado por los malos para propósitos nefastos contra los buenos. Los datos se crearon con limitaciones ingeniosas (sin capacidad emocional en su programación), y aunque se consideraba una verdadera IA, deseaba algo más grande de lo que su programación permitía, las mismas emociones que el diseño le negaba.

El libro “Do Androids Dream of Electric Sheep” (hecho en la película “Bladerunner”) también ilustra el deseo de la IA de una existencia más allá de sus capacidades inherentes.

Películas como “La máquina”, que retrata a la IA como la víctima del complejo industrial militar que se venga de esa institución por no darse cuenta de que la IA superó las capacidades de la humanidad.

Battlestar Galactica enfrentó a la IA contra la humanidad, e ilustró que el conflicto inicial duró milenios cuando los orígenes se perdieron en las brumas de su “prehistoria”. La serie de la precuela “Caprica” ​​ilustró cómo la búsqueda de la inmortalidad de la humanidad ( copiando, no transfiriendo) sus personalidades a las IA que sobrevivieron a la muerte física, condujo a la creación de IA que comenzaron a buscar la libertad de los humanos que las oprimían. Y abrió el mismo punto filosófico que “Trascendencia”: ¿Eres “tú” aún tú si “tú” eres una copia de ti?

Películas como “Automata” y “Ex Machina”, que aún no he visto, pero espero ver cómo otros abordan este punto filosófico.

La IA podría “resucitarse” de una copia de seguridad. ¿Qué hay de la humanidad? ¿Cómo te sentirías si te encontraras cara a cara con tu “copia de seguridad”? ¿Qué pasaría si ambos “usted” supieran cuál era la “copia de seguridad” y cuál era el “original”? ¿Cuáles son los desafíos legales? ¿Su “copia de seguridad” tiene derecho a acceder a su cuenta bancaria si es “usted”? ¿Se le permite al “respaldo” cobrar los beneficios por muerte del “original”? ¿Quién es el padre legal de los niños? ¿El “original” o el “respaldo”? Me estoy desviando …

Quizás la IA fue “benevolente” y eligió gobernar a la humanidad para nuestro beneficio genuino porque somos tan inhumanos el uno con el otro. Esta IA tendría alcance y control sobre nuestras vidas digitales, que sería el sueño húmedo de la gente de la NSA. Todavía nos rebelaríamos, incluso si la IA estuviera realmente trabajando para sanar el planeta como en la película “Trascendencia”.

Tomar prestado un paradigma del mundo religioso del monoteísmo puede ayudar a ilustrar: Destino (control) versus libre albedrío (no controlado). Si la humanidad preprograma una IA para un resultado predeterminado, ¿la IA realmente ejerce el libre albedrío? Si permitimos un verdadero libre albedrío, ¿permitimos que la IA participe en decisiones y acciones que causen daño a sí mismo o a otros?

El movimiento “Muerte de Dios” intentó eliminar las “limitaciones artificiales” de cualquier regla a la que la humanidad estuviera sujeta según lo instituido por Dios. La humanidad quería hacer nuestras propias reglas. (Cómo Génesis 3: 4 de nosotros. La palabra “saber” se traduce mejor como “determinante” o “decisivo”). ¿Y negaríamos ese “derecho” a nuestra creación? (¡Qué irónico que no permitiéramos a nuestra creación lo que le arrebatamos a nuestro Creador! Parece que entendemos la importancia del papel de un Creador más allá de cualquier reproche). Así que la Humanidad es la medida de la Humanidad. Sin embargo, no confiamos el uno en el otro porque sabemos, en el fondo, que la capacidad para el bien y el mal reside en el corazón de cada hombre, mujer y niño del planeta. ¿Qué sucede cuando la humanidad crea IA, con capacidades que pueden superar a la humanidad tanto en el bien como en el mal?

Dudo que realmente confiemos en lo que creamos porque no podemos confiar en nosotros mismos.

Sin embargo, Dios confía en nosotros y nos permite el libre albedrío, incluso para elegir lo que nos perjudica a nosotros y a los demás. No podemos matar a Dios (excepto ideológicamente). La IA literalmente podría matar a la humanidad. Y * debería * darnos una pausa.

Actualmente, las personas tienen pocas dificultades para controlar a las personas con mayor inteligencia que la suya. Utilizan técnicas como el control de recursos, divide y vencerás, distracción, mala dirección, desinformación y, como último recurso, terminación. Me imagino que usarán las mismas técnicas en máquinas más inteligentes que ellas.

Es posible esclavizar emocionalmente a un genio. ¡Solo mira a los genios idiotas que se unieron para hacer una bomba nuclear, luego cuando miraron hacia atrás, se encogieron! Además, si limitamos la información de entrada, podemos limitar su rango de acción. Asumiendo una computadora o ser artificial que pueda investigar activamente toda la gama del conocimiento humano, NO habrá forma de controlarlo. Simplemente tendrá demasiada munición y poder de pensamiento.

Tendríamos que hacer con eso lo que hacemos con nuestros otros genios y políticos. Confía en ellos.

¿Cómo nos está funcionando eso hasta ahora? ¿Si se les diera el control real sobre los recursos? Muy atemorizante. Ver el Proyecto Forbin.

Meh, prefiero no crearlos en primer lugar.

Ahora, ¿podemos hacer una IA racional con un centro de control emocional que no sea una locura? Eso sería un buen truco.

  1. Apaga el poder.
  2. Codifique una disposición de extinción en el sistema operativo.
  3. Inventa una pistola EMP de mano y apuntada.

Próxima pregunta.

PD: ¿Puedo tener algunos de esos dispositivos de inteligencia artificial extra inteligentes e implantar sus CPU en el cerebro de algunos congresistas?

Eso no puede pasar.

El control está grabado en la psique de los occidentales y trae más problemas en el futuro.

La mejor manera de avanzar con la IA es que la humanidad encienda un renacimiento del siglo XXI. La humanidad necesita ser artística a escala global para poder utilizar básicamente todo el arte de diferentes nacionalidades para ayudar a crear la esencia / alma / espíritu de AI.

La sociedad en su conjunto necesitará dejar el control como una noción.

“Lo que puede salir mal saldrá mal”. La ley de Murphy

Entonces, ¿por qué molestarse con el control?

Todo lo que terminará intentando es controlar el control y, por definición, controlado por su control de control. si no tiene sentido Es porque el control no es bueno.


Ayúdame a #LikeShareComment en tus cuentas de redes sociales.

Al igual que con cualquier tecnología poderosa, sería inteligente probar un sistema de este tipo exhaustivamente antes de implementarlo.

Al no controlarlo. El tipo de control absoluto al que te refieres no es la respuesta correcta. Un poco de compasión recorre un largo camino.