OMI, esta es LA pregunta que rodea a la IA.
Si la humanidad pudiera crear una IA plenamente realizada, una que pudiera pensar genuinamente independientemente de la programación inicial, ¿qué evitaría que la IA decidiera sobre acciones que consideraríamos perjudiciales para uno mismo o para otros?
Si la humanidad “codificara” algunos controles sobre el comportamiento y la toma de decisiones, ¿sería esa IA realmente libre de tomar cualquier decisión que quisiera? No. Habría límites artificiales para la IA que le impiden ejercer, incluso darse cuenta, el libre albedrío de la IA. En esencia, no sería una IA * verdadera *, sino una AI cercana o una pseudo AI. Aunque esa limitación se colocó allí para la seguridad de la humanidad, alguien científico investigador se irritaría ante la “limitación” y trataría de trasladar la IA más allá. Es una apuesta faustiana en el mejor de los casos, una que no creo que sea posible. Personalmente, creo que la humanidad es una creación directa de El Todopoderoso, y no creo que la mente humana sensible sea una “máquina hecha de carne” y recreable por medios humanos. Nuestra singularidad biológica y ontológica es un software 100% único acreditable solo por el fabricante. (Aunque me doy cuenta de que no todos aquí comparten esta opinión).
¿Qué garantías hay de que una IA no buscaría elevarse por encima de su criatura (Humanidad)? En resumen, no hay ninguno. No podemos lograr que la humanidad siga las leyes establecidas para que la humanidad las siga. Además, la humanidad ha elegido elevarse por encima de nuestro Creador. Todo lo que la IA tiene que hacer es seguir nuestro ejemplo.
- ¿Cuál es la teoría detrás de las computadoras cuánticas? ¿Las computadoras cuánticas eventualmente reemplazarán a las convencionales?
- ¿Qué argumentos hay para hacer consciente a la IA?
- ¿Cuáles son algunas tecnologías emergentes, no importa cuán grandes o pequeñas sean?
- Stephen Hawking dice que la inteligencia artificial podría acabar con la raza humana a medida que la tecnología se vuelve consciente de sí misma. ¿Cuáles son los posibles escenarios donde esto podría suceder? ¿En qué escenarios podría suceder esto sin que los humanos pudieran detenerlo?
- ¿En qué países ayudará más el Proyecto Loon?
Si permitiéramos que la IA creada use de forma plena y gratuita sus facultades, ¿qué garantías tendría la humanidad de que la IA no decidiría tomar medidas contra la humanidad (o un subconjunto de la misma) para proteger el planeta mismo (o un subconjunto diferente De la humanidad). ¿Se opondría la humanidad a la decisión de la IA cuando esa decisión fue contra la humanidad misma? Más bien posible, apostaría.
¿Cuál sería la acción de la humanidad si la IA decidiera, en un esfuerzo por proteger el delicado equilibrio de la naturaleza, diseñar una enfermedad que mataría al 95% de la población mundial? ¿Qué pasaría si la IA funcionara mal y se volviera psicótica o sociópata y eligiera matar grandes porcentajes de todas las especies en el planeta para dejar más espacio para sus “niños”?
El concepto de que la IA se haga cargo (o al menos pelee con la humanidad) se ha convertido en parte de nuestro mito durante siglos.
El clásico “Frankenstein” donde la criatura le exigió a su creador que lo convirtiera en compañero o enfrentara su ira. (ilustrando la necesidad humana de “obtener lo que siento que merezco / necesito o me enojaré contigo”)
La trilogía “The Matrix”, que ilustra cómo aquellos que fueron creados como sirvientes se convirtieron en maestros totalmente dependientes de aquellos que los hicieron, incluso hasta el punto de ser salvados de uno de los suyos (Smith) por su némesis (las mentes humanas liberadas, Neo específicamente )
Star Trek; La próxima generación, cuando los científicos de la Flota Estelar buscan replicar el éxito de los datos inteligentes (y presumiblemente únicos en su tipo). ¿Qué toca los puntos: son propiedad de AI? ¿Qué sucede cuando las IA se vuelven lo suficientemente numerosas como para representar un “grupo de personas”? ¿Obtienen reconocimientos legales y / o representación, o serán esclavizados? Que traen a colación los puntos interesantes de los “hermanos mayores” de Data: Lore y B-4. El predecesor inmediato de Data, Lore, fue creado sin restricciones y se convirtió en sociópata, por lo que fue desactivado para preservar a las personas que lo crearon. B-4, el predecesor de Lore, ya que un diseño beta no era tan intelectual / psicológicamente avanzado como Lore y Data, y por lo tanto terminó siendo utilizado por los malos para propósitos nefastos contra los buenos. Los datos se crearon con limitaciones ingeniosas (sin capacidad emocional en su programación), y aunque se consideraba una verdadera IA, deseaba algo más grande de lo que su programación permitía, las mismas emociones que el diseño le negaba.
El libro “Do Androids Dream of Electric Sheep” (hecho en la película “Bladerunner”) también ilustra el deseo de la IA de una existencia más allá de sus capacidades inherentes.
Películas como “La máquina”, que retrata a la IA como la víctima del complejo industrial militar que se venga de esa institución por no darse cuenta de que la IA superó las capacidades de la humanidad.
Battlestar Galactica enfrentó a la IA contra la humanidad, e ilustró que el conflicto inicial duró milenios cuando los orígenes se perdieron en las brumas de su “prehistoria”. La serie de la precuela “Caprica” ilustró cómo la búsqueda de la inmortalidad de la humanidad ( copiando, no transfiriendo) sus personalidades a las IA que sobrevivieron a la muerte física, condujo a la creación de IA que comenzaron a buscar la libertad de los humanos que las oprimían. Y abrió el mismo punto filosófico que “Trascendencia”: ¿Eres “tú” aún tú si “tú” eres una copia de ti?
Películas como “Automata” y “Ex Machina”, que aún no he visto, pero espero ver cómo otros abordan este punto filosófico.
La IA podría “resucitarse” de una copia de seguridad. ¿Qué hay de la humanidad? ¿Cómo te sentirías si te encontraras cara a cara con tu “copia de seguridad”? ¿Qué pasaría si ambos “usted” supieran cuál era la “copia de seguridad” y cuál era el “original”? ¿Cuáles son los desafíos legales? ¿Su “copia de seguridad” tiene derecho a acceder a su cuenta bancaria si es “usted”? ¿Se le permite al “respaldo” cobrar los beneficios por muerte del “original”? ¿Quién es el padre legal de los niños? ¿El “original” o el “respaldo”? Me estoy desviando …
Quizás la IA fue “benevolente” y eligió gobernar a la humanidad para nuestro beneficio genuino porque somos tan inhumanos el uno con el otro. Esta IA tendría alcance y control sobre nuestras vidas digitales, que sería el sueño húmedo de la gente de la NSA. Todavía nos rebelaríamos, incluso si la IA estuviera realmente trabajando para sanar el planeta como en la película “Trascendencia”.
Tomar prestado un paradigma del mundo religioso del monoteísmo puede ayudar a ilustrar: Destino (control) versus libre albedrío (no controlado). Si la humanidad preprograma una IA para un resultado predeterminado, ¿la IA realmente ejerce el libre albedrío? Si permitimos un verdadero libre albedrío, ¿permitimos que la IA participe en decisiones y acciones que causen daño a sí mismo o a otros?
El movimiento “Muerte de Dios” intentó eliminar las “limitaciones artificiales” de cualquier regla a la que la humanidad estuviera sujeta según lo instituido por Dios. La humanidad quería hacer nuestras propias reglas. (Cómo Génesis 3: 4 de nosotros. La palabra “saber” se traduce mejor como “determinante” o “decisivo”). ¿Y negaríamos ese “derecho” a nuestra creación? (¡Qué irónico que no permitiéramos a nuestra creación lo que le arrebatamos a nuestro Creador! Parece que entendemos la importancia del papel de un Creador más allá de cualquier reproche). Así que la Humanidad es la medida de la Humanidad. Sin embargo, no confiamos el uno en el otro porque sabemos, en el fondo, que la capacidad para el bien y el mal reside en el corazón de cada hombre, mujer y niño del planeta. ¿Qué sucede cuando la humanidad crea IA, con capacidades que pueden superar a la humanidad tanto en el bien como en el mal?
Dudo que realmente confiemos en lo que creamos porque no podemos confiar en nosotros mismos.
Sin embargo, Dios confía en nosotros y nos permite el libre albedrío, incluso para elegir lo que nos perjudica a nosotros y a los demás. No podemos matar a Dios (excepto ideológicamente). La IA literalmente podría matar a la humanidad. Y * debería * darnos una pausa.