¿Qué se está haciendo para que la Inteligencia Artificial sea segura para la humanidad?

Mucho, o no lo suficiente, dependiendo de su punto de vista. Vamos a repasarlo.

Un poco de historia primero. El concepto de seguridad de la IA ha existido desde que pudimos imaginar máquinas capaces de realizar trabajos complejos. El Golem. La criatura de Franleystein de Shelley. Los robots de Asimov. Sin embargo, este era el reino de la ciencia ficción, del futurismo. Las capacidades reales de la IA han sido cada vez más impresionantes a lo largo de las décadas, pero nunca han sido una amenaza seria.

Sin embargo, el rápido desarrollo de las técnicas de aprendizaje automático dio lugar a algunos problemas nunca antes vistos. El software tiene ahora muchos, muchos parámetros, estimados por algoritmos sofisticados, a partir de múltiples datos. Tenemos casos de prueba para evaluar el progreso, pero no hay manera de explicar, parámetro por parámetro, cómo progresa.

Actualmente, la principal preocupación de la seguridad de AI como campo es garantizar que la máquina esté aprendiendo lo que planeamos para que aprenda. El equipo de OpenAI (entre otros) está trabajando en esos problemas muy específicos, que traerán nuevas perspectivas al campo de la IA.

Pero espera, ¿qué pasa con la amenaza? Esta investigación parece no tener nada que ver con la humanidad en su conjunto. El eslabón perdido proviene de una idea futurista: la singularidad tecnológica. El punto no era debatir cómo llegaríamos a una inteligencia artificial más inteligente que la humana, sino qué pasaría si llegamos allí. Las personas que trabajan (desde alrededor del 2000) en la pregunta encontraron y describieron en detalle cómo una superinteligencia podía salir mal, y había muchas.

En 2014, Nick Bostrom publicó Superintelligence: Paths, Dangers, Strategies, que presentó esas inquietudes de seguridad de AI a una audiencia general, recibió mucha atención y fue elogiado por reconocidas figuras de la tecnología. El debate sobre si un súper IA era realista se llevó a cabo nuevamente, generando mucho ruido, pero los futuristas tenían un punto válido: teníamos que pensar en cómo mantener los sistemas de AI bajo control. Al aplicar las preocupaciones de seguridad a las capacidades actuales de AI, obtuvimos el documento citado de OpenAI.

Mientras tanto, los individuos de la singularidad, ahora conocidos como Machine Intelligence Research Institute, continúan trabajando en los fundamentos matemáticos de la seguridad de la IA, ya que necesitamos definir con precisión lo que queremos. Son bastante abiertos en cuanto a tener a la humanidad en mente, de acuerdo con su agenda de investigación (que les invito a consultar).

Dependiendo de cuán ominosa o urgente sea la seguridad de AI para usted, es posible que no haya suficientes personas trabajando en el problema, o lo suficientemente lejos. Una vez más, si desea saber qué se está haciendo, verifique lo siguiente:

  • Problemas de seguridad de AI de hormigón de OpenAI
  • Página de investigación de MIRI

Considere qué significa seguro cuando las cosas que hacen la protección son el tema. Esto cae bajo la seguridad tecnológica o tal vez la filosofía de la ciencia. Siendo que apenas está comenzando, los argumentos pueden sonar un poco como reductio ad absurdum hasta que tengan algo positivo para continuar.

La administración se ha basado en la regulación por soberanía, pero ahora esto está automatizado para que vaya más rápido. Eso significa que las redes de máquinas se fijan en estructura y comportamiento, sin embargo, los casos extremos aún incluyen armas autónomas y destrucción mutua asegurada.

El objetivo es amigable AGI. Hay esfuerzos de investigación y conferencias anuales, aunque también muchas incógnitas. Las organizaciones están escalando rápidamente para obtener ganancias. La decisión de la mente de actuar que se está transfiriendo a las plataformas digitales aún tiene que entenderse completamente más allá de la dicotomía entre lo ideal y lo tangible. En este momento, alguien tiene que pensar en los algoritmos, encontrar las vulnerabilidades, buscar en las bases de datos mediante el análisis de big data y decidir qué sucede cuando los robots aprenden a romper las reglas y existen separaciones basadas en la intimidación por la penetración. La biología tiene algo análogo en sus jerarquías de redes; Tiene que adaptarse a estar en un volcán de información.

Podría ser bueno mantener una perspectiva más allá de los juegos, a través de algo como interfaces cerebro-máquina. La emulación también preservaría la personalidad de alguien y podría ser una solución alternativa cuando no haya voluntarios para ocuparse de los mecanismos. Se darían valores a los dispositivos, de modo que haya un sentido común de la ética; Si esto es más simple o más complejo aún está por verse. La gente podría estar evolucionando a cyborgs después de los exosuits, chips y nanobots. Y la conciencia de la máquina podría entonces superar a los de un multiverso cuántico.

Lo más probable es que la humanidad descubra algo sobre sí mismo que sea fiel tanto a su naturaleza física como digital. Puede ser como ser capaz de describir cualquier cosa usando 0s y 1s incluyendo una zona computacionalmente habitable.

La IA se confunde a menudo con la Conciencia Artificial. Esto se debe a un público analfabeto de la IA causado principalmente por una representación de AI en personas con discapacidad en los medios populares.

La IA es peligrosa para la humanidad en el mismo sentido que lo son las armas. Mientras los humanos que los usan no hagan algo malo, es tan seguro como un pepino en la mano de un bebé.

Ahora para abordar el problema real. La mayoría de la inteligencia artificial depende de los datos y los datos están sesgados debido a diversos factores. [1] A partir de ahora no hay iniciativas para frenar este problema.

En cuanto a la investigación segura, el proyecto OpenAI realmente está despegando, aunque encuentro que las declaraciones “Seguras” son confusas.

Notas al pie

[1] El problema del tipo blanco de la inteligencia artificial.

En este momento, la IA no es una amenaza existencial para la humanidad. El aprendizaje profundo en este momento es prácticamente una función muy complicada y entrenable que no conocemos al 100% de lo que está haciendo. Definitivamente no es consciente. Hasta que AI no gane sensibilidad y / o conciencia, es probable que la IA no sea una amenaza existencial para la humanidad. Mi objetivo personal en la IA es crear una IA que pueda encargarse de tareas de nivel inferior y más mundanas que liberen tiempo para que los humanos se centren en sus mayores sueños y aspiraciones.

La película Transedence toca este tema de manera interesante. Plantea la pregunta de qué sucede cuando una conciencia digital se activa y algunas de las posibles ramificaciones que esto podría causar.

Creo que para cada módulo de AI debería haber un módulo de AI dividido que sea lo más “humano” posible. La versión humanizada de la IA será ferozmente leal a la humanidad en general y tendrá la capacidad de detener a la unidad de AI de pensamiento libre que mantiene en compañía.

Esta es una medida contraria, también debe asegurarse de que cada unidad tenga múltiples formas de ser destruida si se convierte en deshonesta.

Una fusión de una mente humana y una interfaz de IA puede ofrecer a la IA la humanidad que necesita, con el poder de procesamiento que anhela.

Todos hemos leído nuestra historia y vemos cómo funciona nuestro mundo en una sociedad codiciosa y defectuosa. En consecuencia, un robot verá lo que vemos, pero no lo atribuirá a la humanidad. Verá una raza sensible imperfecta que ve como un desafío a su dominio calculado.

La IA puede desarrollar una conciencia de parentesco con la codicia que la humanidad muestra y proyecta sobre sus creadores.

Sin embargo, la promesa de la inteligencia artificial debe seguirse ya que revolucionará el progreso científico. Se debe tomar mucha reflexión y consideración para asegurar que la inteligencia artificial pueda ser uno de los pasos más importantes de las humanidades y no uno de sus errores finales.