Mucho, o no lo suficiente, dependiendo de su punto de vista. Vamos a repasarlo.
Un poco de historia primero. El concepto de seguridad de la IA ha existido desde que pudimos imaginar máquinas capaces de realizar trabajos complejos. El Golem. La criatura de Franleystein de Shelley. Los robots de Asimov. Sin embargo, este era el reino de la ciencia ficción, del futurismo. Las capacidades reales de la IA han sido cada vez más impresionantes a lo largo de las décadas, pero nunca han sido una amenaza seria.
Sin embargo, el rápido desarrollo de las técnicas de aprendizaje automático dio lugar a algunos problemas nunca antes vistos. El software tiene ahora muchos, muchos parámetros, estimados por algoritmos sofisticados, a partir de múltiples datos. Tenemos casos de prueba para evaluar el progreso, pero no hay manera de explicar, parámetro por parámetro, cómo progresa.
Actualmente, la principal preocupación de la seguridad de AI como campo es garantizar que la máquina esté aprendiendo lo que planeamos para que aprenda. El equipo de OpenAI (entre otros) está trabajando en esos problemas muy específicos, que traerán nuevas perspectivas al campo de la IA.
- ¿Qué aspecto tenían los humanos hace 10.000 años?
- ¿Viajaremos alguna vez en el espacio profundo?
- ¿Por qué contamos historias?
- ¿Existe evidencia que respalde la teoría de que los humanos se han desarrollado a partir del ADN alienígena que se siembra accidentalmente en la tierra desde el cosmos?
- ¿Los humanos alguna vez han producido descendientes no fértiles con otra especie? Los caballos y los burros pueden producir mulas infértiles, así que lo más probable es que podamos hacer lo mismo con otros grandes simios.
Pero espera, ¿qué pasa con la amenaza? Esta investigación parece no tener nada que ver con la humanidad en su conjunto. El eslabón perdido proviene de una idea futurista: la singularidad tecnológica. El punto no era debatir cómo llegaríamos a una inteligencia artificial más inteligente que la humana, sino qué pasaría si llegamos allí. Las personas que trabajan (desde alrededor del 2000) en la pregunta encontraron y describieron en detalle cómo una superinteligencia podía salir mal, y había muchas.
En 2014, Nick Bostrom publicó Superintelligence: Paths, Dangers, Strategies, que presentó esas inquietudes de seguridad de AI a una audiencia general, recibió mucha atención y fue elogiado por reconocidas figuras de la tecnología. El debate sobre si un súper IA era realista se llevó a cabo nuevamente, generando mucho ruido, pero los futuristas tenían un punto válido: teníamos que pensar en cómo mantener los sistemas de AI bajo control. Al aplicar las preocupaciones de seguridad a las capacidades actuales de AI, obtuvimos el documento citado de OpenAI.
Mientras tanto, los individuos de la singularidad, ahora conocidos como Machine Intelligence Research Institute, continúan trabajando en los fundamentos matemáticos de la seguridad de la IA, ya que necesitamos definir con precisión lo que queremos. Son bastante abiertos en cuanto a tener a la humanidad en mente, de acuerdo con su agenda de investigación (que les invito a consultar).
Dependiendo de cuán ominosa o urgente sea la seguridad de AI para usted, es posible que no haya suficientes personas trabajando en el problema, o lo suficientemente lejos. Una vez más, si desea saber qué se está haciendo, verifique lo siguiente:
- Problemas de seguridad de AI de hormigón de OpenAI
- Página de investigación de MIRI