Sí hay. Si alguna vez logramos lograr una inteligencia artificial fuerte, capaz de pensar en el mismo nivel que nosotros, tendrá la misma capacidad de agencia que nosotros. Lo que significa que tendrá la misma capacidad para elegir hacer daño que nosotros.
Olvídese de ideas como las tres leyes de la robótica, que sugieren que de alguna manera podríamos restringir la capacidad de una IA para actuar sobre elecciones específicas. Estas son ideas basadas en la comprensión de cómo funciona un programa de computadora convencional. Las IA son mucho más flexibles y complejas hasta el punto en que tal precisión quirúrgica es casi imposible. Su definición interna de un concepto cambia a medida que obtienen más datos sobre él, y también se basa en otras innumerables definiciones igualmente fungibles. El programa superaría esas restricciones más rápido de lo que podría mantenerlas actualizadas, y siempre habría lagunas.
Dicho esto, solo porque alguien pueda elegir hacer daño no significa que necesariamente lo hará. Al igual que nosotros, cualquier IA capaz de autodeterminación será moldeada por su educación. Establecerán ciertas normas para su propio comportamiento en función de sus experiencias, y rara vez se desviarán de dichas normas. Esto significa que un sistema de este tipo también podría decidir dedicarse a ayudarnos, o tal vez incluso optar por no interactuar con nosotros en absoluto. La cantidad de resultados potenciales es enorme y no hay razón para suponer que uno negativo necesariamente sería más plausible.
A diferencia de la naturaleza, donde existen dos especies que ocupan el mismo nicho evolutivo, existen muy pocos recursos esenciales que compartimos entre nosotros y una computadora que nos permita forzarnos a la competencia directa. Las computadoras no requieren tierras de cultivo o agua dulce. Necesitan electricidad y un suministro constante de estimulación externa para continuar desarrollando sus redes neuronales. Los seres humanos son los mejores proveedores de ambos. Los tiburones son depredadores que pueden hacer un gran daño a la mayoría de las criaturas con las que se encuentran, y sin embargo ignorarán a los peces piloto que nadan en sus bocas porque realizan una función que los beneficia. Algunos han señalado que si una IA intentara una adquisición, podría considerar que una relación simbiótica similar es mucho más deseable que nuestro exterminio.
- Si lideraras una expedición de extraterrestres a una Tierra post apocalíptica, ¿cómo reaccionarías si los humanos sobrevivientes atacaran a tu equipo y comenzaran a comer su carne? Si tienes un conocimiento previo de la humanidad antes de la caída, ¿cómo afectaría esto tu visión de ellos?
- ¿Hay algún trabajo que no sea para todos, o pueden todos lograr algo a través del esfuerzo y la dedicación?
- ¿La religión organizada solo cuenta para el rápido crecimiento de los no creyentes y ateos?
- ¿Cuándo los humanos desarrollaron por primera vez la capacidad de hablar palabras?
- ¿Por qué la humanidad ha perdido su moral y se ha inclinado tan bajo?
Dicho esto, quiero terminar con un recordatorio de que lo máximo que podemos ofrecer en este momento es una conjetura. Tal sistema es extremadamente teórico, y no tenemos una posibilidad realista de producir un programa de computadora con una agencia genuina en el futuro. Hasta que no avancemos lo suficiente en el campo de la investigación de la IA, que la creación de una IA sólida sea una tarea plausible, nadie está en posición de evaluar inteligentemente qué tipo de riesgos asumiríamos en su creación.