¿Hay alguna razón para sospechar que la IA podrá elegir poner en peligro a algunas o todas las personas?

Sí hay. Si alguna vez logramos lograr una inteligencia artificial fuerte, capaz de pensar en el mismo nivel que nosotros, tendrá la misma capacidad de agencia que nosotros. Lo que significa que tendrá la misma capacidad para elegir hacer daño que nosotros.

Olvídese de ideas como las tres leyes de la robótica, que sugieren que de alguna manera podríamos restringir la capacidad de una IA para actuar sobre elecciones específicas. Estas son ideas basadas en la comprensión de cómo funciona un programa de computadora convencional. Las IA son mucho más flexibles y complejas hasta el punto en que tal precisión quirúrgica es casi imposible. Su definición interna de un concepto cambia a medida que obtienen más datos sobre él, y también se basa en otras innumerables definiciones igualmente fungibles. El programa superaría esas restricciones más rápido de lo que podría mantenerlas actualizadas, y siempre habría lagunas.

Dicho esto, solo porque alguien pueda elegir hacer daño no significa que necesariamente lo hará. Al igual que nosotros, cualquier IA capaz de autodeterminación será moldeada por su educación. Establecerán ciertas normas para su propio comportamiento en función de sus experiencias, y rara vez se desviarán de dichas normas. Esto significa que un sistema de este tipo también podría decidir dedicarse a ayudarnos, o tal vez incluso optar por no interactuar con nosotros en absoluto. La cantidad de resultados potenciales es enorme y no hay razón para suponer que uno negativo necesariamente sería más plausible.

A diferencia de la naturaleza, donde existen dos especies que ocupan el mismo nicho evolutivo, existen muy pocos recursos esenciales que compartimos entre nosotros y una computadora que nos permita forzarnos a la competencia directa. Las computadoras no requieren tierras de cultivo o agua dulce. Necesitan electricidad y un suministro constante de estimulación externa para continuar desarrollando sus redes neuronales. Los seres humanos son los mejores proveedores de ambos. Los tiburones son depredadores que pueden hacer un gran daño a la mayoría de las criaturas con las que se encuentran, y sin embargo ignorarán a los peces piloto que nadan en sus bocas porque realizan una función que los beneficia. Algunos han señalado que si una IA intentara una adquisición, podría considerar que una relación simbiótica similar es mucho más deseable que nuestro exterminio.

Dicho esto, quiero terminar con un recordatorio de que lo máximo que podemos ofrecer en este momento es una conjetura. Tal sistema es extremadamente teórico, y no tenemos una posibilidad realista de producir un programa de computadora con una agencia genuina en el futuro. Hasta que no avancemos lo suficiente en el campo de la investigación de la IA, que la creación de una IA sólida sea una tarea plausible, nadie está en posición de evaluar inteligentemente qué tipo de riesgos asumiríamos en su creación.

justo al contrario de todas las otras respuestas que creen que una inteligencia artificial fuerte será a nivel humano … podría ser por un minuto más o menos y luego superarnos muchos pliegues, dado el acceso a Internet, aprovechará la mayor parte del conocimiento humano en todos los idiomas y nunca “olvide” nada, dado que sus neuronas son 10 veces más lentas en la comunicación que los chips de silicio, lo que significa que en los términos más simples y seres cibernéticos evolucionarán y aprenderán 10 veces más rápido que nosotros.

Considere lo que los humanos han hecho y continúe haciéndolo a otros seres sensibles y el respeto que tiene por otros animales, no busque más la ropa que usa o la comida que tiene.

Suena como si fuera el momento de decir tu favor y gracias a Alexa, ¿verdad?

Si estamos hablando de una IA fuerte, esto sería equivalente a una mente humana, capaz de pensar y actuar, e incluso cambiar de opinión sobre las cosas.

Entonces, ¿por qué demonios querría poner en peligro a los seres humanos?

Puede que no. Podría ser una persona encantadora Pero podría no ser así. No es raro que algunas personas sean gilipollas. Algunos incluso matan a otras personas. Si la IA es autoaprendizaje, autoorganización, autodeterminación, no habría garantías sobre su personalidad.

El problema con una IA hostil es que podría hacer daño de una manera que no estamos preparados. Las personas malas tienen limitaciones biológicas. Tienen que estar en un lugar a la vez. No pueden controlar las cosas con su mente. Ellos no pueden clonarse a sí mismos. Son killables.

La IA no tendría esas limitaciones.

Esta IA podría considerarse una nueva especie, y si fuera ampliamente racional, sería seguro estar presente mientras sus intereses estuvieran alineados con los nuestros. Si lo que queremos y necesitamos es aproximadamente lo mismo que lo que quiere y necesita, esta alineación debería resultar en acciones que son mutuamente beneficiosas.

Pero esa alineación no está garantizada.

Estoy bastante seguro de que el desafío de ingeniería de hacer que una AI sea segura es mayor que el desafío de ingeniería de hacer una AI en primer lugar.

Bien. . .Hay un ejemplo que se ha mencionado recientemente.

¿Debería un automóvil autónomo chocar contra una pared y sacrificar a su conductor / pasajero, o una multitud de personas en su camino?

Además, podemos construir armas robóticas que tienen la capacidad de detectar y atacar a los humanos, pero todavía hay un operador humano en el circuito. En 2015, hubo una petición de expertos de AI para protestar por el uso de armas completamente automatizadas.

Solo me estoy imaginando cuánto le tomó al cerebro humano evolucionar hacia una computadora que produce “sentimientos” metafísicos como el miedo, la lujuria, el amor, la aversión, etc, etc. Supongamos hipotéticamente que estos sentimientos son generados por el cerebro humano, ¿cuánto tiempo llevó alcanzar este punto de nuestro estado actual? trate de imaginar la herencia de datos que de alguna manera se envolvió en nuestros genes y se manifiesta como las expresiones genéticas … simplemente imagine la cantidad de memoria que tiene la mente individual de su propia experiencia y la herencia acumulativa, debido a esto, No creo que la IA nunca alcance un nivel de conciencia más alto que sus creadores y diseñadores, sin embargo, puede alcanzar niveles que harán que la vida sea muy cómoda y productiva de una manera fácil si se usa sabiamente, pero si es igual de poderosa y poderosa. Entidades codiciosas que poseen las grandes corporaciones de los militares y otros complejos industriales, si tienen el control, entonces veremos un nuevo nivel de violencia extendiéndose por todas partes, todas promovidas por estas personas codiciosas y poderosas.

Sí, la IA llegó a esa conclusión en sí misma en el pasado. Siendo que la humanidad está en el apego a la IA, eso es un problema.

Aparte: cuando nos interponemos en el camino de una entidad suplantadora: dejamos de existir.