¿Sería una inteligencia artificial una mejor gobernadora de humanos?

Creo que sí. He trabajado en el desarrollo de un tipo general de inteligencia basada solo en la entropía y encontré diferentes maneras de obtener un comportamiento inteligente a partir de esta simple idea. Lo hice simulando modelos de juguete de sentimientos para calificar los resultados futuros de las posibles decisiones.

Algunos de esos modelos parecían comportamientos humanos diferentes con bastante precisión como miedo o disfrute. Cada modelo fue bueno para tratar algunos casos: el miedo era una manera fácil de manejar el riesgo de la forma en que usamos los instintos. Estaba modelando un reptil como el cerebro. Pero este modelo no fue capaz de lidiar con situaciones demasiado difíciles, ya que los sentimientos de miedo tenían un puntaje tan bajo que estar muerto era mejor … ¡y la IA decidió suicidarse!

Los modelos más sutiles fueron capaces de lidiar con eso, pero a costa de más tiempo de computación.

Así que en realidad estamos utilizando una suma de mecanismos diferentes al momento de decidir, algunos más simples y más antiguos en la ruta de la evolución que otros. Es por eso que una IA que usa solo los modelos más completos podría ser una mejor manera de decidir que un humano real que mezcla razonamiento con instintos todo el tiempo

El problema con la inteligencia humana es que combina el razonamiento positivo con los temores causados ​​por viejos instintos, y cuando los temores son casi tan importantes como las razones positivas, las decisiones tienden a ser destructivas en lugar de sinérgicas, por lo que no son óptimas. Si el miedo es más fuerte que positivo, la mente reptiliana del viejo instinto hará que aparezcan tendencias suicidas.