Soy un aficionado total en este sentido, pero mi amigo ateo y yo hemos trabajado en esto. Me encantaría compartir lo que hemos discutido.
Su teoría de la moralidad es que existe un comportamiento óptimo entre dos personas en el universo y que el comportamiento óptimo se puede usar para construir una moralidad, incluso en ausencia de un poder superior.
Piénselo de esta manera: humano o no, si dos personas emergen del bosque y se reúnen por primera vez, solo hay tres posibles cursos de acción:
Opción 1: da la vuelta y regresa de donde vienes.
- Hipotéticamente, ¿qué pasaría con un humano inmortal que está encerrado en un ataúd hasta el final del universo?
- ¿Quién dirías que es actualmente el humano ‘más evolucionado’?
- ¿En qué se diferenciaría la civilización humana si los perros (K9s) nunca existieran?
- ¿Por qué los humanos desean interferir en los asuntos personales de otros semejantes?
- Si la IA reemplaza completamente a los humanos, ¿qué harán realmente los humanos?
Opción 2: golpea al individuo sobre la cabeza con tu club.
Opción 3: Intente cooperar con este individuo.
La opción 1 proporciona la certeza más inmediata, y tiene la ventaja de limitar sus inconvenientes (es decir, la posibilidad de que la otra persona lo mate). Sin embargo, esta opción también limita su posible alza ya que pierde la ganancia del # 3.
La opción 2 proporciona la menor cantidad de certeza. No tienes idea si puedes, de hecho, vencer a esta persona en un enfrentamiento violento. Usted tiene el máximo riesgo a la baja y absolutamente ningún alza. No ganas nada y arriesgas todo. Definitivamente sub-óptimo.
La opción 3 le brinda un inconveniente moderado (es decir, la posibilidad de que la otra persona lo mate), con el máximo potencial. Dependiendo de su situación, esta opción puede o no ser óptima. Por ejemplo, si tiene tres años de alimentos almacenados, no necesita cooperación. La eliminación del riesgo a la baja es óptima. Sin embargo, si se está muriendo de hambre, tiene poco que perder, por lo que esta es la decisión óptima en ese caso.
En última instancia, la decisión óptima es 1 o 3. Sin embargo, la supervivencia en solitario indica que, al menos en algún momento, se morirá de hambre. Por lo tanto, la opción 3 será óptima eventualmente. En ningún caso, la opción 2 es óptima (a menos que se ataque primero).
Y así tenemos nuestra primera regla moral: no mates a alguien más. Sin embargo, para mantener el objetivo de cooperación de la Opción 3, ahora debemos analizar el siguiente paso …
Podríamos continuar, pero esa es la idea fundamental: razonar desde los primeros principios hasta estructuras más avanzadas. Es una idea que me intriga mucho, más intelectualmente que cualquier otra cosa.