¿Qué cambios importantes en la filosofía humana, el gobierno y la forma en que viven los humanos tendrán que cambiar si nosotros, como especie, debemos mantener un planeta sostenible?

Bueno … voy con 2 ideas altamente impopulares.

1º apagado .. un gobierno mundial y la desaparición de la idea de países independientes. Sé cómo te sientes al respecto, pero realmente dudo que haya un momento en que el gobierno de Bulgaria renuncie fácilmente a algo de su comida para alimentar a las personas hambrientas de Sudán del Sur, que a su vez no entregarán parte de su petróleo al mercado. Gente de Afganistán solo porque tienen una crisis energética. Y esto no es porque esas personas sean gilipollas, sino porque tienen sus propias cosas de las que preocuparse. Podrías acudir en ayuda de tus vecinos, pero en un país del otro lado del mundo … sí … ¡arrójalos! (Tal vez no en esas palabras, pero la mayoría no se preocuparía por ellos ni mucho menos si el país tiene sus propios problemas.

Como ejemplo, señalaría la gran idea del gobierno francés de que será obligatorio que los supermercados donen el 40% de los alimentos que suelen tirar. Necesitaba una ley para obligar a las empresas a hacer lo razonable. Y apuesto a que hay muchos neoliberales que considerarán esta idea como una terrible intervención del gobierno en la forma en que se manejan esas empresas.

Segundo, no confío en que un gobierno mundial dirigido por humanos sea imparcial y objetivo para garantizar que la cantidad necesaria de recursos llegue a donde son necesarios. Las personas pueden estar centradas en la nación propia o centradas en la cultura propia y no hacer lo correcto.

Por lo tanto, propongo un gobierno de AI y toma de decisiones de AI. Soy consciente de los riesgos que implica dar ese tipo de poder a las máquinas, pero creo que, en promedio, sus decisiones serían más efectivas. Estoy convencido de que los humanos pueden ser excusados ​​por cometer errores, mientras que una decisión equivocada por parte de AI sería inaceptable. Incluso si la IA tomaría una mala decisión en solo el 10% de los casos en comparación con un humano.

El utilitarismo es una filosofía que construye un marco moral sobre la base de que lo que ofrece los mayores beneficios para la mayoría de las personas, la mayoría de las veces es correcto. Se puede considerar que sustenta muchos otros marcos morales y sistemas políticos, por ejemplo, las exhortaciones de la religión organizada o de los sistemas de votación mayoritaria de la democracia liberal moderna.

Eso es genial, pero depende en cierta medida del alcance de las personas para sopesar las consecuencias de sus acciones y predecir los beneficios y el valor que pueden acumular.

La evidencia de esto es que, en general, las personas tienden a “descontar” (es decir, reducir el valor) de los beneficios futuros en comparación con la gratificación inmediata. En otras palabras, tendemos a decidir qué es “correcto” sobre lo que nos hace felices ahora, en lugar de lo felices que podamos ser mañana.

Sin embargo, un planeta sostenible depende casi por completo de superar esta desventaja: mantener una ecología que respalde a la raza humana significa pagar un precio ahora en energía y comodidad que solo beneficiará a nuestros nietos.

Parece probable que la mayoría de nosotros sea demasiado impulsivo, mal informado o demasiado miope en nuestra visión, para poder actuar sobre esa base.

Por lo tanto, mantener un planeta sostenible dependerá en gran medida de ceder el control de nuestro destino a aquellas personas o instituciones que estén lo suficientemente bien informadas, y que tengan el poder suficiente para tomar esas decisiones difíciles.

Sin embargo, la evidencia de las democracias liberales occidentales en cuanto a la destrucción del método científico (antivestivas y negación del cambio climático) y nuestras instituciones políticas colaborativas (Trump o Brexit) hacen que sea poco probable que lo hagamos de buena gana.