La respuesta de Tom Allen es una excelente respuesta a la pregunta literal. Pero la pregunta en sí misma es errónea, a pesar del hecho de que probablemente me encuentro con diez artículos al mes que plantean este dilema.
El dilema no es real.
La gran mayoría de las colisiones automovilísticas de hoy:
A) No suceda “de repente” lo suficiente como para justificar tal dilema
B) ¿No son los tipos de incidentes que crearán los autos autónomos?
Desafío a cualquiera a encontrar, en cualquier estudio legítimo sobre el tráfico y las colisiones, un escenario único que se registre como “repentino” en la escala de la velocidad computacional de un AV. Aparte de eso, la noción de potenciar la inteligencia artificial con procesos humanos de toma de decisiones para resolver un comportamiento humano defectuoso es estúpidamente miope. AI no piensa como nosotros.
- ¿Qué son el buen karma y el mal karma?
- ¿Son las élites de este mundo malas?
- ¿Puede uno ser tan feliz e inteligente al mismo tiempo?
- ¿Qué es lo mejor que decidiste hacer?
- ¿Cuál es la dirección de Feng Shui de un Buda que se ríe? ¿Por qué?
A. Las colisiones no son repentinas
Recuerde una hora en su automóvil cuando tuvo que pensar y reaccionar extremadamente rápido. No importa si tomaste la decisión correcta o no; ¿Cuánto tiempo crees que pasó entre el momento en que ocurrió el escenario y el momento en que aplicaste una fuerza útil en los pedales o el volante? Es probable que haya pasado más de 1 segundo completo, incluso si estuvo completamente atento y tuvo un tiempo de reacción del conductor superior a la media. En la mayoría de los casos, lleva más tiempo que eso … y recuerde, aquí solo estamos hablando de escenarios en los que asumimos que no había información previa disponible en el entorno para planificar o mitigar la probabilidad de colisión, que todavía estoy esperando alguien para presentar ejemplos de.
Siempre hay pistas ambientales, e incluso si no hubiera, hay un precedente (por lo que los autos de Google esperan un segundo después de que la luz se vuelve verde para pasar a una intersección. Suceden cosas malas durante la transición de rojo a verde). La frecuencia, el volumen y la velocidad de procesamiento de estos AV ya tienen, y mucho menos lo tendrán, borra cualquier noción de un evento “repentino”. El resultado es que el dilema del OP no existirá, porque los vehículos no se colocarán en esas situaciones. Muéstrame una situación de colisión que aparezca instantáneamente y no requiera más de unos pocos milisegundos de reacción, y te mostraré un problema que es demasiado rápido para que la IA lo procese, lo cual es el punto de Tom Allen. Ninguna de las éticas que podríamos impartir a la IA se podría recordar y aplicar a tiempo … y no importa de todos modos, porque para los humanos, el evento sería instantáneo.
B. AVs no entrarán en este tipo de incidentes
Debatir qué harán los autos que conducen por sí mismos durante las colisiones inminentes supone que las colisiones son accidentes inevitables. Pero, como he expuesto anteriormente, lo que llamamos accidentes en realidad son solo errores, y generalmente una serie de ellos en un período de tiempo muy manejable. Los incidentes que conocemos hoy como colisiones no ocurrirán (al menos, no serán causados por AVs… No puedo hablar por la docena de personas que han golpeado los autos de Google http://www.google.com/selfdrivin …)
Los vehículos autónomos entrarán en dos tipos de incidentes: uno de ellos es una colisión que no está relacionada con el dilema del OP, y el otro es una no colisión que está relacionada con el dilema.
1. Overfitting / malfunciones / etc
Estos son los escenarios cada vez más reducidos en los que un AV no reconocerá que se está materializando un incidente. Si observa los vehículos de los desafíos de DARPA de años anteriores, verá ejemplos de esto. No es que un automóvil esté moralmente inseguro de si golpear o no un buzón; es que el auto no ve el buzón, o lo ve y cree que es una carretera abierta. Solo cuando detecte el impacto real se dará cuenta de que se ha producido una anomalía. Estos problemas son casi totalmente técnicos, y el único dilema moral es si nos levantamos o no como una sociedad sobre una tecnología que simplemente atropella a un niño que vestía de negro y se acostaba en el medio del camino. la pendiente de una cresta. Pero incluso aquí, la lógica de la respuesta de Tom Allen se aplica: 85 personas mueren cada día en accidentes automovilísticos. Cuanto más tiempo quiera pasar la sociedad tratando de analizar y resolver para el niño que podría morir por un AV (en una situación en la que aprendió y enseñó al resto de la flota de vehículos, no menos), más personas morirán en el mientras tanto. Por lo tanto, si el debate que la gente quiere tener es qué hacer cuando un AV funciona mal, está bien … pero sepa que es probable que se pierda más capital social en la discusión que en dejarlo ir.
2. Decisiones basadas en la moneda.
Un auto con auto-conducción podría decidir que debes morir – Backchannel
El mayor dilema ético en los autos autónomos no tiene cobertura en los medios de comunicación ni en el mundo académico (el anterior es mi propio artículo; disculpas por el desvergonzado tapón). Podría involucrar colisiones, pero la mayoría de las veces solo involucrará las interacciones cotidianas que tomas para concedido.
La gente dice que la seguridad es la prioridad # 1 para los autos autónomos … pero no puede ser. La inteligencia artificial que vemos que se usa hoy se las arregla con esa prioridad (es decir, en caso de duda, detenga el automóvil) solo porque el resto de las personas en la carretera están al menos ligeramente interesadas en seguir las reglas establecidas.
Ahora, coloque toda una flota de vehículos autónomos en la carretera. Todos ellos están diciendo, “en caso de duda, detén el auto”. Si usted es un peatón que está esperando para cruzar una intersección, y sabe que la totalidad del tráfico se detendrá si da un paso enfrente, ¿no lo haría? ¿Al menos algunos de nosotros, alguna vez?
Hay muchos escenarios como este que actualmente no existen, pero si piensa en algo que no hace en el tráfico hoy, es probable que lo haga mañana. Y es por eso que la seguridad no puede ser P1 … cualquier cosa podría detener toda la red de tráfico al negarse a ceder el derecho de paso. Un niño en una patineta, una chica que corre a la reunión para la que llega tarde, un perro que se suelta, un cochecito de bebé que rueda por la calle, etc.
¿Por qué no sucede esto hoy? Porque tenemos un modelo mental de moneda. No salgo corriendo por una intersección concurrida porque la recompensa no supera el riesgo. Si pensara lo contrario, hay una buena posibilidad de que me golpeen debido a la moneda de un conductor: el hecho de poder manejar de manera semi-atenta 45 mph en una zona urbana ocupada durante toda su vida supera el riesgo de golpear a un idiota que corre a la calle .
AI necesita tener moneda. Ese es el dilema. ¿Cómo pueden los humanos “inyectar” la moneda moral cuando a) no podríamos documentarla nosotros mismos si lo intentamos, b) todos operamos con diferentes modelos de moneda, yc) nuestra visión del mundo es tan pequeña que incluso si pudiéramos documentarla y ¿ Todos estuvieron de acuerdo con un modelo, la inteligencia colectiva de la IA tendría un mayor nivel de conciencia que el colectivo humano y, por lo tanto, tendría problemas morales para resolver que nunca imaginamos, ni entendemos?