¿Cómo un automóvil autónomo va a priorizar vidas cuando alguien está seguro de morir en una situación?

La respuesta de Tom Allen es una excelente respuesta a la pregunta literal. Pero la pregunta en sí misma es errónea, a pesar del hecho de que probablemente me encuentro con diez artículos al mes que plantean este dilema.

El dilema no es real.

La gran mayoría de las colisiones automovilísticas de hoy:
A) No suceda “de repente” lo suficiente como para justificar tal dilema
B) ¿No son los tipos de incidentes que crearán los autos autónomos?

Desafío a cualquiera a encontrar, en cualquier estudio legítimo sobre el tráfico y las colisiones, un escenario único que se registre como “repentino” en la escala de la velocidad computacional de un AV. Aparte de eso, la noción de potenciar la inteligencia artificial con procesos humanos de toma de decisiones para resolver un comportamiento humano defectuoso es estúpidamente miope. AI no piensa como nosotros.

A. Las colisiones no son repentinas

Recuerde una hora en su automóvil cuando tuvo que pensar y reaccionar extremadamente rápido. No importa si tomaste la decisión correcta o no; ¿Cuánto tiempo crees que pasó entre el momento en que ocurrió el escenario y el momento en que aplicaste una fuerza útil en los pedales o el volante? Es probable que haya pasado más de 1 segundo completo, incluso si estuvo completamente atento y tuvo un tiempo de reacción del conductor superior a la media. En la mayoría de los casos, lleva más tiempo que eso … y recuerde, aquí solo estamos hablando de escenarios en los que asumimos que no había información previa disponible en el entorno para planificar o mitigar la probabilidad de colisión, que todavía estoy esperando alguien para presentar ejemplos de.

Siempre hay pistas ambientales, e incluso si no hubiera, hay un precedente (por lo que los autos de Google esperan un segundo después de que la luz se vuelve verde para pasar a una intersección. Suceden cosas malas durante la transición de rojo a verde). La frecuencia, el volumen y la velocidad de procesamiento de estos AV ya tienen, y mucho menos lo tendrán, borra cualquier noción de un evento “repentino”. El resultado es que el dilema del OP no existirá, porque los vehículos no se colocarán en esas situaciones. Muéstrame una situación de colisión que aparezca instantáneamente y no requiera más de unos pocos milisegundos de reacción, y te mostraré un problema que es demasiado rápido para que la IA lo procese, lo cual es el punto de Tom Allen. Ninguna de las éticas que podríamos impartir a la IA se podría recordar y aplicar a tiempo … y no importa de todos modos, porque para los humanos, el evento sería instantáneo.

B. AVs no entrarán en este tipo de incidentes

Debatir qué harán los autos que conducen por sí mismos durante las colisiones inminentes supone que las colisiones son accidentes inevitables. Pero, como he expuesto anteriormente, lo que llamamos accidentes en realidad son solo errores, y generalmente una serie de ellos en un período de tiempo muy manejable. Los incidentes que conocemos hoy como colisiones no ocurrirán (al menos, no serán causados ​​por AVs… No puedo hablar por la docena de personas que han golpeado los autos de Google http://www.google.com/selfdrivin …)

Los vehículos autónomos entrarán en dos tipos de incidentes: uno de ellos es una colisión que no está relacionada con el dilema del OP, y el otro es una no colisión que está relacionada con el dilema.

1. Overfitting / malfunciones / etc

Estos son los escenarios cada vez más reducidos en los que un AV no reconocerá que se está materializando un incidente. Si observa los vehículos de los desafíos de DARPA de años anteriores, verá ejemplos de esto. No es que un automóvil esté moralmente inseguro de si golpear o no un buzón; es que el auto no ve el buzón, o lo ve y cree que es una carretera abierta. Solo cuando detecte el impacto real se dará cuenta de que se ha producido una anomalía. Estos problemas son casi totalmente técnicos, y el único dilema moral es si nos levantamos o no como una sociedad sobre una tecnología que simplemente atropella a un niño que vestía de negro y se acostaba en el medio del camino. la pendiente de una cresta. Pero incluso aquí, la lógica de la respuesta de Tom Allen se aplica: 85 personas mueren cada día en accidentes automovilísticos. Cuanto más tiempo quiera pasar la sociedad tratando de analizar y resolver para el niño que podría morir por un AV (en una situación en la que aprendió y enseñó al resto de la flota de vehículos, no menos), más personas morirán en el mientras tanto. Por lo tanto, si el debate que la gente quiere tener es qué hacer cuando un AV funciona mal, está bien … pero sepa que es probable que se pierda más capital social en la discusión que en dejarlo ir.

2. Decisiones basadas en la moneda.

Un auto con auto-conducción podría decidir que debes morir – Backchannel
El mayor dilema ético en los autos autónomos no tiene cobertura en los medios de comunicación ni en el mundo académico (el anterior es mi propio artículo; disculpas por el desvergonzado tapón). Podría involucrar colisiones, pero la mayoría de las veces solo involucrará las interacciones cotidianas que tomas para concedido.

La gente dice que la seguridad es la prioridad # 1 para los autos autónomos … pero no puede ser. La inteligencia artificial que vemos que se usa hoy se las arregla con esa prioridad (es decir, en caso de duda, detenga el automóvil) solo porque el resto de las personas en la carretera están al menos ligeramente interesadas en seguir las reglas establecidas.

Ahora, coloque toda una flota de vehículos autónomos en la carretera. Todos ellos están diciendo, “en caso de duda, detén el auto”. Si usted es un peatón que está esperando para cruzar una intersección, y sabe que la totalidad del tráfico se detendrá si da un paso enfrente, ¿no lo haría? ¿Al menos algunos de nosotros, alguna vez?

Hay muchos escenarios como este que actualmente no existen, pero si piensa en algo que no hace en el tráfico hoy, es probable que lo haga mañana. Y es por eso que la seguridad no puede ser P1 … cualquier cosa podría detener toda la red de tráfico al negarse a ceder el derecho de paso. Un niño en una patineta, una chica que corre a la reunión para la que llega tarde, un perro que se suelta, un cochecito de bebé que rueda por la calle, etc.

¿Por qué no sucede esto hoy? Porque tenemos un modelo mental de moneda. No salgo corriendo por una intersección concurrida porque la recompensa no supera el riesgo. Si pensara lo contrario, hay una buena posibilidad de que me golpeen debido a la moneda de un conductor: el hecho de poder manejar de manera semi-atenta 45 mph en una zona urbana ocupada durante toda su vida supera el riesgo de golpear a un idiota que corre a la calle .

AI necesita tener moneda. Ese es el dilema. ¿Cómo pueden los humanos “inyectar” la moneda moral cuando a) no podríamos documentarla nosotros mismos si lo intentamos, b) todos operamos con diferentes modelos de moneda, yc) nuestra visión del mundo es tan pequeña que incluso si pudiéramos documentarla y ¿ Todos estuvieron de acuerdo con un modelo, la inteligencia colectiva de la IA tendría un mayor nivel de conciencia que el colectivo humano y, por lo tanto, tendría problemas morales para resolver que nunca imaginamos, ni entendemos?

En una palabra, no.

El artículo presume que un vehículo auto-conducido se encontrará en una situación desesperada: a saber, que se presentará de forma inesperada e imprevisible con una elección imposible. Del artículo:

Todas las opciones conducen a la ruina, ya sea para el conductor o para los peatones involucrados. El problema con estos escenarios es que son esencialmente imposibles.

Las opciones “A” y “C” suponen que una multitud de personas aparecería repentinamente frente a un automóvil. Es increíble. Las multitudes casi siempre se mueven de manera lenta y uniforme, y el conjunto de sensores de un auto-conducido va a “ver” a una multitud como esa a cientos de pies de distancia. Cuando el automóvil vea un obstáculo adelante (ya sea una multitud de personas, otro automóvil, un montón de piedras, lo que sea), disminuirá la velocidad. No se anticipa ninguna colisión.

En la opción “B”, una persona puede aparecer de manera repentina e impredecible frente a un vehículo que se conduce solo. Tal vez esta es una persona que inexplicablemente se encuentra con el tráfico que se aproxima. Si es así, es casi seguro que el vehículo va a golpear al peatón (auto-conducido o no), ya que no habrá tiempo para corregir el rumbo (si hubiera tiempo para virar y virar, el auto debería poder detenerse).

Aún así, en el escenario “B”, un auto auto-conducido hará un trabajo MUCHO mejor para responder a la repentina aparición de un peatón que un conductor humano normal. Lo que es más, los sistemas de “tráfico cruzado” están mirando mucho más allá del campo de visión humano normal para tratar de detectar esto mismo (un peatón que corre en el tráfico, un automóvil que sale de un callejón, etc.):


Este gráfico muestra que los sistemas de radar de los vehículos (que son muy asequibles y relativamente comunes ahora) están sintonizados para detectar el tráfico que se cruzará frente al vehículo. Las probabilidades son buenas de que este radar “vea” al peatón que corre hacia el tráfico, y el auto anticipará una colisión y frenará.


Lo más importante que las personas deben entender acerca de los vehículos que conducen por sí mismos es que pueden ver MUCHO mejor que los humanos . Pueden ver por la noche igual que lo hacen durante el día, al menos si están equipados con radar y / o LIDAR. Pueden ver a través de objetos semisólidos (como otros autos) usando un radar. Pueden analizar imágenes en 3D para leer letreros, luces destellantes y destellos de carreteras, etc.

Básicamente, un auto auto-conducido es muy consciente del mundo que lo rodea como para caer en una de las trampas descritas por el autor del artículo de Technology Review .

No obstante, con los sistemas de comunicación V2X (un aspecto esencial de los sistemas autónomos) los vehículos compartirán datos entre sí, así como también con infraestructura. Un día, en un futuro no muy lejano, una cámara de calle municipal “inteligente” advertirá a todos los vehículos que se aproximan de un peatón que camina sin pensar en el tráfico. Estos vehículos luego advertirán a otros vehículos que están a punto de disminuir la velocidad. Etc.


Esta tecnología esencialmente expandirá el sistema de sensores de un solo vehículo para abarcar docenas de sensores adicionales. Cuando finalmente veamos que esta tecnología está completamente implementada (y estamos hablando de más de 20 años para la integración total de V2X, ya que el componente de infraestructura será más lento de implementar), veremos increíbles mejoras en la seguridad para conductores, ciclistas y peatones.

No hay que preocuparse por situaciones hipotéticas de “muerte”, al menos no si asumimos que las personas actúan de manera normal y esperada.

Ah, el viejo Trilley Dilemma (con un toque futurista!)


Cuando se trata de autos sin conductor, ¿le gustaría tener el poder de mutilar un área de juegos para 5 niños o un anciano con un bastón? Éticamente, la mayoría elegiría lo último. ¿Por qué? Porque nadie quiere ver morir a niños inocentes que son jóvenes, por supuesto. Pero, ¿deberías tener el poder de elegir un destino así? ¿Y si ese viejo viviera? ¿Podría ser demandado? ¿O sería demandado el fabricante?

Estas preguntas hacen que este debate sea muy complicado, por cierto. Para responder a la pregunta anterior de si usted o el fabricante serían demandados, el fabricante lo haría. El fabricante estableció el algoritmo para permitir que una persona sea asesinada sobre otra. Ese anciano podría demandarlos por lo que valen. La única forma en que pueden priorizarlo es permitir al usuario el control con una “configuración de ética” o el control total de la máquina. Pero, si le dieran los llamados “ajustes de ética” para su automóvil, aún serían responsables (según el artículo de Wired). ¿Pero estarías fuera del gancho? Posiblemente no, porque TÚ los golpeaste en el auto. ¡Es casi como un asesinato premeditado, no un homicidio! Sería un desastre absoluto permitir que los usuarios tengan este tipo de poder porque está previsto cuál será el resultado.

De todos modos, no creo que haya un entorno de ética porque:
1) Podría llevar a batallas legales complicadas sobre quién es responsable de si ocurre un accidente.
2) Sería frustrante para el cliente.
Por ejemplo, Oh, chico, ¿debería configurarlo para matar un patio lleno de niños con aceleración o yo mismo en un freno rápido? ¡Eso es un rudo!
3) Posiblemente las noticias más sensacionalistas.
Por ejemplo, Noticias de última hora: se dice que un hombre puso su auto para atacar a los niños en un parque sobre sí mismo. Se ha demostrado que, él tiene problemas de abandono infantil. Más sobre eso cuando volvamos.

Lo único que puedo ver en el futuro inmediato es hacer que un automóvil esté prácticamente libre de accidentes. Las configuraciones son establecidas por el fabricante y tienen que hacer un retiro total de los vehículos según los estándares de ética de algunos reguladores. O eso o nos pueden dar esos ajustes y renunciar a la responsabilidad para que podamos enfrentarnos a las demandas legales. Para 2020 (posiblemente), veremos más vehículos automotores que implican más responsabilidad automotriz. No puedo esperar
Fuentes: Cableado

La respuesta práctica es que el automóvil tendrá que priorizar la vida de sus pasajeros. Intentaría minimizar el daño a las personas fuera del automóvil solo después de proteger a las personas que se encuentran dentro.

¿Porque preguntas? Dos razones.

Primero, esta es la única forma en que alguna vez logrará que la gente confíe lo suficiente en un auto de auto-manejo para entrar. Sí, entiendo que los riesgos serían mucho menos que tener un conductor humano, pero los humanos no siempre somos racionales. Si la gente piensa que su propio automóvil alguna vez los mataría voluntariamente para salvar a otra persona, alguien que es muy probable que tenga la culpa de un accidente, la gente nunca confiará en la tecnología. Siempre. Seguirán conduciendo por sí mismos, asumiendo un mayor riesgo debido a la comodidad de saber que tienen el control. Podemos discutir todo el día sobre ética y moral, pero esa es la realidad. La prioridad de los pasajeros es la única forma en que esta tecnología logra llegar a la carretera.

En segundo lugar, no priorizar a los pasajeros abre algunas vulnerabilidades inquietantes. Imagina que alguien que busca manipular un auto que conduce conduce un maniquí frente a uno. ¿O conduce su propio automóvil no automatizado de forma amenazante, por ejemplo, desviándose hacia el automóvil automatizado en un lugar sin una ruta de escape segura? Alguien podría usar la “moralidad” de la IA como un arma contra los pasajeros del automóvil.

En la práctica, es poco probable que el software pueda determinar el resultado de un posible accidente en otras partes con alta confianza de todos modos. Con mayor razón, los automóviles autónomos se centrarán en proteger a sus propios pasajeros.

Curioso, acabo de escribir sobre esto el otro día en mi blog Innovately y lo he copiado / pegado a continuación:

***

Esta es la solución a la infame paradoja de la auto-conducción de la ética del automóvil.

¿Debería un auto de auto matar a sus ocupantes para salvar a 10 personas?

Esa es la pregunta que muchos se hacen cuando los autos que conducen por sí mismos se hacen realidad rápidamente. Y apenas la semana pasada, apareció un artículo ciertamente fascinante en MIT Technology Review sobre un popular dilema de la ética de los 22 con respecto a los autos que conducen por sí mismos. Dicho de otra manera, ¿deberían los autos autónomos poner las necesidades de los muchos por encima de los pocos o los únicos? El almirante Spock sin duda estaría de acuerdo. Pero entonces, como incluso él ha admitido a menudo, la lógica es solo el comienzo de la sabiduría; de hecho, una respuesta lógica puede ser muy errónea en ciertas situaciones.

A continuación se explica por qué este es realmente un problema para el que ya existe una solución simple y obvia, y por qué no se debe permitir que desacelere el desarrollo de los autos que conducen por sí mismos y cualquier problema legislativo necesario.

Primero, es importante desarrollar completamente este dilema ético que es más complejo, e interesante, de lo que puede parecer a primera vista. La solución de señuelo es sugerir que todos los autos que conducen por sí mismos deben obviamente conducir de una manera que minimice la pérdida de vidas. En la hipótesis hipotética propuesta, obviamente, todos los autos con auto manejo deben tomar las medidas necesarias para evitar matar a n + 1 personas, donde n es igual al número de personas en el auto. Pero esto sería notablemente miope, por no hablar de sub-óptimo, y solo dolor mal.

La paradoja

El problema es el resultado secundario que produciría esta solución: si todos los posibles compradores de autos que manejan autos saben que el auto siempre estará programado para matar a sus ocupantes y así salvar a un mayor número de otras personas, esto reducirá la tasa de adopción. de los autos que conducen por sí mismos: las cosas que intentan matarte generalmente no son muy populares entre los posibles compradores.

El problema entonces es que los autos que conducen por sí mismos nunca alcanzarán el atractivo del mercado masivo, y como resultado, los autos impulsados ​​por el hombre, mucho más letales, permanecerán para siempre en nuestras carreteras. Esto es un catch-22. En virtud de evitar algo que a veces puede intentar matarnos, en realidad aumentamos nuestra probabilidad de ser asesinados.

En otras palabras, es mejor que estemos de acuerdo con, digamos, probabilidades de 1 en 25,000 * de que nuestro automóvil intente matarnos en lugar de otros, en lugar de mantener el status quo y arriesgar una posibilidad de muerte de 1 en 5000 . Pero los humanos simplemente no somos tan lógicos. Seriamente.

Luego, el experimento encuestó a las personas para que decidieran cómo querían que se comportara el automóvil. Los resultados no fueron alentadores: en general, las personas preferían los autos autónomos que sacrificaban a sus ocupantes en defensa de otros, pero solo por otros conductores. Dicho de otra manera, nadie quería un auto que lo manejara solo, pero estaban bien para que otros lo tuvieran: la paradoja.

La prueba de “razonabilidad”.

Claramente entonces, estamos en un callejón sin salida. Sin embargo, no tenemos que serlo: simplemente debemos modelar los automóviles según cómo conduciría una persona razonable en situaciones de emergencia. Afortunadamente, hay muchos precedentes legales para este enfoque.

Al determinar la negligencia, una de las preguntas es si una “persona razonablemente prudente” actuaría en consecuencia. El caso del libro de texto en cuestión era un taxista que se desvió en una acera causando lesiones a un peatón porque su pasajero lo había amenazado con un arma. El problema era si una persona común y corriente podría reaccionar de esta manera en tales circunstancias de emergencia, o si el acusado había actuado de manera irrazonable y, por lo tanto, negligente. Y así tenemos la llamada “doctrina de emergencia”, que es una defensa válida para los actos negligentes.

Aquí, probablemente podamos hacer algunas suposiciones acerca de la sociedad en general: las personas razonables normalmente harán lo que sea necesario para evitar suicidarse o matar a sus ocupantes, siempre que dicha protección no requiera que se desvíen de otros peatones o ciclistas, o incluso de motociclistas. , con un énfasis particular en evitar a los niños y ancianos. Simplemente no es la forma en que las personas razonables reaccionan en tales emergencias.

Por lo tanto, hipotéticos como los que se presentan en el documento, y en todo el Internet (aquí, aquí y aquí) no tienen por qué convertirse en un desastre tan complicado: solo programe autos para conducir de la manera en que se comportarían las personas razonables en situaciones de emergencia, Aplicamos la doctrina de emergencia a los autos, y tenemos nuestra solución.

Si alguna vez hubo un ejemplo de la solución simple que es la correcta, esto es. Esto no tiene por qué ser tan complicado. Ya tenemos una amplia jurisprudencia que aborda tales asuntos; todo lo que tenemos que hacer ahora es programar los autos de auto conducción en consecuencia. E incluso si todavía se equivocan de vez en cuando, lo que sucederá, seguiremos teniendo una solución de magnitud mejor que el status quo, que es inaceptablemente malo.

Vamos a poner estos coches en la carretera ahora .

__________
* Mi estimación basada en el informe de The Economist en agosto que decía “si el 90% de los autos en las carreteras de los Estados Unidos fueran autónomos, los accidentes caerían de 5,5 ma año a 1,3 m”. Por lo tanto, calcular 1/5 accidentes menos debe significar que sus posibilidades de morir deberían disminuir por lo menos tanto.

Todo lo que escribo a partir de ahora se recopilará en mi nuevo blog, Innovately – Stuff lo que importa. Tecnología, automóviles eléctricos, automóviles autónomos, energía limpia, aviación y más. Y como no todo lo que escribo termina en Quora, ¡espero que lo compruebes y compartas con tus amigos!

Se necesitaría algo bastante radical para que el auto esté programado para hacer otra cosa que obedecer la ley sobre dónde puede ir. La ley generalmente especifica claramente dónde tiene el derecho de paso y dónde no. El auto irá a donde tenga el derecho de paso. El automóvil no estará programado para dejar su derecho de paso de manera “insegura”, es decir. posiblemente podría causar daño o daño. Como tal, nunca se saldría de la carretera ni a los carriles que se aproximan, ni a la acera ni a un acantilado para evitar golpear a un jaywalker u otra persona que está en el carril sin derecho de paso. La idea de que un automóvil, o sus programadores, decidan deliberadamente asesinar (sí, asesinar) a alguien que no está en su derecho de paso es ridícula, incluso si lo hace para evitar un autobús escolar lleno de niños que aparecen repentinamente en su ROW.

Eso es lo que dice la ley. Si parece inmoral, cambia la ley y los programadores harán que el auto siga la nueva ley. Hay algunas situaciones muy raras en las que una parte está en su ROW sin ningún error propio (es decir, empujado por otro accidente) pero esto es tan increíblemente raro que sería un error retrasar la tecnología para resolverlo. En cualquier caso, la ley sigue siendo prácticamente la misma. La parte forzada en la ROW no tiene la culpa (la que los forzó), pero tampoco el conductor que continuó en su propia ROW.

Naturalmente, los vehículos harán todo lo posible para detenerse lo más rápido posible en su propio camino legal, reduciendo la gravedad del choque. Y no lo seguirán tan de cerca como para ser incapaces de detenerse, aunque los humanos lo sigan de cerca todo el tiempo. También tendrán tiempos de reacción más rápidos al frenar en tales situaciones si se usa un buen radar.

Sobre todo por no estar nunca en esa situación. Hay un par de premisas bastante falsas en la base de la mayoría de las preocupaciones que no soportan mucho escrutinio:

  1. Que los humanos son buenos conductores.
  2. Que el problema del carro es significativo.

En el primer punto, hay autos de muchas compañías que ya son mucho, mucho mejores que el paquete promedio de testosterona de 18 años de edad, personas distraídas, mensajeros de mandados de mensajes de texto y padres que tratan con niños que gritan. Las computadoras solo prestan atención y siguen haciendo las cosas bien que a la gran mayoría de los humanos les va muy mal, pero lo suficiente como para no tener accidentes.

El problema del carro es más interesante, pero igualmente simplista. Se supone que no hay tiempo ni recursos suficientes para evitar colisiones y, por lo tanto, se debe tomar una decisión peor en forma regular. Los autos autónomos tienen mucho más tiempo para poner en práctica sus recursos, por lo que evitaremos esto prácticamente por completo.

El problema del carro

Hay un carro que se dirige hacia un grupo de cinco personas paradas en la pista, ninguna de las cuales conoce el enfoque del tren. Seguramente serán asesinados a menos que el carro se desvíe hacia su pista alternativa, en la que solo una persona está parada. Usted está situado en el interruptor de la pista, y es el único capaz de desviar el carro para que mate a una persona en lugar de a cinco. ¿Tirarías el interruptor?

Un auto con auto-conducción podría decidir que debes morir – Backchannel

La aplicación a los autos que conducen por cuenta propia es que se verán obligados a tomar una decisión binaria con una sola acción que pueden realizar, encerrándolos de manera efectiva en una ventana con tiempo y recursos inadecuados para evitar cualquier muerte.

Los autos automatizados tienen respuestas de microsegundos ligadas a sensores de mayor agudeza y rango que los equivalentes humanos. Se darán cuenta de que si no hacen algo hasta muy lejos en el futuro de acuerdo con las velocidades a las que operan, podrían verse obligados a tomar una mala decisión binaria. Evitarán el problema del trolley simplemente al no entrar en la ventana del tiempo cuando son incapaces de tomar la decisión de no golpear ni a la una persona ni a las cinco personas.

Imagine un centenar de pistas que salen de la posición del carro en lugar de una división justo antes del impacto. Imagine que el automóvil ve la situación y elige simplemente evitar todo deteniéndose, lo que está completamente en su poder para hacerlo en el tiempo disponible y con los recursos que tiene a su disposición. Imagínate girando a la izquierda de repente.

El experimento mental es interesante, pero bastante irrelevante en el contexto del tiempo y los recursos disponibles para un automóvil.

Algunas cosas a considerar:

. Cuando hay un pasajero, el pasajero es absolutamente el más importante de proteger. Llegué a pensar sobre esto, ya que parece ser una pregunta popular sobre el dilema recientemente (la que me preguntaron mucho es ¿cuál debería proteger el automóvil, los peatones o los pasajeros?). Así que el auto elegirá el mejor curso de acción para proteger al pasajero, ya sea que maten a AMBOS peatones o no, porque ese es su deber, está creado para hacerlo.

. hay pocas posibilidades de que el automóvil reconozca que los obstáculos en el frente eran humanos, y mucho menos reconocer a un anciano y un niño. Usted construiría tal característica si fuera el fabricante, ¿verdad? – ¡Bueno, vamos a ver si vamos a golpear a un humano o un árbol! Además, será un problema legal si el auto reconoce que uno es un hombre viejo y el otro es un niño que realmente elige; eso no es un accidente sino un asesinato discriminado.

. ¿Entonces el coche pensará que hay dos obstáculos, uno más grande y más alto, el otro corto y otro pequeño, cuál crees que golpeará para garantizar la máxima seguridad?

Bueno, ¿por qué solo hay que matar a uno? Podría haber hecho esto:

En realidad, el experimento intentó encontrar qué escenario preferiría el público en general (y los compradores potenciales de automóviles autónomos). Entonces, por supuesto, el público piensa que minimizar las bajas es grande, siempre y cuando no sean una de las víctimas. Si son los peatones, quieren que el auto se desvíe, incluso si eso mata al ocupante. Si son los ocupantes del coche, no tanto.

Así que volvamos y revisemos las 3 leyes de la robótica:

  1. Un robot no puede dañar a un ser humano o, a través de la inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley. [1]

Entonces, ahora necesitamos una ley adicional que describa qué vida o vidas son más valiosas, y para quién. Esto no es una cuestión de ciencia o filosofía, sino una cuestión de comodidad pública con la solución. En pocas palabras, si hay una situación en la que el ocupante del vehículo o el “peatón” probablemente muera, el comprador del vehículo preferiría ser el peatón.

Este es un dilema ético interesante, y honestamente no estoy seguro de cuál es mi postura sobre el tema. Mi experiencia fue en la escritura de sistemas de control para vehículos terrestres robóticos autónomos, específicamente los aspectos de planificación y toma de decisiones. Mi doctorado en particular, analicé una clase de problemas que denominé “Toma de decisiones activa” en la que el espacio del problema en sí cambia mientras el proceso de toma de decisiones está en curso. es decir, los problemas en los que cuanto más tiempo dedique a elegir qué hacer, más antiguos serán los datos que utilizó para tomar esa decisión.

El artículo vinculado en los detalles de la pregunta describe la posibilidad de que los vehículos robóticos puedan elegir entre desviarse para evitar cinco peatones pero golpear a uno, o no desviarse en absoluto y así golpear a cinco. El hecho de tomar esa decisión significa que el vehículo ha elegido deliberadamente virar en un peatón (aunque estructuró esto como una opción para evitar golpear a otros cinco).

Este tipo de elección es absolutamente un problema activo de toma de decisiones: si el vehículo pasa demasiado tiempo eligiendo estrategias, por defecto se introducirá en los cinco peatones. Mi doctorado la investigación habría sugerido participar en la acción predeterminada de cálculo cero (frenar bruscamente y mantener la dirección estable), mientras que al mismo tiempo estimar la cantidad adecuada de tiempo para gastar estrategias de debate. Después de gastar la estimación de la cantidad de tiempo elegida, elija la mejor estrategia encontrada hasta el momento, calcule su solución (es decir, cómo desviarse o no), luego, cuando esta solución esté lista, actíela.

Si las cantidades de tiempo disponibles para elegir se reducen a cero, esta estrategia termina equivaliendo a “activar la acción predeterminada de cómputo cero”, que luego plantea la pregunta de cuál debería ser esta estrategia predeterminada.

Y en este punto cuestiono todo el dilema ético como se presenta en el artículo. No creo que los vehículos autónomos tengan pronto suficientes recursos (sensores, tiempo de CPU, accionadores de control suficientemente reactivos) para hacer una elección significativa para desviarse, independientemente de tener los recursos suficientes para pasar primero el tiempo eligiendo entre múltiples opciones. Así que tenemos que elegir una estrategia por defecto, y tenemos que considerar la posibilidad de que haya situaciones en las que haya literalmente tiempo cero disponible para mover incluso un actuador, y mucho menos calcular cómo moverlo adecuadamente para optimizarlo. Conjunto de restricciones éticas.

Creo que esto nos deja con la estrategia que mis colegas y yo encontramos casi por accidente. Elegimos caracterizar el sistema en términos de niveles de energía, y consideramos que la acción apropiada después de reconocer una colisión inevitable era maximizar la velocidad a la que la energía del sistema se reducía a cero. Dado que mover un actuador requería la adición de energía en el sistema (y, dado que son actuadores motorizados, también requería tiempo para aplicar esta energía, que tampoco teníamos), llegamos a la conclusión de que simplemente no podíamos hacer eso. . Si adopta este enfoque, queda claro que no puede acelerar, no puede conducir, y sí, de forma predeterminada, el vehículo se estrellará contra los cinco peatones. (Y sí, ¡realmente deberías tener un freno a prueba de fallas que requiere la aplicación de energía para desconectarse!)

No sé si esta es la opción más ética, y solo operábamos nuestros vehículos en situaciones controladas en una granja donde el peor resultado probablemente fue chocar contra una vaca, así que confieso que no consideramos que la ética fuera muy buena. grado. En cuanto a la pregunta planteada, creo que mi respuesta por ahora debe ser no, no creo que los vehículos robóticos deban elegir. Afortunadamente, tampoco creo que estén cerca de ser capaces de hacerlo.

Primero, casi nunca es seguro, que alguien va a morir.
Segundo, es muy difícil para un sistema autónomo derivar que alguien va a morir.
La respuesta depende del tipo de sistema autónomo:

a) Los sistemas más simples actualmente están controlados por una red neuronal. La red neuronal se entrenó con muchas situaciones y con la reacción deseada del automóvil. Si la situación que tiene en mente está muy cerca de una de las situaciones entrenadas, reaccionará tal como fue entrenada. Así que depende del entrenador de la red neuronal lo que sucederá. En situaciones de entrenamiento, esperaría que el resultado deseado sea siempre evitar el contacto del automóvil con un humano que se encuentre fuera del automóvil. Entrenar la red neuronal para golpear a un ser humano en situaciones especiales, evitando un accidente fatal del pasajero, podría provocar esta reacción en situaciones similares, que no son fatales para el pasajero. Los entrenadores quieren evitar esto muy probablemente. Por lo tanto, una red neuronal reaccionaría de manera similar a un conductor humano, que por instinto evitaría, por ejemplo, el contacto con un humano afuera a menos que otro objeto sea amenazador (como un automóvil o camión). En una situación de conflicto, la mayoría de las veces se decide por casualidad, cuál es el resultado real (por ejemplo, golpear el auto, golpear al humano o intentar atravesar y golpear a ambos).

b) Los sistemas más complejos tienen una base de reglas. Se analiza la situación actual y se evalúan diferentes caminos posibles. La evaluación asigna “puntos de riesgo de daño” a las rutas y elige la ruta con el número más bajo de “puntos de riesgo de daño”. En tal sistema depende fuertemente de la función de evaluación. ¿Cuántos puntos agrega esta función por daños a una persona que está afuera y cuántos puntos por daños al pasajero? Supongo que ambas vidas son iguales, por lo que el resultado se decidiría por los diferentes riesgos de sufrir daños. Dado que los riesgos son numéricamente casi nunca idénticos, el resultado se decide por una pequeña diferencia en el riesgo (en el ejemplo, el resultado 1: A muere en un 99.99345%, el resultado 2: B muere en un 99.99352%, por lo que el sistema elige 1, ya que las posibilidades son mejor para A).

Los desarrolladores de software de conducción autónoma muy probablemente no priorizarán sus vidas en el futuro cercano, pero muy probablemente tomarán en cuenta el riesgo total de daños a las personas para minimizar el daño total a las personas.

En los Estados Unidos, asumo que habrá casos en los tribunales y que la industria tendrá reglas definidas por los tribunales. Dichas decisiones podrían ser buenas, pero es muy probable que algunas decisiones judiciales para casos individuales causen cambios en el software, que son peores para el público.

Pedir un vehículo autónomo para hacer un juicio ético es un poco prematuro ..!

Se podría argumentar que, una vez que un sistema de inteligencia artificial puede determinar lo que realmente está viendo, solo necesita un conjunto simple de clasificaciones para determinar qué acción debe tomar el sistema. El problema es con el reconocimiento real. La investigación en ese reino ha estado haciendo desde la década de 1960 …

A partir de hoy, los autos sin conductor no han sido probados con lluvia intensa, no pueden evitar los baches y no responden a las instrucciones de los oficiales de policía. La nieve es un horror lejano con el que tampoco han podido lidiar.

Por lo tanto, pedirles que tomen una decisión ética aún está muy lejos de ser una posibilidad.

Algunas de las exageraciones que rodean a los vehículos autónomos son bastante ridículas.

Los fanáticos delirantes sobre el hecho de que los autos con manejo propio aparezcan el próximo año (¡ha sido el año que viene desde hace bastante tiempo!) No son un sustituto para la investigación, la inversión y el desarrollo de algunas soluciones extremadamente inteligentes para problemas sutiles, algunos de los cuales ni siquiera han sido identificados !

Luego están los problemas legales … No menciones los asuntos legales !!

Sí, un día los autos autónomos serán (con toda probabilidad) una realidad.

Pero será gradual, a medida que se prueben , perfeccionen y presenten más y más ayudas automáticas para el conductor a medida que evolucionan los automóviles.

Inicialmente, (un grado de auto-conducción) estará disponible como sistemas avanzados de control de crucero. A medida que la tecnología evolucione, las veces que necesite apagar y tomar el control de crucero se volverán cada vez más raras, hasta que un día los automóviles lo lleven de A a B, donde A y B son casi cualquier lugar accesible por carretera.

La verdadera “llegada” de los autos auto-conducidos será el día en que se le pueda decir a un auto vacío que vaya y se estacione, o incluso que se lleve a casa.

Google está realizando una investigación sumamente inteligente.

Creo que la razón por la que están haciendo la investigación es tanto por los avances secundarios e imprevistos que, sin duda, harán, más el prestigio que obtienen. Están involucrados en una amplia gama de tecnologías de vanguardia, los autos autónomos son solo uno de ellos. (y muchos están vinculados).

¡Tampoco dañará sus precios de las acciones!

Sin embargo, el primer accidente que involucra un automóvil auto-conducido y un niño dañará el precio de sus acciones, ¿cree usted que van a arriesgarse?

El optimismo es excelente, pero no es un sustituto para la investigación real más una dosis de realidad.

Esta es una pregunta que se ha hecho antes en una forma u otra. Sugiero mirar estas tres respuestas anteriores mías:

=========

La respuesta de Bob Reisner a ¿Quién sería responsable si los peatones fueran asesinados por un auto de auto para salvar la vida de los pasajeros? Captura de pantalla:

Siguiente respuesta …

La respuesta de Bob Reisner a ¿Cómo un automóvil autónomo va a priorizar vidas cuando alguien está seguro de morir en una situación? Captura de pantalla:

Otra respuesta más.

La respuesta de Bob Reisner a ¿Qué sucederá cuando un automóvil autónomo tenga que elegir entre dos escenarios, ambos con un choque? Captura de pantalla:

Este es un “caso de uso” muy solicitado para automóviles autónomos en las discusiones. [Los casos de uso provienen de Universal Modeling Language (UML) y Rational Unified Process (RUP); son herramientas útiles para diseñar software]. Algunos autores han llegado tan lejos como para decir que su automóvil autónomo estaría programado para matarlo. Siento disentir. Ciertamente, hay un caso de uso en el que alguien camina en la carretera frente al automóvil, y el automóvil tiene que averiguar qué hacer. ¿Golpea a la persona o se desvía? ¿Se desvía en el tráfico que se aproxima? Lo que sugeriría es que el automóvil calcule las probabilidades de muerte para cada situación. Debido a que la mayoría de las aplicaciones de computadora utilizan números reales con decenas de decimales, es prácticamente imposible que dos números sean exactamente iguales. Por lo tanto, la computadora no está calculando si la persona A vale más que la persona B. Es exactamente cuál es el camino de menor muerte. Dicho esto, la persona en el automóvil es invariablemente más segura que la que está afuera del automóvil. El que tenga la mayor masa amarrada a ellos gana, y el que tenga menos masa acelerará más rápido al impactar. Así que mi conclusión es que no tienes que preocuparte mucho por eso.

Aunque podemos idear hipótesis, en la vida real siempre hay incertidumbres acerca de las consecuencias de nuestras elecciones.

Creo que varias teorías éticas sugerirían que los pasajeros (o: los conductores a través de un proxy robótico) no deberían dar prioridad a sus propias vidas sobre los espectadores inocentes. Dado que el automóvil está programado de antemano, sería lógicamente ético programarlo para evitar la muerte de peatones, incluso con graves riesgos para los pasajeros.

Quizás similar al antiguo caso talmúdico de una persona a la que el tirano le pide que asesine a un inocente, de lo contrario, la persona a la que se le preguntaría sería asesinada. “¿Quién puede decir que su sangre es más roja que la de otro”, es decir, con qué principio moral podemos matar a otro ser humano para salvar nuestra propia vida?

Un posible principio (ver comentarios) es que podría estar permitido matar personas cuando es por accidente y la culpa o negligencia recae en la víctima (o en el tutor de la víctima). Por lo tanto, el niño que corre delante de un automóvil puede distinguirse del caso talmúdico, donde la víctima es seleccionada por el tirano sin que sea culpa suya.

¡Espléndida pregunta sobre una tecnología emergente!

“La ética del robot” de nuevo …

El coche auto-conducido es DUMB. No verá a un hombre de 90 años ni a una niña de 10 años, no podrá emitir un juicio sobre las posibilidades de supervivencia, teorizar sobre la suavidad de cada objetivo y determinar el valor de la vida de cada objetivo y emitir un juicio …

… decidir quién es lo suficientemente valioso para vivir en una fracción de segundo antes del impacto.

No es un humano. Es un ladrillo sobre ruedas, con menos conciencia que una mosca doméstica. Verá una señal de movimiento en el medio ambiente y no sabrá realmente qué es esa señal: una niña, un anciano, una estatua o un poste de luz.

Debido a esto, lo más probable es que el automóvil funcione bajo las siguientes directivas:

  1. Mover a destino.
  2. Cumplir con las normas de tráfico.
  3. Evitar las colisiones.
  4. Proteger a los pasajeros.
  5. Si la colisión es inevitable, realice una parada de emergencia.

Lo que significa que el escenario más probable es que al detectar el impacto entrante, la máquina liberará airbags, cerrará los frenos y hará todo lo posible para detenerse, incluso si se rompe en pedazos.

Algo así:

Si físicamente no puede evitar el impacto, golpeará a alguien o algo. Quién o qué golpeará dependerá únicamente de la suerte, y no de la ética.

Sospecho que el coche tendrá una configuración para esas situaciones.

> Configuraciones -> URLs de consulta de emergencia
>> En caso de emergencia mortal consultar (Seleccione uno):

1. Quora: un debate intelectual y serio resultará en la conclusión más lógica y emocional, ya sea golpear a los peatones o volar desde el puente.
2. Reddit: después de algunos abusos y comentarios negativos, reddit sugiere que el auto golpee a la gente si no hay gatos o damas desnudas, y vuele desde el puente si hay criaturas felinas o desnudas.
3. 4Chan: Después de muy poco debate y mucho más abuso que reddit, el auto recibe instrucciones de atropellar a todos los peatones y luego proceder a volar desde el puente para reírse.
4. Google: el conductor recibe un anuncio de mejores frenos a un CPC de $ 1.54.

Seguirá las normas de tránsito, a quien golpee posteriormente es simplemente una consecuencia de las leyes tal como están escritas. Esto evita por completo las obvias implicaciones éticas, le pasa el dinero a la legislatura y, lo más importante, evita la responsabilidad de la empresa.

Por supuesto, este tipo de preguntas éticas no tienen en cuenta el hecho de conducir autos, lo cual es evitar el choque en primer lugar. Por lo tanto, se harán esfuerzos para evitar el colapso, no para tomar decisiones éticas complejas sobre a quién golpear / matar, seguro que se le dará algún pensamiento, pero al final del día es como intentar que el signo de búfer en el reproductor de video sea “agradable”. la mayor parte del esfuerzo no se destinará a nadie que vea ese signo en primer lugar. Nadie se sentará en un escritorio con una ecuación para la vida humana, ese no es su trabajo.

En mi opinión, la respuesta a esta pregunta debería ser No.
Los autos automáticos ya están recorriendo las calles. Pero antes de que puedan generalizarse, los fabricantes de automóviles deben resolver un dilema ético imposible de la moralidad algorítmica.

Cuando se trata de tecnología automotriz, los autos que conducen por sí mismos están de moda. Las características estándar de muchos automóviles comunes incluyen control de crucero inteligente, programas de estacionamiento paralelos e incluso adelantamientos automáticos, características que le permiten sentarse, aunque un poco incómodo, y dejar que una computadora conduzca.

Por lo tanto, no será una sorpresa que muchos fabricantes de automóviles comiencen a pensar en los automóviles que les quitan la conducción por completo. Estos autos serán más seguros, más limpios y más eficientes en el consumo de combustible que sus homólogos manuales. Y sin embargo, nunca pueden estar perfectamente seguros.

No solo no debería, sino que debe Como en, no hay forma de diseñar un vehículo que no priorice de alguna manera algunos tipos de fallas sobre otros.

Digo esto porque el no elegir es en sí mismo una elección. En condiciones suficientemente patológicas, incluso el mejor auto con auto manejo se estrellará contra algo. Si no integra la lógica de toma de decisiones que decide explícitamente qué hacer en esas condiciones, entonces sus decisiones de diseño subyacentes tomarán la decisión de forma pasiva. Tom Allen alude a esto en su respuesta: optó por reducir la energía lo más rápido posible cuando se le presentaron colisiones potenciales, una opción lógica y bastante buena. No es un diseño explícito de priorización de colisiones, y bajo condiciones patológicas conduce a golpear lo que esté frente a ti, sin importar lo que sea, en lugar de desviarse y golpear otra cosa.

La siguiente pregunta lógica, entonces, es cuál es la ramificación ética y legal de cualquier elección de diseño en particular. Si los diseñadores de un vehículo autónomo incorporan una lógica de priorización de colisión, y esa lógica lleva al auto a atacar a un solo peatón adolescente en lugar de a cinco peatones de mediana edad, ¿pueden los padres del adolescente presentar una demanda contra ellos? ¿Se puede encontrar a los ingenieros culpables de homicidio involuntario? Ciertamente, en otras disciplinas de ingeniería, la decisión de un ingeniero de prevenir algunos tipos de accidentes a costa de no prevenir a otros ha llevado a juicios exitosos. Sin embargo, no soy abogado y no sé si las ramificaciones legales son más claras si la toma de decisiones es más explícita que implícita.

Dejar que el conductor del auto decida en realidad no es una idea tan mala porque es esencialmente lo que hacemos ahora. Coloca las cuestiones éticas y legales de culpa principalmente en el conductor, no en el ingeniero. Sé que el artículo vinculado dice lo contrario, y en un sentido filosófico puede ser correcto. Pero en la práctica, no creo que logremos el consenso como sociedad basada en las respuestas a las preguntas filosóficas; Somos mucho más emocionales que eso. Nuestra sociedad, para bien o para mal, ya ha lidiado con dejar que los conductores decidan cómo manejar las colisiones y tenemos un consenso sobre cómo decidir cuándo un conductor fue negligente, o homicida, en lugar de simplemente desafortunado.

El artículo postula que un conductor puede decidir priorizar su vida por encima de la de un niño, y como evidencia apunta a estudios que muestran que aproximadamente 2/3 de la población preferiría salvar sus propias vidas que la vida de un niño anónimo. Creo que este es probablemente un estudio defectuoso, porque permite el anonimato. Es fácil poner una respuesta en un pedazo de papel, y otra muy distinta es marcarlo explícitamente en el sistema de control de un automóvil robótico, especialmente si considera que si un niño muere, la policía examinará esos ajustes.