¿Cuáles son las consideraciones éticas del aprendizaje de máquinas?

Cualquier tipo de tecnología es una espada de doble filo. Se puede usar un cuchillo para cortar verduras, o se puede usar para matar.

El aprendizaje automático ha estado ocurriendo durante bastante tiempo, y hasta ahora, no me ha preocupado demasiado. Sin embargo, los avances en el aprendizaje automático se están produciendo a un ritmo casi exponencial, entonces, ¿qué problemas éticos podrían surgir?

Comencemos con algo que ya es sorprendente sobre el aprendizaje automático. Cuando veo algunos videos de YouTube, y miro los videos sugeridos por mí, es como si YouTube pudiera leer mi mente. Esta capacidad de presentar videos que son de interés para quienquiera que esté viendo videos de YouTube todavía me sorprende, y soy científico informático.

No veo nada poco ético sobre esto, pero hay algunos “efectos secundarios” que pueden ser indeseables. La principal es que una persona puede pasar mucho más tiempo viendo videos que lo planeado, y podría ser menos productiva debido a esto.

Si llevamos esto un poco más lejos, a medida que mejora el aprendizaje automático, se puede conocer tanta información sobre usted que al viajar de un lugar a otro, su teléfono podría indicar tiendas en las que podría estar interesado. O mientras avanza en Walmart , podría decirle que Walmart está teniendo una venta en Oreo Cookies, algo que Google, por ejemplo, ya sabe que usted compra con frecuencia. Puede que esto no sea poco ético, pero podría terminar comprando más cosas de las que quería.

Dado que casi todos tenemos teléfonos celulares con GPS, y que nuestro empleo y mucha otra información se puede encontrar en Internet, un ladrón podría usar esta información para determinar cuándo es poco probable que esté en casa y robar su casa durante ese tiempo. hora.

¿Qué sucede si un violador puede acceder a esta información para averiguar cuándo una mujer en particular suele salir por la noche?

En este momento, el IRS tiene una gran base de datos en la mayoría de nosotros, que puede usarse para intentar determinar si una persona está pagando la cantidad adecuada de impuestos sobre la renta.

Les digo a mis estudiantes en UT Dallas que deben asumir que nada de lo que tienen en línea, o en sus teléfonos, mensajes de texto, correos electrónicos o computadoras deben considerarse privados. Solo asuma que otros pueden leer esto. Casi la única vez que puede asumir que la privacidad es cuando está en casa y las cortinas están cerradas.

Aún así, las cosas no éticas mencionadas anteriormente son hechas por individuos, o el gobierno, que pueden abusar de la información que está disponible.

Probablemente será imposible recuperar la privacidad. Sin embargo, es posible no permitir el seguimiento de su teléfono y cifrar casi todas las comunicaciones y transacciones. Pero toma un poco de esfuerzo hacerlo.


¿Qué pasa con la posibilidad de que las máquinas aprendan mucho y puedan ser programadas para ser conscientes? Podríamos terminar con alguien como Data from Star Trek: The Next Generation. O podríamos terminar con un Terminator, y una SkyNet consciente, que quiere destruir a la humanidad.

En realidad no estoy preocupado por esto porque creo que nunca podremos programar una computadora consciente de sí misma. Podemos y hemos programado computadoras para que actúen como si fueran conscientes de sí mismas, pero, por supuesto, no lo son.

La razón por la que no me preocupa esto tiene que ver con mi visión del mundo, a la que no voy a entrar aquí. Pero ciertamente puede encontrar científicos de la computación y otros científicos que consideran esto como una posibilidad distinta.


Pero incluso sin dispositivos conscientes de sí mismos, como computadoras, androides, drones o vehículos automatizados, hay mucho de qué preocuparse. Supongamos que algún grupo bien financiado, o algún país quiera causar un daño masivo, pero no tenga acceso a armas nucleares. Podrían construir un montón de drones y poner algo de TNT en cada uno de ellos. Envíe unos cuantos cientos de estos a la Torre Eiffel, o un importante edificio gubernamental, y podrían causar una gran cantidad de daño. Incluso si solo murieran unos pocos cientos de personas, el daño psicológico sería muy alto. Unas 3000 personas fueron asesinadas en América el 11 de septiembre de 2001. Esto fue devastador para casi todos los estadounidenses y para muchos otros en todo el mundo. Condujo a dos guerras, y costó billones de dólares. Sin embargo, aproximadamente 10 veces más estadounidenses mueren cada año en accidentes automovilísticos, y apenas lo pensamos dos veces. Entonces, no es el número de muertes lo que determina la respuesta. Es el daño psicológico que determina la respuesta.

Un escenario similar podría surgir con los vehículos automatizados. Si algún grupo pudiera controlar cientos de automóviles y camiones automatizados, imagine qué daño podrían causar.


El aprendizaje automático en sí mismo no es ético. Pero ciertamente puede facilitar que los que tienen malas intenciones nos hagan daño.

Los recientes desarrollos en inteligencia artificial están permitiendo que un número creciente de decisiones pasen de ser humano a máquina. La mayoría de estas hasta la fecha son decisiones operativas, como los algoritmos en los mercados financieros que deciden qué operaciones realizar y cómo. Sin embargo, el rango de tales decisiones que pueden ser computables puede aumentar, y como muchas decisiones operativas tienen consecuencias morales, se podría considerar que tienen un componente moral.

Un área en la que esto está causando creciente preocupación es la robótica militar. El grado de autonomía con el que pueden funcionar los vehículos aéreos y los robots terrestres deshabitados aumenta constantemente. Existe un extenso debate sobre las circunstancias en que los sistemas robóticos deberían poder operar con un humano “en el bucle” o “en el bucle”, y las circunstancias en las que un sistema robótico debería poder operar independientemente. Una coalición de ONG internacionales lanzó recientemente una campaña para “detener a los robots asesinos”.
Al aire libre

Al aire libre
Al aire libre


“¿Permitiría que una máquina tome una decisión moral en su nombre? ¿Si no, porque no?”

Es plausible que en un futuro cercano tengamos inteligencia artificial para situaciones limitadas (por ejemplo: tomar una decisión sobre tratamiento médico, una decisión de asignación de recursos o una decisión de “adquisición de objetivo militar”) es capaz de sopesar los hechos para Una y más, como una decisión o mejor que un ser humano, puede el 99.99% del tiempo, sin nubosidad por sesgo, con mucha más información a su disposición.

Entonces, ¿por qué no confiar en la máquina?

La toma de decisiones humana está plagada de sesgos e inconsistencias, y puede verse muy afectada por la fatiga, o la última vez que comimos. Por todo eso, nuestras inconsistencias son relativamente predecibles y tienen límites. Cada sesgo que conocemos puede ser tenido en cuenta y corregido hasta cierto punto. Y hay límites en cuanto a qué tan loca será la decisión “equivocada” de una persona inteligente y equilibrada, incluso si mis “subcontratistas” morales son “menos correctas” que yo 1 vez de cada 10, hay un límite a lo malo que será su decisión equivocada .
¿Por qué debería preocuparnos esto? A medida que los procesos de toma de decisiones se vuelven más complicados y las estrategias más no intuitivas, se vuelve cada vez más difícil hacer una “prueba de detección” si estamos de acuerdo con ellas, siempre que los resultados sean buenos la mayor parte del tiempo. El resultado es que tenemos que simplemente “confiar” en los métodos y estrategias cada vez más. También se vuelve más difícil averiguar cómo, por qué y en qué circunstancias la máquina saldrá mal, y cuál será la magnitud de la falla.

Incluso si superamos el 99.99% del tiempo, la imprevisibilidad de las fallas del 0.01% puede ser una buena razón para considerar cuidadosamente qué y cómo subcontratamos moralmente a la máquina.
Para más detalles: http: //blog.practicalethics.ox.a…

Hay cuestiones éticas asociadas con lo que optimizas. ¿Maximizar la distracción de las personas es realmente el objetivo? Eso surge.

Hay preguntas éticas asociadas con los algoritmos de exploración (bandido contextual, aprendizaje por refuerzo, etc.) en entornos como el cuidado de la salud.

Hay problemas de privacidad asociados con el uso de datos privados y lo que debería ser privado o no.

No creo que ninguna de estas preguntas sea exclusiva del aprendizaje automático en ningún sentido real. El aprendizaje automático es solo otra vía por la cual surgen.

Dar un mundo altruista (sí, a la derecha), una máquina o cualquier persona / cosa que aprenda algo o todo, no debería tener ninguna consideración ética. Desafortunadamente, vivimos en un mundo donde lo que las “personas” hacen con la información que recopilan debe ser éticamente moderado para mantener a todos los demás a salvo de ellos.

Escribí sobre esto aquí: la respuesta de Alket Cecaj a ¿Qué piensas acerca de la ética involucrada en los algoritmos de aprendizaje automático en nuestra vida cotidiana?