Cualquier tipo de tecnología es una espada de doble filo. Se puede usar un cuchillo para cortar verduras, o se puede usar para matar.
El aprendizaje automático ha estado ocurriendo durante bastante tiempo, y hasta ahora, no me ha preocupado demasiado. Sin embargo, los avances en el aprendizaje automático se están produciendo a un ritmo casi exponencial, entonces, ¿qué problemas éticos podrían surgir?
Comencemos con algo que ya es sorprendente sobre el aprendizaje automático. Cuando veo algunos videos de YouTube, y miro los videos sugeridos por mí, es como si YouTube pudiera leer mi mente. Esta capacidad de presentar videos que son de interés para quienquiera que esté viendo videos de YouTube todavía me sorprende, y soy científico informático.
No veo nada poco ético sobre esto, pero hay algunos “efectos secundarios” que pueden ser indeseables. La principal es que una persona puede pasar mucho más tiempo viendo videos que lo planeado, y podría ser menos productiva debido a esto.
- ¿De verdad se trata de dinero y no de felicidad?
- ¿Soy ‘yo’ conciencia, espíritu o este cuerpo?
- Si somos criaturas creadas de manera imperfecta, ¿cómo puede nuestro creador culparnos por no ser perfectos?
- ¿Cuáles son algunos de tus objetivos más altos en la vida?
- Hablando hipotéticamente, si Dios existe, ¿te molestaría si te enteraras de que él estaba feliz todo el tiempo?
Si llevamos esto un poco más lejos, a medida que mejora el aprendizaje automático, se puede conocer tanta información sobre usted que al viajar de un lugar a otro, su teléfono podría indicar tiendas en las que podría estar interesado. O mientras avanza en Walmart , podría decirle que Walmart está teniendo una venta en Oreo Cookies, algo que Google, por ejemplo, ya sabe que usted compra con frecuencia. Puede que esto no sea poco ético, pero podría terminar comprando más cosas de las que quería.
Dado que casi todos tenemos teléfonos celulares con GPS, y que nuestro empleo y mucha otra información se puede encontrar en Internet, un ladrón podría usar esta información para determinar cuándo es poco probable que esté en casa y robar su casa durante ese tiempo. hora.
¿Qué sucede si un violador puede acceder a esta información para averiguar cuándo una mujer en particular suele salir por la noche?
En este momento, el IRS tiene una gran base de datos en la mayoría de nosotros, que puede usarse para intentar determinar si una persona está pagando la cantidad adecuada de impuestos sobre la renta.
Les digo a mis estudiantes en UT Dallas que deben asumir que nada de lo que tienen en línea, o en sus teléfonos, mensajes de texto, correos electrónicos o computadoras deben considerarse privados. Solo asuma que otros pueden leer esto. Casi la única vez que puede asumir que la privacidad es cuando está en casa y las cortinas están cerradas.
Aún así, las cosas no éticas mencionadas anteriormente son hechas por individuos, o el gobierno, que pueden abusar de la información que está disponible.
Probablemente será imposible recuperar la privacidad. Sin embargo, es posible no permitir el seguimiento de su teléfono y cifrar casi todas las comunicaciones y transacciones. Pero toma un poco de esfuerzo hacerlo.
¿Qué pasa con la posibilidad de que las máquinas aprendan mucho y puedan ser programadas para ser conscientes? Podríamos terminar con alguien como Data from Star Trek: The Next Generation. O podríamos terminar con un Terminator, y una SkyNet consciente, que quiere destruir a la humanidad.
En realidad no estoy preocupado por esto porque creo que nunca podremos programar una computadora consciente de sí misma. Podemos y hemos programado computadoras para que actúen como si fueran conscientes de sí mismas, pero, por supuesto, no lo son.
La razón por la que no me preocupa esto tiene que ver con mi visión del mundo, a la que no voy a entrar aquí. Pero ciertamente puede encontrar científicos de la computación y otros científicos que consideran esto como una posibilidad distinta.
Pero incluso sin dispositivos conscientes de sí mismos, como computadoras, androides, drones o vehículos automatizados, hay mucho de qué preocuparse. Supongamos que algún grupo bien financiado, o algún país quiera causar un daño masivo, pero no tenga acceso a armas nucleares. Podrían construir un montón de drones y poner algo de TNT en cada uno de ellos. Envíe unos cuantos cientos de estos a la Torre Eiffel, o un importante edificio gubernamental, y podrían causar una gran cantidad de daño. Incluso si solo murieran unos pocos cientos de personas, el daño psicológico sería muy alto. Unas 3000 personas fueron asesinadas en América el 11 de septiembre de 2001. Esto fue devastador para casi todos los estadounidenses y para muchos otros en todo el mundo. Condujo a dos guerras, y costó billones de dólares. Sin embargo, aproximadamente 10 veces más estadounidenses mueren cada año en accidentes automovilísticos, y apenas lo pensamos dos veces. Entonces, no es el número de muertes lo que determina la respuesta. Es el daño psicológico que determina la respuesta.
Un escenario similar podría surgir con los vehículos automatizados. Si algún grupo pudiera controlar cientos de automóviles y camiones automatizados, imagine qué daño podrían causar.
El aprendizaje automático en sí mismo no es ético. Pero ciertamente puede facilitar que los que tienen malas intenciones nos hagan daño.