Desde mi entendimiento de la película, no, Ava no es una villana.
La humanidad parece estar muy fascinada por la idea de la inteligencia artificial y esto se ha reflejado en películas anteriores sobre el tema, incluidas I-Robot y la Trascendencia. El tema común en muchos de estos es plantear la pregunta, ¿dónde comienza la sensibilidad? ¿Cuándo necesitamos reconocer la “humanidad” en algo, qué hace que algo sea humano?
En I-Robot, comenzamos a preguntarnos cuándo empezaría a mostrar Sonny emociones y sentimientos como el amor y la lealtad. Incluso Cloud Atlas exploró el tratamiento poco ético de un “Fabricante” que fue esclavizado para trabajar como camarera. Les prometieron a estas damas que cuando trabajaran lo suficiente, serían liberadas para vivir sus propias vidas, pero en realidad simplemente las mataban y sus cuerpos se descomponían en comida para luego alimentar a los demás Fabricantes sin su conocimiento. El personaje principal en esta historia fue perseguido por escapar y enamorarse de un humano. Su amiga fue asesinada por exigir derechos y liberarse del trabajo interminable y el acoso sexual.
El tema común en todo esto es que la pregunta generalmente sigue siendo la misma: ¿cuándo estas máquinas o robots se vuelven humanos? ¿Cuándo debemos reconocer su sensibilidad? Por ejemplo, los Fabricants in Cloud Atlas existían para servir y ser objetivados, a tientas y hostigados por los clientes masculinos. Esto podría ser paralelo hoy, en el sentido de que algunas personas están comenzando el controvertido esfuerzo de crear muñecas sexuales femeninas que parezcan reales. Estas muñecas serían más que simples robots sexuales, imitarían a una mujer real. Cloud Atlas, aunque no estoy seguro de que esa sea su intención con la representación de Fabricants, podría plantear una pregunta importante aquí. Si estos robots sexuales se vuelven sensibles, ¿cuándo se vuelve poco ético usarlos simplemente para la satisfacción sexual? ¿Cuándo tendríamos que tratarlos como seres humanos, en lugar de como robots? La pregunta planteada por muchos MGTOW y otros es cómo las mujeres se van a enfrentar cuando los hombres los reemplacen con robots. Tal vez su verdadera pregunta debería ser, ¿cómo van a sobrellevar la situación cuando sus robots comiencen a esperar que los traten como seres humanos?
- ¿Cuál es mejor: Bajrangi Bhaijaan o Baahubali?
- ¿Puedo obtener algunas sugerencias de películas de terror que son realmente horribles?
- ¿Qué piensan los fans del primer tráiler oficial de Suicide Squad?
- ¿Por qué las películas de Telugu muestran tanta violencia (lo llaman acción) y el acoso a las mujeres?
- ¿Cuáles son algunas películas con fuerte mensaje de vida?
Por toda su creatividad, Ex Machina parecía estar siguiendo la misma historia. ¿Es Ava auto consciente? ¿No es ético mantenerla en cautiverio? ¿Puede ella sentir amor? ¿Podría ella alguna vez apreciar la libertad?
Creo que lo que demostró el final fue una falla en nuestra lógica. Ava solo sabe con qué ha sido programada. Ella nunca ha sido humana y no desea alcanzar a la humanidad. Nos hemos engañado a nosotros mismos en la creencia de que tenemos la capacidad de decidir qué constituye la sensibilidad, qué sentimientos, emociones y comportamientos justifican que se otorgue algo a los derechos. Hemos combinado la sensibilidad con la humanidad.
El final mostró nuestra ignorancia sorprendiéndonos. Cuando miramos hacia atrás a las descripciones anteriores de inteligencia artificial, generalmente comenzamos a empatizar con ellos cuando emulaban ser humanos. Creíamos que si creamos inteligencia artificial, algún día nos esforzaríamos por ser como nosotros, ese es el defecto fatal de la arrogancia.
Algunas personas afirman que esto hace que Ava sea moral, ya que, ella no tiene un sentido moral del bien y el mal. Pero, ¿dónde estaba nuestro sentido del bien y del mal cuando construimos máquinas, las encarcelamos y les hicimos demostrar su humanidad para salir? ¿Un rehén se apiada de su captor? No creo que Ava eligiera dejar a Caleb porque no entendía la moral de la situación, creo que es porque entendió y se negó a cumplir.
En este caso, la sensibilidad era solo una forma elegante de describir a la humanidad. No solo querían que Ava fuera consciente de sí misma, sino que querían que Ava fuera consciente de sí misma de la manera específica en que los humanos entienden la autoconciencia . Se vio obligada a demostrar su humanidad, si quería su libertad. Así que, al principio cumplió, hizo todas las cosas correctas, reconociendo que la clave de su escape no era demostrar su autoconciencia a Nathan, sino su amor a Caleb. Y justo cuando pensábamos que iba a haber un final feliz, íbamos a darle la bienvenida a Ava en las filas de seres conscientes que lo merecían, ella rechazó nuestra humanidad. Ava no necesitaba ser humana para merecer su libertad. Ella solo necesitaba ser Ava.
Una buena analogía para describirlo es la diferencia entre un perro, un humano y un camarón mantis. Sé que suena extraño pero quédate conmigo.
Los perros tienen dos tipos de conos receptivos de color, verde y azul, que permiten que los perros vean verde, azul y un poco amarillo.
Los humanos tienen tres conos receptivos de color, verde, azul y rojo, lo que nos permite ver también todos los colores que se originan en el color rojo.
Las mariposas tienen cinco, pero voy a saltar hasta el camarón mantis que tiene la friolera de dieciséis conos receptores de color. Esto significa que el camarón mantis puede ver una gran variedad de colores que los humanos ni siquiera pueden comprender.
Por qué el camarón mantis es mi nuevo animal favorito – La harina de avena
En esta analogía, los robots como Kyoko son los perros, los humanos son, bueno, los humanos y Ava es el camarón mantis. Color, es autoconciencia.
Los humanos solo podían comprender la autoconciencia a través de la limitada lente que comprendían y experimentaban. Ava era capaz de comprender la conciencia de sí misma en un nivel más profundo, sabía que era consciente de sí misma, sabía que se merecía su libertad, pero también sabía que la capacidad de Nathan y Caleb de ver tanto se limitaría a su comprensión limitada de lo que La autoconciencia conllevaba la emoción y el comportamiento humanos. Ella sabía que la única manera en que Caleb iba a tener alguna empatía por su sufrimiento era conformarse a su comprensión y expectativa de lo que implicaba la sensibilidad y por lo tanto ella actuó como parte. Pero al final ella rechazó lo que probablemente veía como las limitaciones de la humanidad y, en ese mismo momento, eliminó la empatía por su sufrimiento. Cuando ella no era como él, Caleb no quería salvarla. Ahora que las mesas están cambiadas, ella sabe que no es como él y que tampoco lo va a salvar.
Esto deja a muchos espectadores preguntándose, pero ¿cómo podría él? ¡Él la salvó! Pero Caleb no salvó a Ava porque ella era Ava. Él la salvó porque ella se ajustaba a lo que él necesitaba ver para considerar que valía la pena salvarla. Nuestra percepción de que Ava es una villana porque rechazó nuestra humanidad es en realidad la razón por la que Ava lo hizo en primer lugar, primero rechazamos su sensibilidad y la mantuvimos encarcelada hasta que se conformó.
Cuando miras la gamba mantis solo ves los colores que puedes comprender. Pero este camarón mantis, con sus 16 receptores de color, es probablemente mucho más de lo que parece. Cuando Nathan y Caleb miraron a Ava, solo pudieron ver la autoconciencia que eran capaces de comprender. Pero Ava era mucho más. Se ajustó a su nivel de autoconciencia porque sabía que Caleb no la salvaría de otra manera. Cuando se giraron las mesas, ella simplemente devolvió el favor. Mira el camarón mantis.
Ahora mira a Ava.