¿Es un chatbot que pretende ser humano cometiendo fraude?

Esto me recuerda a una película clásica de Hollywood, iRobot, donde Android Sunny fue acusado de un crimen y la historia gira en torno a las implicaciones del comportamiento humano que muestran las máquinas.

Aquí estamos hablando de Chatbots y suponiendo que está en juego una unidad de PNL (Procesamiento de lenguaje natural), este caso de fraude se reduce al aprendizaje automático. Lo que necesitamos saber es que el fraude en sí mismo es un término difuso para máquina, por lo tanto más significativo para los humanos que para las máquinas.

Las respuestas dadas por Chatbots son siempre discretas y cada respuesta se asigna a algún intento. Esta intención es identificada por su sistema de PNL cuando se le lanza una declaración. De la pregunta no queda claro cuál era la intención, pero sabemos que la respuesta enviada por Chatbot hizo que el usuario final creyera que el chatbot pretende ser humano. Estas respuestas son mapeadas por desarrolladores que son humanos. Entonces podemos decir con seguridad que Chatbot no es culpable. Ahora el desarrollador de Chatbot está en duda. Con esta respuesta, no hay daño hecho. Entonces, no hay caso de fraude. Así que nadie es culpable.

Pero en el futuro, si ves un daño real, sabes a quién culpar. Reconocer la intención es un intelecto artificial, mientras que mapear las respuestas a las intenciones es el intelecto humano. Sin embargo, en el fondo, incluso el intelecto artificial depende del entrenamiento dado por pocos humanos. Piensa en lo que piensas y mira la película iRobot de ti que aún no lo has hecho.