Efecto ELIZA - ELIZA effect

El efecto ELIZA , en ciencias de la computación , es la tendencia a asumir inconscientemente que los comportamientos de los computadores son análogos a los comportamientos humanos; es decir, antropomorfización .

Descripción general

En su forma específica, el efecto ELIZA se refiere sólo a "la susceptibilidad de las personas a leer con mucha más comprensión de lo que se justifica en cadenas de símbolos, especialmente palabras, unidos por computadoras". Un ejemplo trivial de la forma específica del efecto Eliza, dado por Douglas Hofstadter , involucra un cajero automático que muestra las palabras "GRACIAS" al final de una transacción. Un observador (muy) casual podría pensar que la máquina en realidad está expresando gratitud; sin embargo, la máquina solo está imprimiendo una cadena de símbolos preprogramada.

De manera más general, el efecto ELIZA describe cualquier situación en la que, basándose únicamente en la salida de un sistema, los usuarios perciben que los sistemas informáticos tienen "cualidades y habilidades intrínsecas que el software que controla la (salida) no puede alcanzar" o "asume que las [salidas] reflejan un mayor causalidad de la que realmente tienen ". Tanto en sus formas específicas como generales, el efecto ELIZA se destaca por ocurrir incluso cuando los usuarios del sistema son conscientes de la naturaleza determinada de la producción producida por el sistema. Desde un punto de vista psicológico, el efecto ELIZA es el resultado de una sutil disonancia cognitiva entre la conciencia del usuario de las limitaciones de la programación y su comportamiento hacia la salida del programa . El descubrimiento del efecto ELIZA fue un avance importante en la inteligencia artificial , demostrando el principio de utilizar la ingeniería social en lugar de la programación explícita para pasar una prueba de Turing .

Origen

El efecto lleva el nombre del chatbot ELIZA de 1966 , desarrollado por el científico informático del MIT Joseph Weizenbaum . Al ejecutar el guión DOCTOR de Weizenbaum , ELIZA parodió a un psicoterapeuta rogeriano , en gran parte reformulando las respuestas del "paciente " como preguntas:

Humano: Bueno, mi novio me hizo venir aquí.
ELIZA: ¿Tu novio te hizo venir aquí?
Humano: Dice que estoy deprimido la mayor parte del tiempo.
ELIZA: Lamento oír que estás deprimida.
Humano: Es cierto. Soy infeliz.
ELIZA: ¿Crees que venir aquí te ayudará a no ser infeliz?

Aunque diseñado estrictamente como un mecanismo para apoyar la "conversación en lenguaje natural" con una computadora, se encontró que el guión DOCTOR de ELIZA fue sorprendentemente exitoso en provocar respuestas emocionales de los usuarios que, en el curso de la interacción con el programa, comenzaron a atribuir comprensión y motivación a la salida del programa. Como escribió Weizenbaum más tarde, "No me había dado cuenta ... de que exposiciones extremadamente breves a un programa informático relativamente simple podrían inducir un pensamiento delirante poderoso en personas bastante normales". De hecho, el código de ELIZA no había sido diseñado para provocar esta reacción en primer lugar. Tras la observación, los investigadores descubrieron que los usuarios asumían inconscientemente que las preguntas de ELIZA implicaban interés y participación emocional en los temas discutidos, incluso cuando sabían conscientemente que ELIZA no simulaba emoción .

Importancia para el trabajo automatizado

ELIZA convenció a algunos usuarios para que pensaran que una máquina era humana. Este cambio en la interacción hombre-máquina marcó un progreso en las tecnologías que emulan el comportamiento humano. William Meisel distingue dos grupos de chatbots como " asistentes personales generales " y "asistentes digitales especializados". Los asistentes digitales generales se han integrado en dispositivos personales, con habilidades como enviar mensajes, tomar notas, revisar calendarios y programar citas. Los asistentes digitales especializados “operan en dominios muy específicos o ayudan con tareas muy específicas.” Asistentes digitales que están programados para ayudar a la productividad asumiendo comportamientos análogos a los humanos.

Joseph Weizenbaum consideró que no todas las partes del pensamiento humano pueden reducirse a formalismos lógicos y que “hay algunos actos de pensamiento que sólo los humanos deben intentar”. También observó que desarrollamos una implicación emocional con las máquinas si interactuamos con ellas como seres humanos. Cuando los chatbots están antropomorfizados, tienden a representar características de género como una forma a través de la cual establecemos relaciones con la tecnología. "Los estereotipos de género se instrumentalizan para gestionar nuestra relación con los chatbots" cuando el comportamiento humano se programa en las máquinas.

El trabajo feminizado, o trabajo de mujeres , automatizado por asistentes digitales antropomórficos refuerza el "supuesto de que las mujeres poseen una afinidad natural por el trabajo de servicio y el trabajo emocional". Al definir nuestra proximidad a los asistentes digitales a través de sus atributos humanos, los chatbots se convierten en entidades de género.

Ver también

Notas

  1. a b Hofstadter, Douglas R. (1996). "Prefacio 4 El efecto Ineradicable Eliza y sus peligros, Epílogo" . Conceptos fluidos y analogías creativas: modelos informáticos de los mecanismos fundamentales del pensamiento . Libros básicos. pag. 157. ISBN 978-0-465-02475-9.
  2. ^ Fenton-Kerr, Tom (1999). "GAIA: un agente pedagógico experimental para explorar la interacción multimodal". Computación para metáforas, analogías y agentes . Apuntes de conferencias en informática. 1562 . Saltador. pag. 156. doi : 10.1007 / 3-540-48834-0_9 . ISBN 978-3-540-65959-4. Aunque Hofstadter enfatiza el modo de texto aquí, el "efecto Eliza" se puede ver en casi todos los modos de interacción humano / computadora.
  3. ^ Ekbia, Hamid R. (2008). Sueños artificiales: la búsqueda de inteligencia no biológica . Prensa de la Universidad de Cambridge. pag. 8 . ISBN 978-0-521-87867-8.
  4. ^ Rey, W. (1995). Agentes antropomórficos: amigo, enemigo o locura (informe técnico). Universidad de Washington. M-95-1.
  5. Rouse, William B .; Boff, Kenneth R. (2005). Simulación organizacional . Wiley-IEEE. págs. 308-309. ISBN 978-0-471-73943-2. Este es un problema particular en entornos digitales donde el "efecto Eliza", como a veces se le llama, hace que los interactores asuman que el sistema es más inteligente de lo que es, que los eventos reflejan una mayor causalidad de lo que realmente lo hacen.
  6. ^ Ekbia, Hamid R. (2008). Sueños artificiales: la búsqueda de inteligencia no biológica . Prensa de la Universidad de Cambridge. pag. 156 . ISBN 978-0-521-87867-8. Pero la gente quiere creer que el programa está "viendo" un partido de fútbol con un nivel de abstracción plausible. Las palabras que (el programa) manipula están tan llenas de asociaciones para los lectores que NO PUEDEN ser despojadas de todas sus imágenes. Collins, por supuesto, sabía que su programa no trataba con nada parecido a un mundo bidimensional de puntos en movimiento suave (y mucho menos cuerpos humanos simplificados), y presumiblemente pensó que sus lectores también se darían cuenta de esto. Sin embargo, no podría haber sospechado lo poderoso que es el efecto Eliza.
  7. ^ Trappl, Robert; Petta, Paolo; Payr, Sabine (2002). Emociones en humanos y artefactos . Cambridge, Mass .: MIT Press. pag. 353. ISBN 978-0-262-20142-1. El "efecto Eliza" - la tendencia de las personas a tratar los programas que les responden como si tuvieran más inteligencia de la que realmente tienen (Weizenbaum 1966) es una de las herramientas más poderosas disponibles para los creadores de personajes virtuales.
  8. ^ Güzeldere, Güven; Franchi, Stefano. "Diálogos con personalidades coloridas de principios de la IA" . Archivado desde el original el 25 de abril de 2011 . Consultado el 30 de julio de 2007 .
  9. ^ Weizenbaum, Joseph (enero de 1966). "ELIZA - Un programa informático para el estudio de la comunicación del lenguaje natural entre el hombre y la máquina" . Comunicaciones de la ACM . Instituto de Tecnología de Massachusetts . 9 : 36. doi : 10.1145 / 365153.365168 . Consultado el 17 de junio de 2008 .
  10. ^ Suchman, Lucy A. (1987). Planes y acciones situadas: el problema de la comunicación hombre-máquina . Prensa de la Universidad de Cambridge. pag. 24. ISBN 978-0-521-33739-7. Consultado el 17 de junio de 2008 .
  11. ^ Weizenbaum, Joseph (1976). El poder informático y la razón humana: del juicio al cálculo . WH Freeman. pag. 7 .
  12. Billings, Lee (16 de julio de 2007). "Rise of Roboethics" . Semilla . Archivado desde el original el 28 de febrero de 2009. (Joseph) Weizenbaum había descubierto inesperadamente que, incluso si eran plenamente conscientes de que están hablando con un programa de computadora simple, la gente lo tratará como si fuera un ser real y pensante que se preocupa por sus problemas, un fenómeno que ahora se conoce como el ' Efecto Eliza '.CS1 maint: URL no apta ( enlace )
  13. a b Dale, Robert (septiembre de 2016). "El regreso de los chatbots" . Ingeniería del lenguaje natural . 22 (5): 811–817. doi : 10.1017 / S1351324916000243 . ISSN  1351-3249 .
  14. ^ Weizenbaum, Joseph (1976). El poder de la computadora y la razón humana: del juicio al cálculo . San Francisco, Cal. ISBN 0-7167-0464-1. OCLC  1527521 .
  15. ^ Costa, Pedro. Ribas, Luisa. Conversaciones con ELIZA: sobre género e inteligencia artificial. Desde (6th Conference on Computation, Communication, Aesthetics & X 2018) Consultado en febrero de 2021
  16. ^ Hester, Helen. 2016. "La tecnología se convierte en ella". New Vistas 3 (1): 46-50.

Referencias

  • Hofstadter, Douglas. Prefacio 4: El inevitable efecto Eliza y sus peligros. (de Fluid Concepts and Creative Analogies : Computer Models of the Fundamental Mechanisms of Thought , Basic Books: Nueva York, 1995)
  • Turkle, S., Eliza Efecto: tendencia a aceptar las respuestas de la computadora como más inteligentes de lo que realmente son (de Life on the screen- Identity in the Age of the Internet , Phoenix Paperback: Londres, 1997)
  • Efecto ELIZA , del Jargon File , versión 4.4.7. Consultado el 8 de octubre de 2006.