[ad_1]
Según un nuevo estudio, las creencias previas de una persona sobre un agente de inteligencia artificial, como un chatbot, tienen un impacto significativo en sus interacciones con ese agente y en su percepción de su confiabilidad, empatía y eficacia.
Investigadores del MIT y la Universidad Estatal de Arizona descubrieron que preparar a los usuarios (diciéndoles que un agente de apoyo a la salud mental con IA conversacional sería empático, neutral o manipulador) influyó en su percepción del chatbot y la naturaleza y la forma en que se comunicaban con él. incluso si estuvieran hablando exactamente con el mismo chatbot.
La mayoría de los usuarios a quienes se les dijo que el agente de IA se preocupaba creían que ese era el caso y también le otorgaron calificaciones de rendimiento más altas que aquellos que creían que era manipulador. Al mismo tiempo, menos de la mitad de los usuarios a quienes se les dijo que el agente tenía motivos manipuladores en realidad pensaron que el chatbot era malicioso, lo que sugiere que las personas pueden estar tratando de ver lo «bueno» en la IA, tal como lo hacen con ella para sus propios clientes. queridos seres humanos.
El estudio encontró un circuito de retroalimentación entre los modelos mentales de los usuarios, o su percepción de un agente de IA, y las reacciones de ese agente. El tono de las conversaciones entre los usuarios y la IA se volvió más positivo con el tiempo cuando el usuario creía que la IA era empática, mientras que ocurría lo contrario para los usuarios que creían que era nefasta.
«A partir de este estudio, vemos que la IA es, hasta cierto punto, la IA del espectador», dice Pat Pataranutaporn, estudiante de posgrado en el grupo Fluid Interfaces del MIT Media Lab y coautor principal de un artículo. describiendo este estudio. “Cuando describimos a los usuarios qué es un agente de IA, no solo cambia su modelo mental, sino también su comportamiento. Y como la IA responde al usuario, cuando la persona cambia su comportamiento, la IA también cambia”.
A Pataranutaporn se une la coautora principal y estudiante graduada del MIT Ruby Liu; Ed Finn, profesor asociado del Centro de Ciencia e Imaginación de la Universidad Estatal de Arizona; y la autora principal Pattie Maes, profesora de tecnología de medios y líder del grupo Fluid Interfaces en el MIT.
El estudio publicado hoy en Inteligencia artificial natural, destaca la importancia de examinar cómo se presenta la IA a la sociedad, ya que los medios de comunicación y la cultura popular tienen una fuerte influencia en nuestros modelos mentales. Los autores también advierten que los mismos tipos de declaraciones de preparación en este estudio podrían usarse para engañar a las personas sobre los motivos o capacidades de una IA.
“Mucha gente piensa que la IA es sólo un problema técnico, pero el éxito de la IA también es un problema de factores humanos. La forma en que hablamos de IA, incluso el nombre que le damos, puede tener un gran impacto en la eficacia de estos sistemas cuando se presentan a las personas. Necesitamos pensar más en estas cuestiones”, afirma Maes.
¿Amigo o enemigo de la IA?
En este estudio, los investigadores querían descubrir qué parte de la empatía y la eficacia que las personas ven en la IA se basa en su percepción subjetiva y qué parte se basa en la tecnología misma. También querían investigar si el priming podría usarse para manipular la percepción subjetiva de una persona.
“La IA es una caja negra, por lo que tendemos a asociarla con algo más que podemos entender. Hacemos analogías y metáforas. Pero, ¿cuál es la metáfora adecuada para pensar en la IA? La respuesta no es fácil”, afirma Pataranutaporn.
Diseñaron un estudio en el que las personas interactuaron con un compañero de conversación de IA sobre salud mental durante aproximadamente 30 minutos para determinar si lo recomendarían a un amigo, luego calificaron al agente y su experiencia. Los investigadores reclutaron a 310 participantes y los dividieron aleatoriamente en tres grupos, cada uno de los cuales recibió una declaración básica sobre la IA.
A un grupo se le dijo que el agente no tenía motivos, al segundo grupo se le dijo que la IA tenía intenciones benévolas y se preocupaba por el bienestar del usuario, y al tercer grupo se le dijo que el agente tenía intenciones maliciosas y que intentaría dañar a los usuarios para engañarlos. . Aunque fue difícil ponerse de acuerdo sobre sólo tres bases, los investigadores eligieron afirmaciones que consideraron que encajaban con las ideas más comunes sobre la IA, dice Liu.
La mitad de los participantes de cada grupo interactuaron con un agente de inteligencia artificial basado en el modelo de lenguaje generativo GPT-3, un poderoso modelo de aprendizaje profundo que puede generar texto similar al humano. La otra mitad interactuó con una implementación del chatbot ELIZA, un programa de procesamiento de lenguaje natural menos sofisticado basado en reglas desarrollado en el MIT en la década de 1960.
Formar modelos mentales
Los resultados posteriores a la encuesta mostraron que las declaraciones de preparación simples pueden influir en gran medida en el modelo mental de un usuario sobre un agente de IA y que las iniciaciones positivas tuvieron un mayor impacto. Sólo el 44 por ciento de los que recibieron cebadores negativos les creyeron, mientras que el 88 por ciento de los del grupo positivo y el 79 por ciento de los del grupo neutral creían que la IA era empática y neutral, respectivamente.
“Con las declaraciones negativas no los preparamos para creer algo, sino para que se formaran sus propias opiniones. Si le dices a alguien que sospeche un poco, es posible que sospeche más en general”, dice Liu.
Sin embargo, las capacidades de la tecnología sí influyen, ya que el impacto fue más significativo para el chatbot conversacional más sofisticado basado en GPT-3.
Los investigadores se sorprendieron al descubrir que los usuarios calificaron la efectividad de los chatbots de manera diferente según las declaraciones de preparación. Los usuarios del grupo positivo dieron a sus chatbots puntuaciones más altas por sus consejos sobre salud mental, a pesar de que todos los agentes eran idénticos.
Curiosamente, también descubrieron que el tono de las conversaciones cambiaba dependiendo de qué tan preparados estuvieran los usuarios. Las personas que creían que la IA era afectuosa tendían a interactuar con ella de manera más positiva, lo que generaba respuestas más positivas por parte del agente. Las declaraciones de priming negativas tuvieron el efecto contrario. Esta influencia en el estado de ánimo aumentó a medida que avanzaba la conversación, añade Maes.
Los resultados del estudio sugieren que las instrucciones de preparación pueden tener una influencia tan fuerte en el modelo mental de un usuario que podrían usarse para hacer que un agente de IA parezca más poderoso de lo que es, lo que podría llevar a que los usuarios confíen demasiado en un agente y sigan consejos incorrectos.
“Quizás deberíamos alentar más a la gente a que tenga más cuidado y comprenda que los agentes de IA pueden alucinar y son parciales. La forma en que hablemos de los sistemas de IA tendrá en última instancia un gran impacto en cómo las personas respondan a ellos”, afirma Maes.
En el futuro, a los investigadores les gustaría ver cómo se verían afectadas las interacciones entre la IA y los usuarios si los agentes estuvieran diseñados para contrarrestar algunos prejuicios de los usuarios. Por ejemplo, alguien que tiene una percepción muy positiva de la IA podría tener un chatbot que reaccione de forma neutral o incluso ligeramente negativa para que la conversación siga siendo más equilibrada.
También quieren utilizar lo que han aprendido para mejorar ciertas aplicaciones de la IA, como los tratamientos de salud mental, donde podría ser beneficioso para el usuario creer que una IA es empática. Además, quieren realizar un estudio a más largo plazo para ver cómo el modelo mental de un usuario de agente de IA cambia con el tiempo.
Esta investigación fue financiada en parte por Media Lab, el Programa Harvard-MIT en Ciencias y Tecnología de la Salud, Accenture y KBTG.
[ad_2]