[ad_1]

Para construir sistemas de IA que puedan funcionar eficazmente con humanos, es útil tener primero un buen modelo de comportamiento humano. Pero la gente tiende a comportarse de manera subóptima al tomar decisiones.

Esta irracionalidad, que es particularmente difícil de modelar, a menudo puede atribuirse a limitaciones computacionales. Una persona no puede pasar décadas pensando en la solución ideal a un único problema.

Investigadores del MIT y la Universidad de Washington han desarrollado una forma de modelar el comportamiento de un agente, ya sea humano o máquina, que tiene en cuenta las limitaciones computacionales desconocidas que pueden afectar las capacidades de resolución de problemas del agente.

Su modelo puede inferir automáticamente las limitaciones computacionales de un agente al ver pocos rastros de sus acciones anteriores. El resultado, llamado “presupuesto de inferencia” de un agente, se puede utilizar para predecir el comportamiento futuro de ese agente.

En un nuevo artículo, los investigadores demuestran cómo se puede utilizar su método para inferir los objetivos de navegación de una persona a partir de rutas anteriores y para predecir los movimientos posteriores de los jugadores en partidas de ajedrez. Su técnica iguala o supera a otro método popular para modelar este tipo de toma de decisiones.

En última instancia, este trabajo podría ayudar a los científicos a enseñar a los sistemas de inteligencia artificial cómo se comportan los humanos, lo que podría permitir que estos sistemas respondan mejor a sus colaboradores humanos. La capacidad de comprender el comportamiento de un ser humano y luego inferir sus objetivos podría hacer que un asistente de IA sea mucho más útil, afirma Athul Paul Jacob, estudiante de doctorado en ingeniería eléctrica e informática (EECS) y autor principal de un artículo sobre el tema de la técnica. .

“Si sabemos que un humano está a punto de cometer un error después de ver previamente cómo se comportó, el agente de IA podría intervenir y ofrecer una mejor manera de hacerlo o el agente podría adaptarse a las debilidades de sus empleados humanos”. La capacidad de modelar el comportamiento humano es un paso importante hacia el desarrollo de un agente de IA que realmente pueda ayudar a ese ser humano”, afirma.

Jacob fue coautor del artículo con Abhishek Gupta, profesor asistente de la Universidad de Washington, y el autor principal Jacob Andreas, profesor asociado de EECS y miembro del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL). La investigación se presentará en la Conferencia Internacional sobre Representaciones del Aprendizaje.

Comportamiento modelo

Los investigadores llevan décadas creando modelos informáticos del comportamiento humano. Muchos enfoques anteriores intentan dar cuenta de la toma de decisiones subóptima agregando ruido al modelo. En lugar de que el agente elija siempre la opción correcta, el modelo podría guiarlo a tomar la decisión correcta el 95 por ciento de las veces.

Sin embargo, es posible que estos métodos no capturen el hecho de que las personas no siempre hacen esto. comportarse de manera subóptima de la misma manera.

Otros en el MIT también han estudiado formas más efectivas de planificar y establecer objetivos frente a una toma de decisiones subóptima.

Al construir su modelo, Jacob y sus colaboradores se inspiraron en estudios previos de ajedrecistas. Descubrieron que en jugadas simples, los jugadores necesitaban menos tiempo para pensar antes de actuar, y que en juegos más desafiantes, los jugadores más fuertes tendían a dedicar más tiempo a planificar que los más débiles.

«Al final, vimos que la profundidad de la planificación, o cuánto tiempo uno piensa en el problema, es un muy buen indicador de cómo se comporta la gente», dice Jacob.

Desarrollaron un marco que podría inferir la profundidad de la planificación de un agente a partir de acciones anteriores y utilizar esta información para modelar el proceso de toma de decisiones del agente.

El primer paso de su método es ejecutar un algoritmo durante un período de tiempo determinado para resolver el problema en estudio. Por ejemplo, al estudiar un juego de ajedrez, podrían ejecutar el algoritmo de ajedrez durante una determinada cantidad de pasos. Al final, los investigadores pueden ver las decisiones que tomó el algoritmo en cada paso.

Su modelo compara estas decisiones con el comportamiento de un agente que resuelve el mismo problema. Compara las decisiones del agente con las decisiones del algoritmo e identifica el paso en el que el agente dejó de planificar.

A partir de esto, el modelo puede determinar el presupuesto de inferencia del agente o cuánto tiempo dedicará ese agente a este problema. Utilizando el presupuesto de inferencia, se puede predecir cómo reaccionaría ese agente al resolver un problema similar.

Una solución interpretable

Este método puede resultar muy eficaz porque los investigadores pueden acceder a todas las decisiones tomadas por el algoritmo de resolución de problemas sin ningún esfuerzo adicional. Este marco también podría aplicarse a cualquier problema que pueda resolverse utilizando una clase específica de algoritmos.

“Lo más sorprendente para mí fue el hecho de que este presupuesto de inferencia es muy fácil de interpretar. Significa que los problemas más difíciles requieren más planificación o ser un jugador fuerte significa planificar por más tiempo. Cuando nos propusimos hacer esto por primera vez, no pensamos que nuestro algoritmo pudiera detectar estos comportamientos de forma natural”, dice Jacob.

Los investigadores probaron su enfoque en tres tareas de modelado diferentes: inferir objetivos de navegación a partir de rutas anteriores, adivinar la intención de comunicación de una persona basándose en sus señales verbales y predecir movimientos posteriores en juegos de ajedrez entre humanos.

Su método igualó o superó una alternativa popular en cada experimento. Además, los investigadores descubrieron que su modelo de comportamiento humano coincidía bien con las medidas de habilidad del jugador (en juegos de ajedrez) y dificultad de la tarea.

En el futuro, los investigadores quieren utilizar este enfoque para modelar el proceso de planificación en otras áreas, como el aprendizaje por refuerzo (un método de prueba y error utilizado a menudo en robótica). A largo plazo, quieren seguir ampliando este trabajo para lograr el objetivo más amplio de desarrollar trabajadores de IA más eficaces.

Este trabajo fue apoyado en parte por el programa de Inteligencia Artificial para el Aumento y la Productividad de la Facultad de Computación Schwarzman del MIT y la Fundación Nacional de Ciencias.

[ad_2]