[ad_1]
(Noticias de Nanowerk) Un equipo dirigido por la Universidad de California en San Diego ha desarrollado un nuevo sistema de algoritmos que permite a los robots de cuatro patas caminar y correr en terrenos difíciles evitando obstáculos tanto estáticos como móviles.
En las pruebas, el sistema guió a un robot para que maniobrara de forma autónoma y rápida a través de superficies arenosas, grava, hierba y montículos de tierra llenos de baches cubiertos de ramas y hojas sin chocar con postes, árboles, arbustos, rocas, bancos o personas. El robot también navegó a través de un espacio de oficina ocupado sin tropezar con cajas, escritorios o sillas.
El trabajo lleva a los investigadores un paso más cerca de construir robots que puedan realizar misiones de búsqueda y rescate o recopilar información en lugares demasiado peligrosos o difíciles para los humanos.
El equipo presentará su trabajo («Locomoción cuadrúpeda guiada por visión en la naturaleza con aleatorización de retardo multimodal») en la Conferencia Internacional sobre Robots y Sistemas Inteligentes (IROS) de 2022, que tendrá lugar del 23 al 27 de octubre en Kioto, Japón.
El sistema ofrece más versatilidad a un robot con patas porque combina el sentido de la vista del robot con otra modalidad de percepción llamada propiocepción, que incluye el sentido del movimiento, la dirección, la velocidad, la ubicación y el tacto del robot; en este caso, sentir el suelo bajo sus pies. pies.
Actualmente, la mayoría de los enfoques para enseñar a los robots con patas a caminar y navegar se basan en la propiocepción o la visión, pero no en ambos, dijo el autor principal del estudio, Xiaolong Wang, profesor de ingeniería eléctrica e informática en la Escuela de Ingeniería UC San Diego Jacobs.
«En un caso, es como enseñarle a caminar a un robot ciego simplemente tocando el suelo y sintiéndolo. Y en el otro, el robot planifica los movimientos de sus piernas solo con la vista. No aprende dos cosas al mismo tiempo», dijo Wang. «En nuestro trabajo, combinamos la propiocepción con la visión por computadora para permitir que un robot con patas se mueva de manera eficiente y sin problemas, mientras evita obstáculos, en una variedad de entornos desafiantes, no solo en los bien definidos».
El sistema desarrollado por Wang y su equipo utiliza un conjunto especial de algoritmos para fusionar datos de imágenes en tiempo real capturadas por una cámara de profundidad en la cabeza del robot con datos de sensores en las piernas del robot. Esta no fue una tarea fácil. «El problema es que durante las operaciones del mundo real, a veces hay un ligero retraso en la recepción de imágenes de la cámara», explica Wang, «por lo que los datos de las dos modalidades de adquisición diferentes no siempre llegan al mismo tiempo».
La solución del equipo fue simular esta discrepancia al aleatorizar los dos conjuntos de entrada, una técnica que los investigadores llaman aleatorización de retraso multimodal. Luego, las entradas fusionadas y aleatorias se usaron para entrenar una estrategia de aprendizaje por refuerzo de manera integral. Este enfoque ayudó al robot a tomar decisiones rápidas durante la navegación y anticipar cambios en su entorno con anticipación, lo que le permitió moverse más rápido y evitar obstáculos en diferentes tipos de terreno sin la ayuda de un operador humano.
En el futuro, Wang y su equipo están trabajando para hacer que los robots con patas sean más versátiles para que puedan conquistar terrenos aún más desafiantes. “En este momento, podemos entrenar a un robot para que realice movimientos simples como caminar, correr y evitar obstáculos. Nuestros próximos objetivos son hacer que un robot sea capaz de subir y bajar escaleras, caminar sobre piedras, cambiar de dirección y saltar obstáculos”.
El equipo ha publicado su código en línea en: https://github.com/Mehooz/vision4leg.
[ad_2]