[ad_1]
Ir a casa de un amigo o pasear por los pasillos de una tienda de comestibles puede parecer una tarea sencilla, pero en realidad requiere habilidades sofisticadas. Porque los humanos son capaces de comprender fácilmente su entorno y reconocer información compleja sobre patrones, objetos y su propia ubicación en el entorno.
¿Qué pasaría si los robots pudieran percibir su entorno de manera similar? Ésta es la pregunta que preocupa a los investigadores Luca Carlone y Jonathan How del Laboratorio de Sistemas de Información y Decisión (LIDS) del MIT. En 2020, un equipo liderado por Carlone lanzó la primera versión de Kimera, una biblioteca de código abierto que permite a un solo robot crear un mapa tridimensional de su entorno en tiempo real, etiquetando varios objetos visibles mientras lo hace. El año pasado, los grupos de investigación de Carlone y How (SPARK Lab y Aerospace Controls Lab) presentaron Kimera-Multi, un sistema actualizado donde varios robots se comunican entre sí para crear un mapa unificado. Un artículo de 2022 relacionado con el proyecto recibió recientemente el premio de este año. Transacciones IEEE sobre robótica Premio al mejor artículo en memoria de King-Sun Fu, otorgado al mejor artículo publicado en la revista en 2022.
Carlone, Profesor Asociado de Desarrollo Profesional Leonardo de Aeroespacial y Cómo, Profesor Richard Cockburn Maclaurin de Aeroespacial, habló con LIDS sobre Kimera-Multi y el futuro de cómo los robots podrían percibir e interactuar con su entorno.
P: Actualmente, sus laboratorios se centran en aumentar la cantidad de robots que pueden trabajar juntos para crear mapas 3D del entorno. ¿Cuáles son los beneficios potenciales de ampliar este sistema?
Cómo: El principal beneficio es la coherencia, en el sentido de que un robot puede crear un mapa independiente y ese mapa es autoconsistente pero no globalmente consistente. Nuestro objetivo es que el equipo tenga un mapa mundial consistente. Ésa es la diferencia clave entre intentar crear consenso entre robots y realizar mapas de forma independiente.
carlo: En muchos escenarios, también es bueno tener un poco de redundancia. Por ejemplo, si utilizamos un solo robot en una misión de búsqueda y rescate y a ese robot le pasa algo, no podrá encontrar a los supervivientes. Si varios robots realizan la exploración, las posibilidades de éxito son mucho mayores. El aumento del equipo de robots también significa que cada tarea se puede completar en menos tiempo.
P: ¿Qué lecciones ha aprendido de experimentos recientes y qué desafíos ha enfrentado al desarrollar estos sistemas?
carlo: Recientemente, llevamos a cabo un gran experimento de mapeo en el campus del MIT, en el que ocho robots recorrieron un total de hasta 8 kilómetros. Los robots no tienen conocimiento previo del campus ni GPS. Su tarea principal es estimar su propia trayectoria y crear un mapa basado en ella. Quieren que los robots comprendan el entorno de la misma manera que los humanos. Los humanos no sólo comprenden la forma de los obstáculos y cómo evitarlos sin golpearlos, sino que también comprenden que un objeto es una silla, un escritorio, etc. Está la parte semántica.
Lo interesante es que cuando los robots se encuentran, intercambian información para mejorar su mapa ambiental. Por ejemplo, cuando los robots se conectan, pueden utilizar información para corregir su propia trayectoria. El desafío es que no tienes el ancho de banda para intercambiar demasiados datos si quieres llegar a un consenso entre robots. Una de las contribuciones clave de nuestro artículo de 2022 es proporcionar un protocolo distribuido en el que los robots puedan compartir información limitada pero aún así poder ponerse de acuerdo sobre el aspecto del mapa. No envían imágenes de la cámara de un lado a otro, sino que solo intercambian coordenadas 3D específicas y pistas extraídas de los datos del sensor. A medida que continúen compartiendo esos datos, podrán llegar a un consenso.
En este momento estamos creando mallas o mapas 3D codificados por colores donde el color lleva cierta información semántica, como «verde» corresponde a la hierba y «magenta» corresponde a un edificio. Pero como seres humanos, tenemos una comprensión mucho más matizada de la realidad y un amplio conocimiento previo de las relaciones entre los objetos. Por ejemplo, cuando buscaba una cama, iba al dormitorio en lugar de explorar toda la casa. A medida que comience a comprender las complejas conexiones entre las cosas, comprenderá mucho mejor lo que el robot puede hacer en el entorno. Estamos intentando pasar de capturar un solo nivel de semántica a una representación más jerárquica en la que los robots comprendan espacios, edificios y otros conceptos.
P: ¿A qué aplicaciones podrían conducir Kimera y tecnologías similares en el futuro?
Cómo: Los fabricantes de vehículos autónomos están mapeando el mundo a escala y aprendiendo de los entornos en los que se encuentran. El santo grial sería que si estos vehículos pudieran comunicarse entre sí e intercambiar información, entonces podrían mejorar los modelos y mapas mucho más rápido. Las soluciones actuales son individualizadas. Cuando un camión se detiene a tu lado, no puedes ver en una dirección específica. ¿Podría otro vehículo ofrecer un campo de visión que el suyo no tendría de otro modo? Se trata de una idea con visión de futuro, ya que los vehículos necesitan comunicarse de nuevas formas y es necesario superar los problemas de privacidad. Pero si pudiéramos resolver estos problemas, podríamos imaginar una situación de seguridad enormemente mejorada en la que se pueda acceder a los datos desde múltiples perspectivas, no solo desde su campo de visión.
carlo: Estas tecnologías tendrán muchas aplicaciones. Antes mencioné los servicios de búsqueda y rescate. Imagine que desea explorar un bosque en busca de supervivientes o mapear edificios después de un terremoto para ayudar a los socorristas a acceder a las personas atrapadas. Otra aplicación de estas tecnologías podrían ser las fábricas. Actualmente, los robots utilizados en las fábricas son muy rígidos. Siguen patrones en el terreno y realmente no son capaces de comprender su entorno. Pero si pensamos en fábricas mucho más flexibles en el futuro, los robots necesitarán cooperar con los humanos y existir en un entorno mucho menos estructurado.
[ad_2]