//php echo do_shortcode(‘[responsivevoice_button voice=»US English Male» buttontext=»Listen to Post»]’) ?>
La start-up británica Opteran, una spin-out de la Universidad de Sheffield, tiene una visión muy diferente de la ingeniería neuromórfica en comparación con la mayoría de la industria. La compañía ha reconstruido cerebros de insectos para derivar nuevos algoritmos de navegación y evitación de colisiones que pueden usarse en robótica.
Opteran llama a su nuevo enfoque de IA «inteligencia natural» y toma inspiración biológica directa para la parte del algoritmo del sistema. Este enfoque difiere de los enfoques de visión por computadora existentes, que utilizan principalmente IA convencional/aprendizaje profundo o fotogrametría, una técnica que utiliza fotografías 2D para obtener información sobre objetos 3D, como objetos. B. se derivan las dimensiones.
La inteligencia natural de Opteran no requiere datos de entrenamiento ni entrenamiento, más como funciona un cerebro biológico. El aprendizaje profundo ahora es capaz de reducir la IA (puede realizar tareas cuidadosamente definidas en un entorno limitado como un juego de computadora), pero requiere grandes cantidades de datos de entrenamiento, así como potencia de procesamiento y consumo de energía. Opteran quiere ampliar los límites del aprendizaje profundo al imitar exactamente lo que realmente hacen los cerebros para construir robots autónomos que puedan interactuar con el mundo real mientras funcionan con presupuestos computacionales y de energía ajustados.
«Nuestro objetivo es revertir los algoritmos de la naturaleza, o rediseñarlos para crear un cerebro de software que permita que las máquinas perciban, se comporten y se adapten más como criaturas naturales», dijo el profesor James Marshall, director científico de Opteran, en una presentación reciente en el Embedded Cumbre de la Visión.
«Imitar el cerebro para crear IA es una vieja idea que se remonta a Alan Turing», dijo. «El aprendizaje profundo, por otro lado, se basa en una caricatura de una pequeña porción de la corteza visual del cerebro de los primates que ignora la gran complejidad de un cerebro real… Las técnicas neurocientíficas modernas se aplican cada vez más para proporcionar la información que necesitamos para fielmente ingeniería inversa, como los de verdad. «los cerebros resuelven el problema de la autonomía».
Los cerebros de ingeniería inversa requieren el estudio combinado del comportamiento animal, la neurociencia y la anatomía. Opteran trabajó con cerebros de abejas melíferas porque son lo suficientemente simples y capaces de orquestar comportamientos complejos. Las abejas melíferas son capaces de navegar distancias de 7 millas y comunicar con precisión sus mapas mentales a otras abejas. Todo esto sucede con menos de un millón de neuronas en un cerebro eficiente en energía del tamaño de una cabeza de alfiler.
Opteran ha reconstruido con éxito el algoritmo que utilizan las abejas melíferas para la estimación del flujo óptico (el movimiento aparente de los objetos en una escena causado por el movimiento relativo del observador). Este algoritmo puede realizar procesamiento de flujo óptico a 10 kHz por menos de un vatio y se ejecuta en un FPGA pequeño.
«Este rendimiento supera el estado del arte de aprendizaje profundo por órdenes de magnitud en todas las dimensiones, incluidas la robustez, la potencia y la velocidad», dijo Marshall.
Algoritmos biológicos
La detección de movimiento biológico se modeló matemáticamente en experimentos con cerebros de insectos en la década de 1960. El modelo se llama detector de Hassenstein-Reichardt y ha sido verificado muchas veces por varios métodos experimentales. En este modelo, el cerebro recibe señales de dos receptores adyacentes en el ojo. La entrada de un receptor se retrasa. Cuando el cerebro recibe ambas señales al mismo tiempo, la neurona se dispara porque significa que el objeto que se está mirando se está moviendo. Hacer esto nuevamente con la otra señal retrasada significa que funcionará si el objeto se mueve en cualquier dirección (de ahí la simetría en el modelo).

Marshall explicó en su presentación que, si bien el detector Hassenstein-Reichardt es suficiente para modelar la detección de movimiento en las moscas de la fruta, es muy sensible a la frecuencia espacial (el patrón de distribución de la oscuridad y la luz en una imagen) y el contraste, y por lo tanto no es adecuado a la navegación visual generalizada.
«Las abejas melíferas hacen algo más inteligente, que es una disposición novedosa de estas unidades elementales», dijo Marshall. «El comportamiento de vuelo de las abejas muestra una gran solidez a la frecuencia espacial y al contraste, por lo que debe haber algo más».
Opteran usó datos neurocientíficos y de comportamiento de las abejas para desarrollar su propio estimador de odometría inercial visual y algoritmo para evitar colisiones (en el diagrama de arriba). Este algoritmo se comparó y se encontró que era superior a FlowNet2s (un algoritmo de aprendizaje profundo de última generación en ese momento) en términos de precisión teórica y robustez al ruido. Marshall señala que la implementación del aprendizaje profundo también requeriría aceleración de GPU con la penalización de rendimiento asociada.
Robótica en el mundo real
Es una buena teoría, pero ¿funciona en el mundo real? Opteran en realidad aplicó sus algoritmos a la robótica del mundo real. La compañía ha desarrollado una demostración de perro robótico, Hopper, en un factor de forma similar al Spot de Boston Dynamics. Hopper utiliza una solución de solo visión basada en el borde basada en el algoritmo de predicción y evitación de colisiones de Opteran; Cuando se detecta una posible colisión, un simple control hará que se den la vuelta.
Opteran también está trabajando en un algoritmo de navegación 3D, nuevamente basado en abejas. Esta solución corresponde a los algoritmos SLAM (ubicación y mapeo simultáneos) actuales, pero también maneja la planificación de rutas, el enrutamiento y la semántica. Marshall dijo que funcionará con el mismo hardware a una fracción de vatio.
«Otro gran ahorro está en el tamaño del mapa generado por este enfoque», dijo. «Mientras que SLAM basado en fotogrametría clásica genera tamaños de mapa del orden de cientos de megabytes a gigabytes por metro cuadrado, lo que causa problemas significativos al mapear áreas grandes, tenemos mapas que consumen solo kilobytes de espacio de almacenamiento».
Una demostración de este algoritmo, que impulsa un pequeño dron en vuelo, utiliza una sola cámara de baja resolución (menos de 10 000 píxeles) para realizar una navegación autónoma basada en la visión.
hardware y software
El kit de desarrollo de Opteran utiliza un pequeño módulo FPGA Xilinx Zynqberry que pesa menos de 30 gy consume menos de 3 W. Requiere dos cámaras. El kit de desarrollo utiliza cámaras Raspberry Pi económicas ($20), pero Opteran trabajará con los OEM para calibrar algoritmos para otros tipos de cámaras durante el desarrollo del producto.
El FPGA actual puede ejecutar el procesamiento de flujo óptico omnidireccional y los algoritmos de predicción de colisiones de Opteran simultáneamente. El hardware futuro puede migrar a FPGA o GPU más grandes según sea necesario, dijo Marshall.
La empresa construye una pila de software para aplicaciones de robótica. Además de un sistema de visión panorámica estabilizado electrónicamente, hay prevención de colisiones y luego navegación. Se está trabajando en un motor de decisiones que permitiría a un robot decidir a dónde ir y en qué circunstancias (esperado para 2023). Los elementos futuros incluyen motores sociales, causales y abstractos que permiten a los robots interactuar entre sí, inferir estructuras causales en entornos del mundo real y abstraer principios generales de situaciones experimentadas. Todos estos motores se basan en sistemas biológicos, sin aprendizaje profundo ni sistemas basados en reglas.
Opteran cerró una ronda de financiación de $12 millones el mes pasado que financiará la comercialización de su enfoque de inteligencia natural y el desarrollo de los algoritmos restantes en su pila. Los pilotos de los clientes han utilizado funciones de visión estabilizada, prevención de colisiones y navegación en brazos de cobots, drones y robots mineros.
Las direcciones de investigación futuras también podrían incluir el estudio de otros animales con cerebros más complejos, dijo Marshall.
«Comenzamos con insectos, pero el enfoque se está escalando», dijo. «Observaremos a los vertebrados a su debido tiempo, eso está absolutamente en nuestra hoja de ruta».