//php echo do_shortcode(‘[responsivevoice_button voice=»US English Male» buttontext=»Listen to Post»]’) ?>
Los fabricantes de automóviles están explorando la tecnología neuromórfica para implementar funciones impulsadas por IA como reconocimiento de palabras clave, conciencia del conductor y monitoreo del comportamiento de los pasajeros.
Imitar los procesos biológicos del cerebro es atractivo porque promete habilitar funciones avanzadas sin aumentar significativamente el consumo de energía, mientras que los vehículos tienden a funcionar con baterías. La computación y detección neuromórficas también prometen beneficios como una latencia ultrabaja, que en algunos casos permite la toma de decisiones en tiempo real. Esta combinación de latencia y eficiencia energética es extremadamente atractiva.
Estos son los hechos sobre cómo funciona la tecnología y una pista de cómo podría verse en los autos del futuro.
Con el auge de la inteligencia artificial, existen numerosas tecnologías que afirman estar «inspiradas en el cerebro». En nuestro proyecto especial Computación neuromórfica, estamos investigando qué significa neuromórfico en la actualidad.
clavando redes
La verdad es que todavía hay algunas cosas sobre cómo funciona el cerebro humano que simplemente no entendemos. Sin embargo, la investigación de vanguardia sugiere que las neuronas se comunican entre sí mediante el envío de señales eléctricas conocidas como picos entre sí, y que la secuencia y el momento de los picos son los factores cruciales, no su tamaño. El modelo matemático de cómo responde la neurona a estos picos aún se está elaborando. Pero muchos científicos están de acuerdo en que si varios picos de sus vecinos llegan a la neurona al mismo tiempo (o en una sucesión muy rápida), eso significaría que la información representada por esos picos está correlacionada, lo que hace que la neurona se dispare en su vecino. .
Esto contrasta con las redes neuronales artificiales basadas en el aprendizaje profundo (la IA convencional actual), donde la información se propaga a través de la red a un ritmo regular; Es decir, la información que ingresa a cada neurona se representa como valores numéricos y no se basa en el tiempo.
Crear sistemas artificiales basados en spiking no es fácil. Aparte de no saber exactamente cómo funciona la neurona, tampoco hay consenso sobre la mejor manera de entrenar redes de picos. Backpropagation, el algoritmo que permite el entrenamiento de algoritmos de aprendizaje profundo en la actualidad, requiere el cálculo de derivadas, lo que no es posible para los picos. Algunas personas aproximan los derivados de los picos para usar la retropropagación (como SynSense), y algunos usan otra técnica llamada Spike Timing Dependent Plasticity (STDP) que se acerca más a cómo funcionan los cerebros biológicos. Sin embargo, STDP es menos maduro como tecnología (BrainChip usa este método para el aprendizaje de una sola vez en el perímetro). También existe la posibilidad de convertir CNN (redes neuronales convolucionales) de aprendizaje profundo que tradicionalmente han sido entrenadas por retropropagación para ejecutarse en el dominio de picos (otra técnica utilizada por BrainChip).
tocino SynSense
SynSense está colaborando con BMW para avanzar en la integración de chips neuromórficos en cabinas inteligentes y para explorar conjuntamente áreas relacionadas. BMW evaluará el Speck SoC de SynSense, que combina el procesador de procesamiento de imágenes neuromórficas de SynSense con una cámara Inivation de 128 x 128 píxeles basada en eventos. Se puede utilizar para capturar información visual en tiempo real, detectar y reconocer objetos y realizar otras funciones de interacción y reconocimiento visual.
«Cuando BMW reemplaza las cámaras RGB con módulos Speck para el reconocimiento de imágenes, no solo pueden reemplazar el sensor, sino también una parte significativa de la potencia de procesamiento de GPU o CPU requerida para procesar flujos de imágenes RGB estándar», dijo Dylan Muir, vicepresidente de operaciones de investigación global. en SynSense EE Times.
El uso de una cámara basada en eventos ofrece un rango dinámico más alto que las cámaras estándar, lo que es beneficioso en condiciones de iluminación extremas dentro y fuera del vehículo.
BMW explorará la tecnología neuromórfica para aplicaciones automotrices, incluida la atención del conductor y el control del comportamiento de los pasajeros con el módulo Speck.
«Estaremos explorando aplicaciones adicionales tanto dentro como fuera del vehículo en los próximos meses», dijo Muir.
El procesador de imágenes neuromórficas de SynSense tiene una arquitectura digital totalmente asíncrona. Cada neurona utiliza lógica de enteros con pesos de sinapsis de 8 bits, estado de neurona de 16 bits, umbral de 16 bits y picos de entrada y salida de un bit. La neurona usa un modelo simple de integración y disparo que combina los picos de entrada con los pesos sinápticos de la neurona hasta que se alcanza el umbral, cuando la neurona dispara un pico simple de un bit. En general, el diseño es un equilibrio entre la complejidad y la eficiencia computacional, dijo Muir.

El chip digital de SynSense está diseñado para procesar CNN basadas en eventos, y cada capa es procesada por un núcleo diferente. Los núcleos funcionan de forma asíncrona e independiente; Toda la canalización de procesamiento está basada en eventos.
«Nuestros módulos Speck funcionan en tiempo real con baja latencia», dijo Muir. “Podemos manejar tasas de inferencia efectivas de >20 Hz con un consumo de energía de <5 mW. Esto es mucho más rápido de lo que sería posible con la computación tradicional de bajo consumo en flujos RGB Vision estándar”.
Si bien SynSense y BMW inicialmente explorarán casos de uso para automóviles neuromórficos en la «cabina inteligente», también existe potencial para otras aplicaciones automotrices.
«Primero, examinaremos casos de uso no críticos para la seguridad», dijo Muir. “Planeamos versiones futuras de Speck con resoluciones más altas, así como revisiones de nuestro motor de procesamiento de imágenes DynapCNN que puede interactuar con sensores de alta resolución. Planeamos que estas tecnologías futuras admitirán aplicaciones automotrices avanzadas como la conducción autónoma, el frenado de emergencia, etc.

BrainChip Akida
El vehículo conceptual Mercedes EQXX, presentado en CES 2022, cuenta con el procesador neuromórfico Akida de BrainChip que reconoce palabras clave en la cabina. El automóvil, promocionado como «el Mercedes-Benz más eficiente de la historia», utiliza tecnología neuromórfica para usar menos energía que los sistemas de reconocimiento de palabras clave basados en aprendizaje profundo. Esto es crucial para un automóvil que se espera que entregue 620 millas (alrededor de 1,000 km) de alcance con una sola carga de batería, 167 millas más que el vehículo insignia de Mercedes, el EQS.
Mercedes dijo en ese momento que la solución de BrainChip era de 5 a 10 veces más eficiente que el control de voz tradicional para reconocer la palabra de activación «Hola Mercedes».

«Aunque la computación neuromórfica aún está en sus inicios, estos sistemas estarán disponibles en el mercado en unos pocos años», dice Mercedes. «Si se aplican a escala en todo el vehículo, tienen el potencial de reducir radicalmente el consumo de energía para operar las últimas tecnologías de inteligencia artificial».
«[Mercedes is] Mirando grandes problemas como la gestión y transmisión de la batería, pero cada milivatio cuenta, y el contexto de [BrainChip’s] La conclusión fue que incluso la conclusión más simple, como detectar una palabra clave, importa cuando observa el rango de rendimiento”, dijo Jerome Nadel, director de marketing de BrainChip, a EE Times.
Nadel dijo que para 2022, un automóvil típico podría tener hasta 70 sensores diferentes. Para aplicaciones en cabina, estos sensores pueden permitir el reconocimiento facial, la estimación de la mirada, la clasificación de emociones y más.
«Desde la perspectiva de la arquitectura del sistema, podemos hacerlo 1:1, hay un sensor que realiza cierto nivel de preprocesamiento y luego los datos se transmiten», dijo. «Habría una inferencia de IA cerca del sensor y… pasaría los metadatos de inferencia y no todo el conjunto de datos del sensor».
La idea es minimizar el tamaño y la complejidad de los paquetes de datos enviados a los aceleradores de IA en las unidades principales de los automóviles al tiempo que se reduce la latencia y se minimiza el consumo de energía. Con un potencial para 70 chips Akida, o sensores habilitados para Akida, en cada vehículo, Nadel dijo que cada uno será una «parte económica que desempeñará un papel modesto», y señaló que la compañía debe prestar atención a la lista de materiales para todos. estos sensores.

De cara al futuro, Nadel dijo que el procesamiento neuromórfico también llegará a ADAS y sistemas de vehículos autónomos. Existe la oportunidad de reducir la necesidad de otros tipos de aceleradores de IA hambrientos de rendimiento.
«Si cada sensor tuviera una implementación Akida limitada de, digamos, uno o dos nodos, haría la inferencia suficiente y los datos que pasarían se truncarían en un orden de magnitud porque eran los metadatos de la inferencia… afectaría «la potencia que necesita en el servidor en el maletero», dijo.
El chip Akida de BrainChip acelera las redes neuronales de pico (SNN) y las redes neuronales convolucionales (al convertirlas en SNN). No está diseñado para un caso de uso o sensor específico, por lo que puede funcionar con el reconocimiento de imágenes para el reconocimiento de rostros o de personas, u otras aplicaciones de audio como la identificación del altavoz. BrainChip también ha demostrado Akida con sensores de olor y sabor, aunque es más difícil imaginar cómo podrían usarse estos sensores en la industria automotriz (quizás para oler y saborear la contaminación del aire o la calidad del combustible).
Akida está configurado para procesar SNN o CNN de aprendizaje profundo que se han convertido al dominio de picos. A diferencia de las redes nativas de picos, las CNN convertidas retienen cierta información en el tamaño del pico, por lo que es posible que se requiera un cálculo de 2 o 4 bits. Sin embargo, este enfoque permite explotar las propiedades de las CNN, incluida su capacidad para extraer características de grandes conjuntos de datos. Ambos tipos de redes se pueden actualizar con STDP en el borde; en el ejemplo de Mercedes, esto podría significar volver a entrenar la red para que reconozca más o diferentes palabras clave después de la implementación.

Mercedes ha confirmado que «muchas innovaciones», incluidos «componentes y tecnologías específicos» del prototipo EQXX, se convertirán en vehículos de producción, informa Autocar. Aún no se sabe si los nuevos modelos de Mercedes estarán equipados con cerebros artificiales.