[ad_1]
Este artículo es parte de TechXchange: TinyML: aprendizaje automático para plataformas pequeñas.
Arm está aumentando sus ambiciones de IA en dispositivos. El mayor proveedor de IP de semiconductores del mundo ha lanzado hasta la fecha su núcleo de CPU de 32 bits más pequeño y con mayor eficiencia energética basado en su tecnología Helium: el Cortex-M52.
Arm dijo que el núcleo de la CPU Cortex-M52 está diseñado específicamente para llevar el aprendizaje automático (ML) de la nube a dispositivos IoT alimentados por baterías, brindando una mejora de rendimiento de más de 5,6 veces en la inferencia de IA en comparación con sus predecesores sin tener que usar electricidad adicional. Área de silicio y costo de una unidad de procesamiento neuronal (NPU) separada. También implementa la tecnología TrustZone de la empresa para mantener seguros el núcleo y el sistema del que forma parte.
El M52 agrega una nueva clase de Cortex-M a la expansión Helium de Arm, lo que permite que modelos ML más grandes se ejecuten en miles de millones de microcontroladores (MCU) que han estado en gran medida fuera del alcance de la IA.
Mientras que la CPU centro configurable en uno número de posibilidades, Arm dijo que el Cortex-M52 marcará una gran diferencia en pequeños chips alimentados por baterías que normalmente cuestan sólo unos pocos dólares. Esto permite que estos chips ejecuten IA con fines de mantenimiento predictivo, usando micrófonos para escuchar ruidos específicos, como chirridos de ruedas y engranajes traqueteando en la maquinaria de la fábrica, o usando otros sensores para detectar vibraciones irregulares. Otras capacidades de la CPU incluyen control inteligente del motor y administración de energía.
Arm dice que el M52 tiene suficiente potencia para realizar reconocimiento de palabras clave y gestos en tiempo real en dispositivos IoT como parlantes y luces inteligentes, o incluso fusión de sensores en dispositivos portátiles.
«A medida que esta tecnología avance, la inteligencia en el dispositivo se implementará en dispositivos más pequeños, más sensibles a los costos y, a menudo, alimentados por baterías en los puntos de menor costo, con mayor privacidad y confiabilidad debido a la menor dependencia de la nube», dijo Paul Williamson, vicepresidente senior y director general del negocio de IoT de Arm. Mencionó el Cortex-M52 como un posible reemplazo futuro de Cortex-M3, -M33 y -M4.
Arm dijo que los clientes comenzarán a adoptar chips basados en Cortex-M52 para 2024.
Hardware: el corazón de la IA en el dispositivo
Hoy en día, el aprendizaje automático ya no se limita a los centros de datos equipados con aceleradores de IA que pueden realizar muchos billones de operaciones por segundo (TOPS) y tienen grandes cantidades de memoria en chip de gran ancho de banda.
Sin embargo, ejecutar ML directamente en dispositivos IoT pequeños y con energía limitada basados en Cortex-M u otros núcleos de CPU de la misma clase es particularmente desafiante. Estos chips funcionan a una fracción de la velocidad de reloj (en el rango de 100 MHz) de los núcleos Cortex-A de Arm utilizados en los teléfonos inteligentes, combinados con cantidades relativamente pequeñas de SRAM en el chip, lo que crea un ajuste perfecto para las redes neuronales en el corazón de El aprendizaje automático está surgiendo. Aunque los tiempos cambian, no suelen verse reforzados por motores neuronales u otros núcleos de IA.
Para resolver los desafíos, todos, desde los gigantes tecnológicos hasta las nuevas empresas, están tratando de desarrollar modelos de aprendizaje automático más compactos que puedan ejecutarse directamente en CPU de clase MCU, o herramientas de software que puedan hacer el trabajo.
Colocar modelos de ML directamente en el dispositivo limita la latencia, lo que puede afectar negativamente al rendimiento. Conectarse a la nube solo cuando sea necesario es más eficiente y reduce los riesgos de seguridad y privacidad.
[ad_2]