[ad_1]
Informes de progreso sobre productos impulsados por IA
A continuación se muestran algunos del creciente número de proveedores de productos que ofrecen nuevas funciones o mejoras centradas en la IA.
AMD
Edge AI es el foco de AMD con su Versal AI Edge SoC. La arquitectura Versal Adaptive Compute Acceleration Platform (ACAP) escala desde dispositivos de borde de menos de 10 W hasta sistemas de supercomputación de más de 100 W.
Según la compañía, los chips constan de tres partes principales: motores skalar, que contienen dos procesadores ARM de doble núcleo para ejecutar aplicaciones de clase Linux, así como código crítico para la seguridad; motores adaptativos que pueden manejar el determinismo y el paralelismo para procesar datos de sensores; y motores de inteligencia que pueden ejecutar cargas de trabajo de IA de vanguardia, como inferencia de IA, procesamiento de imágenes y control de movimiento.
Según AMD, ofrece un rendimiento competitivo por vatio en comparación con las GPU para funciones como sistemas en tiempo real en vehículos autónomos, sistemas sanitarios, fábricas y aviones. Para los desarrolladores, la plataforma de software unificada Vitis ofrece bibliotecas de código abierto, un zoológico de modelos, un modelo de programación único para desarrollar aplicaciones en todas las arquitecturas de chips AMD y un kit de desarrollo de software para análisis de vídeo.
pobre
Los núcleos de CPU de 32 bits de bajo consumo energético de Arm, basados en la tecnología Helium de la empresa, se dirigen a los mercados de IoT. El Cortex-M52 está destinado a proporcionar capacidades de aprendizaje automático (ML) para dispositivos IoT pequeños que funcionan con baterías.
Arm afirma que el núcleo de la CPU Cortex-M52 puede ofrecer 5,6 veces el rendimiento de sus predecesores para tareas de inferencia de IA y, al mismo tiempo, evita la necesidad de una unidad de procesamiento neuronal (NPU) separada. La tecnología TrustZone de la empresa también está integrada para garantizar la seguridad.
Según Arm, Helium es una extensión opcional de la arquitectura Armv8.1-M que mejora el rendimiento del ML y el procesamiento de señales digitales.
Expedera
Expedera fabrica una NPU adecuada para diseños SoC. Incluye una canalización informática unificada diseñada para reducir los cuellos de botella de memoria y cumplir con los requisitos de rendimiento de las aplicaciones de IA.
Origin es una línea de productos IP de motor neuronal que reduce el uso de memoria y la sobrecarga para ofrecer rendimiento y eficiencia energética. Específicamente, el hardware de Origin asume la carga del software, lo que da como resultado una pila de software simplificada que permite que TensorFlow se ejecute directamente en el hardware. Expedera afirma un rendimiento sostenido de un solo núcleo de hasta 128 TOPS con tasas de utilización típicas del 70% al 90%.
MIPS
El objetivo principal de las CPU eVocore RISC-V de MIPS son los sistemas automotrices. En las CPU eVocore, el subproceso múltiple aumenta la eficiencia del rendimiento y una estructura coherente optimiza el movimiento de datos a diferentes máquinas informáticas. La compañía dijo que el soporte de múltiples clústeres proporciona un alto nivel de escalabilidad del sistema.
Neológica
NeoLogic afirma que su nueva tecnología post-CMOS VLSI (Quasi-CMOS, pendiente de patente) puede reducir tres veces el número de transistores centrales, reducir a la mitad la disipación de energía y reducir significativamente los requisitos de área. El resultado de todo esto es una mejora significativa en el rendimiento por vatio, afirma la empresa. Se dirige a las necesidades de aplicaciones de vídeo, IA/ML y análisis de datos tanto en la nube como en el borde.
Cuadrado
La arquitectura del procesador Chimera General Purpose Neural Processing Unit (GPNPU) está diseñada para proporcionar inteligencia artificial “en el dispositivo”, dijo Quadric. Chimera puede proporcionar un sólido rendimiento de inferencia de aprendizaje automático mientras ejecuta código C++ tradicional.
No se requiere ningún código de partición entre varios tipos de procesadores. La GPNPU utiliza una única canalización para procesar operaciones matriciales y vectoriales, así como código escalar (control).
Según la compañía, GPNPU es un procesador con licencia que escala de 1 a 16 TOPS y puede ejecutar todo tipo de redes ML, incluidas redes troncales, transformadores de visión y LLM. Según Quadric, las propiedades de GPNPU conducen a una migración más rápida de los modelos ML y, por lo tanto, a un tiempo de comercialización más rápido.
Quadric también ofrece DevStudio, que permite la simulación de software de IA y la visualización de opciones de diseño de SoC.
Synthara AG
ComputeRAM de Synthara está dirigido principalmente a los fabricantes de ASIC para admitir la computación en memoria en la tecnología existente. La compañía afirma que su tecnología puede aumentar el rendimiento hasta 50 veces sin cambiar la arquitectura. También se puede integrar en muchos tipos de procesadores, incluidos x86, ARM y RISC-V. Además, el software admite algoritmos nuevos y existentes.
Además de los proveedores mencionados anteriormente, varias nuevas empresas están ingresando a este campo, incluidas RED Semiconductor en el Reino Unido y nuevas empresas de chips de IA con sede en EE. UU., como Graphcore, iDEAL Semiconductor y Kneron. A medida que este sector siga atrayendo atención e inversiones, es probable que muchos más entren en escena.
Referencias
«Las arquitecturas de aceleradores de IA se enfrentan a cambios importantes» Tecnología de semiconductores.
«Compensaciones del procesador para cargas de trabajo de IA» Tecnología de semiconductores.
[ad_2]