[ad_1]
(Noticias de Nanowerk) Un equipo internacional de investigadores ha diseñado y construido un chip que realiza cálculos directamente en la memoria y puede ejecutar una variedad de aplicaciones de inteligencia artificial (IA), todo a una fracción de la potencia consumida por las plataformas informáticas para la informática general de IA.
El chip neuromórfico NeuRRAM lleva a la IA un paso más cerca de ejecutarse en una amplia gama de dispositivos de borde desconectados de la nube, donde puede realizar tareas cognitivas exigentes en cualquier lugar, en cualquier momento, sin depender de una conexión de red a un servidor central. Las aplicaciones existen en todos los rincones del mundo y en todas las facetas de nuestras vidas, desde relojes inteligentes hasta auriculares VR, auriculares inteligentes, sensores inteligentes en fábricas y rovers para la exploración espacial.
El chip NeuRRAM no solo es el doble de eficiente energéticamente que los chips de «cómputo en memoria» de última generación, una clase innovadora de chips híbridos que realizan cálculos en la memoria, sino que también brinda resultados que son tan precisos como chips digitales tradicionales. Las plataformas de IA tradicionales son mucho más grandes y, por lo general, se limitan al uso de grandes servidores de datos que se ejecutan en la nube.
Además, el chip NeuRRAM es muy versátil y admite muchos modelos y arquitecturas de redes neuronales diferentes. Esto permite que el chip se use para muchas aplicaciones diferentes, incluido el reconocimiento y la reconstrucción de imágenes y el reconocimiento de voz.
![Un primer plano del CHIP NeuRRAM](https://www.nanowerk.com/news2/robotics/newsid=61295.php/id61295_1.jpg)
«La sabiduría convencional es que la mayor eficiencia de la computación en memoria se produce a expensas de la versatilidad, pero nuestro chip NeuRRAM logra la eficiencia sin sacrificar la versatilidad», dijo Weier Wan, el primer autor correspondiente del artículo y recién graduado de doctorado. Graduado de la Universidad de Stanford que trabajó en el chip en UC San Diego, donde fue co-asesorado por Gert Cauwenberghs en el Departamento de Bioingeniería.
El equipo de investigación, dirigido por bioingenieros de la Universidad de California en San Diego, presenta sus hallazgos en Naturaleza («Un chip de computación en memoria basado en memoria resistiva de acceso aleatorio»).
Actualmente, la computación de IA consume mucha energía y es intensiva en computación. La mayoría de las aplicaciones de IA en dispositivos perimetrales implican mover datos de los dispositivos a la nube, donde la IA los procesa y analiza. Luego, los resultados se devuelven al dispositivo. Esto se debe a que la mayoría de los dispositivos perimetrales funcionan con baterías y, por lo tanto, tienen una cantidad limitada de energía que se puede reservar para la informática.
Al reducir el consumo de energía necesario para la inferencia de IA en el borde, este chip NeuRRAM podría generar dispositivos de borde más resistentes, inteligentes y accesibles y una fabricación más inteligente. También podría conducir a una mejor protección de datos, ya que la transferencia de datos desde dispositivos a la nube conlleva mayores riesgos de seguridad.
En los chips de IA, mover datos de la memoria a la computadora es un cuello de botella importante.
«Eso es el equivalente a un viaje de ocho horas por una jornada laboral de dos horas», dijo Wan.
Para resolver este problema de transferencia de datos, los investigadores utilizaron algo llamado memoria resistiva de acceso aleatorio, un tipo de memoria no volátil que permite que los cálculos se realicen directamente en la memoria en lugar de unidades de procesamiento separadas. La RRAM y otras tecnologías de memoria emergentes utilizadas como conjuntos de sinapsis para computación neuromórfica se desarrollaron en el laboratorio de Philip Wong, consultor de Wan en Stanford y uno de los principales contribuyentes de este trabajo. La computación con chips RRAM no es necesariamente nueva, pero generalmente da como resultado una reducción en la precisión de los cálculos realizados en el chip y una falta de flexibilidad en la arquitectura del chip.
«La computación en memoria ha sido una práctica estándar en la ingeniería neuromórfica desde sus inicios hace más de 30 años», dijo Cauwenberghs sin pérdida de precisión sobre las plataformas de computación digital estándar de uso general.
Una metodología cuidadosamente elaborada fue clave para trabajar con múltiples capas de «cooptimización» en las capas de abstracción de hardware y software, desde el diseño del chip hasta su configuración para realizar diversas tareas de IA. Además, el equipo se aseguró de abordar diversas limitaciones que van desde la física de los dispositivos de almacenamiento hasta la arquitectura de circuitos y redes.
«Este chip ahora nos brinda una plataforma para abordar estos problemas en toda la pila, desde dispositivos y circuitos hasta algoritmos», dijo Siddharth Joshi, profesor asistente de informática e ingeniería en la Universidad de Notre Dame, quien comenzó a trabajar en el proyecto como Ph. .D. Becario de pregrado y posdoctorado en el laboratorio de Cauwenbergh en UC San Diego.
rendimiento de chips
Los investigadores midieron la eficiencia energética del chip utilizando una medida conocida como Energy Delay Product, o EDP. EDP combina tanto la cantidad de energía utilizada para cada operación como el tiempo que tarda en completar la operación. Esta medida permite que el chip NeuRRAM logre un EDP de 1,6 a 2,3 veces menor (cuanto más bajo, mejor) y una densidad de cómputo de 7 a 13 veces mayor que los chips de última generación.
Los investigadores ejecutaron varias tareas de IA en el chip. Logró una precisión del 99 % en una tarea de reconocimiento de dígitos escritos a mano; el 85,7% en una tarea de clasificación de imágenes; y el 84,7% en una tarea de reconocimiento de voz de Google. Además, el chip también logró una reducción del 70 por ciento en el error de reconstrucción de imágenes en una tarea de restauración de imágenes. Estos resultados son comparables a los chips digitales existentes que realizan cálculos con la misma precisión de bits, pero con ahorros de energía drásticos.
Los investigadores señalan que una contribución importante del artículo es que todos los resultados presentados se obtienen directamente en el hardware. En muchos trabajos anteriores sobre chips de cómputo en memoria, los resultados de referencia de IA a menudo se lograron en parte a través de la simulación de software.
Los próximos pasos incluyen mejorar las arquitecturas y los circuitos y escalar el diseño a nodos de tecnología más avanzada. Los investigadores también planean abordar otras aplicaciones, como B. Spiking de redes neuronales.
«Podemos mejorar a nivel de dispositivo, mejorar el diseño del circuito para implementar características adicionales y abordar varias aplicaciones con nuestra plataforma dinámica NeuRRAM», dijo Rajkumar Kubendran, profesor asistente de la Universidad de Pittsburgh que comenzó a trabajar en el proyecto durante su doctorado comenzó .D. Estudiante en el grupo de investigación de Cauwenbergh en UC San Diego.
Además, Wan es miembro fundador de una startup que trabaja en la producción de tecnología de cómputo en memoria. «Como investigadora e ingeniera, mi ambición es llevar las innovaciones de investigación de los laboratorios a las aplicaciones prácticas», dijo Wan.
nueva arquitectura
La clave de la eficiencia energética de NeuRRAM es un método innovador para capturar la salida en la memoria. Los enfoques tradicionales utilizan el voltaje como entrada y miden la corriente como resultado. Sin embargo, esto lleva a la necesidad de circuitos más complejos y hambrientos de energía. En NeuRRAM, el equipo desarrolló un circuito de neuronas que detecta el voltaje y realiza la conversión de analógico a digital de manera energéticamente eficiente. Esta detección de modo de voltaje puede activar todas las filas y todas las columnas de una matriz RRAM en un solo ciclo computacional, lo que permite un mayor paralelismo.
En la arquitectura NeuRRAM, los circuitos neuronales CMOS están intercalados físicamente con pesos RRAM. Se diferencia de los diseños tradicionales en los que los circuitos CMOS suelen estar ubicados en la periferia de los pesos RRAM. Las conexiones de la neurona a la matriz RRAM se pueden configurar para que sirvan como entrada o salida de la neurona. Esto permite la inferencia de redes neuronales en diferentes direcciones de flujo de datos sin incurrir en gastos generales en términos de área o consumo de energía. Esto a su vez facilita la reconfiguración de la arquitectura.
Para garantizar que la precisión de los cálculos de IA se pueda mantener en diferentes arquitecturas de redes neuronales, los investigadores desarrollaron un conjunto de técnicas para optimizar conjuntamente los algoritmos de hardware. Las técnicas se han verificado en varias redes neuronales, incluidas las redes neuronales convolucionales, la memoria a largo plazo y las máquinas restringidas de Boltzmann.
Como chip de IA neuromórfico, NeuroRRAM realiza un procesamiento distribuido paralelo en 48 núcleos neurosinápticos. Para lograr una alta versatilidad y alta eficiencia al mismo tiempo, NeuRRAM admite el paralelismo de datos mediante el mapeo de una capa en el modelo de red neuronal a múltiples núcleos para hacer inferencias paralelas en múltiples datos. Además, NeuRRAM proporciona paralelismo de modelos al asignar diferentes capas de un modelo a diferentes núcleos y realizar inferencias en forma de canalización.
Un equipo de investigación internacional
El trabajo es el resultado de un equipo internacional de investigadores.
El equipo de UC San Diego diseñó el circuito CMOS que implementa las funciones neuronales que interactúan con las matrices RRAM para respaldar las funciones sinápticas en la arquitectura del chip para una alta eficiencia y versatilidad. Wan trabajó en estrecha colaboración con todo el equipo e implementó el diseño; caracteriza el chip; entrenó los modelos de IA; y realizó los experimentos. Wan también desarrolló una cadena de herramientas de software que asigna aplicaciones de IA al chip.
La matriz de sinapsis RRAM y sus condiciones de funcionamiento se han caracterizado y optimizado ampliamente en la Universidad de Stanford.
La matriz RRAM se fabricó en la Universidad de Tsinghua y se integró en CMOS.
El equipo de Notre Dame contribuyó al diseño y la arquitectura del chip, así como al posterior diseño y capacitación del modelo de aprendizaje automático.
[ad_2]