[ad_1]
La informática se encuentra en un punto de inflexión. La Ley de Moore, que predice que el número de transistores en un chip electrónico se duplicará cada año, se está desacelerando debido a los límites físicos de instalar más transistores en microchips asequibles. Este aumento en la potencia informática se está desacelerando a medida que aumenta la demanda de computadoras de alto rendimiento que puedan soportar modelos de inteligencia artificial cada vez más complejos. Este inconveniente ha llevado a los ingenieros a explorar nuevos métodos para ampliar las capacidades informáticas de sus máquinas, pero la solución aún no está clara.
La computación fotónica es una solución potencial a las crecientes demandas computacionales de los modelos de aprendizaje automático. En lugar de transistores y cables, estos sistemas utilizan fotones (partículas microscópicas de luz) para realizar operaciones informáticas en el dominio analógico. Los láseres crean estos pequeños haces de energía que viajan a la velocidad de la luz, como una nave espacial que viaja a gran velocidad en una película de ciencia ficción. Cuando se agregan núcleos de computación fotónica a aceleradores programables, como una tarjeta de interfaz de red (NIC y su contraparte avanzada, SmartNIC), el hardware resultante se puede conectar para potenciar una computadora estándar.
Los investigadores del MIT han aprovechado el potencial de la fotónica para acelerar la informática moderna demostrando sus capacidades de aprendizaje automático. Su SmartNIC reconfigurable fotónico-electrónico, llamado “Lightning”, ayuda a las redes neuronales profundas (modelos de aprendizaje automático que imitan cómo el cerebro procesa la información) a realizar tareas de inferencia como el reconocimiento de imágenes y la generación de voz en chatbots como ChatGPT. El novedoso diseño del prototipo permite velocidades impresionantes, creando el primer sistema informático fotónico que procesa consultas de inferencia de aprendizaje automático en tiempo real.
A pesar de su potencial, un desafío importante en la implementación de dispositivos informáticos fotónicos es que son pasivos, lo que significa que, a diferencia de sus homólogos electrónicos, carecen de memoria o instrucciones para controlar el flujo de datos. Los sistemas de computación fotónica anteriores han tenido problemas con este cuello de botella, pero Lightning elimina este obstáculo para garantizar que la transferencia de datos entre componentes electrónicos y fotónicos se realice sin problemas.
«La computación fotónica ha demostrado ventajas significativas a la hora de acelerar tareas de computación lineal a gran escala, como la multiplicación de matrices, mientras que requiere electrónica para el resto: acceso a la memoria, cálculos no lineales y lógica condicional». entre la fotónica y la electrónica para realizar tareas informáticas del mundo real, como una consulta de inferencia para el aprendizaje automático», dice Zhizhen Zhong, investigador postdoctoral en el grupo del profesor asociado del MIT Manya Ghobadi en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL). ). “Controlar este flujo de datos entre la fotónica y la electrónica ha sido el talón de Aquiles de trabajos previos de computación fotónica de vanguardia. Incluso si tienes una computadora fotónica súper rápida, necesitas suficientes datos para alimentarla sin interrupciones. De lo contrario, una supercomputadora simplemente permanecerá inactiva sin realizar ningún cálculo significativo”.
Ghobadi, profesora asociada en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS) del MIT y miembro de CSAIL, y sus colegas del grupo son los primeros en reconocer y resolver este problema. Para lograr esta hazaña, combinaron la velocidad de la fotónica con las capacidades de control del flujo de datos de las computadoras electrónicas.
Antes de Lightning, los sistemas informáticos fotónicos y electrónicos funcionaban de forma independiente y hablaban idiomas diferentes. El sistema híbrido del equipo rastrea las operaciones computacionales requeridas a lo largo de la ruta de datos utilizando una abstracción de acción de conteo reconfigurable que conecta la fotónica a los componentes electrónicos de una computadora. Esta abstracción de programación actúa como un lenguaje unificado entre los dos y controla el acceso a los flujos de datos que pasan. La información transportada por los electrones se convierte en luz en forma de fotones, que operan a la velocidad de la luz para ayudar a completar una tarea de inferencia. Luego, los fotones se convierten nuevamente en electrones para transmitir la información a la computadora.
Al conectar perfectamente la fotónica y la electrónica, la novedosa abstracción de conteo-acción permite la frecuencia informática rápida y en tiempo real de Lightning. Intentos anteriores utilizaron un enfoque de parada y marcha, lo que significa que los datos se vieron obstaculizados por un software de control mucho más lento que tomaba todas las decisiones sobre sus movimientos. «Construir un sistema de computación fotónica sin una abstracción de programación de conteo de acciones es como intentar conducir un Lamborghini sin saber conducir», dice Ghobadi, autor principal del artículo. «¿Qué harías? Probablemente tengas un manual de conducción en una mano, luego presionas el embrague, luego miras el manual, luego sueltas el freno, luego miras el manual, y así sucesivamente. Esto es un stop-and-go proceso porque cada decisión requiere consultar a una autoridad superior para saber qué hacer. Pero no es así como conducimos; aprendemos a conducir y luego usamos la memoria muscular sin leer el manual o las reglas de conducción al volante. Nuestra “Programación de cuenta-acción” La abstracción actúa como memoria muscular en Lightning, impulsando sin problemas los electrones y fotones del sistema en tiempo de ejecución”.
Una solución respetuosa con el medio ambiente
Los servicios de aprendizaje automático que realizan tareas basadas en inferencia, como ChatGPT y BERT, actualmente requieren grandes recursos informáticos. No sólo son caros: algunas estimaciones muestran que ChatGPT es necesario 3 millones de dolares por mes, pero también son perjudiciales para el medio ambiente y emiten potencialmente más del doble del dióxido de carbono que una persona promedio. Los rayos utilizan fotones, que cuando se producen se mueven más rápido que los electrones en los cables. menos calorEsto le permite calcular más rápido y ser más eficiente energéticamente al mismo tiempo.
Para medir esto, el grupo Ghobadi comparó su dispositivo con procesadores gráficos estándar, unidades de procesamiento de datos, SmartNIC y otros aceleradores sintetizando un chip Lightning. El equipo descubrió que Lightning era más eficiente energéticamente al ejecutar consultas de inferencia. «Nuestros estudios de síntesis y simulación muestran que Lightning reduce el consumo de energía para la inferencia del aprendizaje automático en órdenes de magnitud en comparación con los aceleradores de última generación», afirma Mingran Yang, estudiante de posgrado en el laboratorio de Ghobadi y coautor del artículo. Debido a que es una opción más barata y rápida, Lightning representa una actualización potencial para que los centros de datos reduzcan la huella de carbono de su modelo de aprendizaje automático y al mismo tiempo aceleren el tiempo de respuesta de inferencia para los usuarios.
Otros autores del artículo incluyen al postdoctorado del MIT CSAIL Homa Esfahanizadeh y al estudiante de posgrado Liam Kronman, así como al profesor asociado del MIT EECS Dirk Englund y tres recién graduados del departamento: Jay Lang ’22, MEng ’23; Christian Williams ’22, MEng ’23; y Alexander Sludds ’18, MEng ’19, PhD ’23. Su investigación fue apoyada en parte por el programa DARPA FastNICs, el programa ARPA-E ENLITENED, el Acelerador de IA DAF-MIT, la Oficina de Investigación del Ejército de los Estados Unidos a través del Instituto de Nanotecnologías para Soldados, subvenciones de la Fundación Nacional de Ciencias (NSF) y el Centro NSF para Redes Cuánticas y una beca Sloan.
El grupo presentará sus hallazgos este mes en el Grupo de Interés Especial sobre Comunicación de Datos (SIGCOMM) de la Asociación de Maquinaria de Computación.
[ad_2]