[ad_1]
//php echo do_shortcode(‘[responsivevoice_button voice=»US English Male» buttontext=»Listen to Post»]’) ?>
Es ese momento otra vez: pronto llegarán chips calientes. La conferencia tendrá lugar del 21 al 23 de agosto como un evento virtual y nuevamente presentará las últimas innovaciones en arquitecturas de microprocesadores y sistemas.
Como reportero de IA para EE Times, por supuesto estaré atento a nuevos e interesantes chips de IA. Como en años anteriores, el programa de este año tiene un claro enfoque en la IA y la computación acelerada, pero también hay sesiones sobre chips de red, tecnologías de integración y más. Los chips presentados abarcarán el espectro, desde GPU a escala de oblea hasta GPU y procesadores informáticos de alto rendimiento de matriz múltiple para teléfonos móviles.
La primera sesión del primer día albergará a las empresas de chips más grandes del mundo, ya que mostrarán los chips de GPU más grandes del mundo. Nvidia es el primero en presentar su GPU Hopper insignia, AMD presenta el MI200 e Intel presenta el Ponte Vecchio. Presentarlos uno a la vez yuxtapone sus factores de forma: Hopper es un chip monolítico (más HBM), el MI200 tiene dos chipsets informáticos gigantes y Ponte Vecchio tiene docenas.
Junto a los tres grandes, una entrada sorpresa en la categoría de GPU a gran escala: Biren. El fabricante chino de unidades de procesamiento de gráficos de uso general (GPGPU), fundado en 2019, presentó recientemente su GPGPU de 7nm de primera generación, el BR100. Todo lo que sabemos hasta ahora es que la compañía está utilizando chipsets para construir la GPGPU con «la mayor potencia de procesamiento en China», según su sitio web. El chip de Biren ha sido aclamado como un gran avance para la industria nacional de circuitos integrados, ya que «representa un punto de referencia directo con los últimos buques insignia lanzados recientemente por fabricantes internacionales». Con suerte, la presentación de Hot Chips de la compañía mostrará si este es realmente el caso.
La sesión principal del procesador de aprendizaje automático se lleva a cabo el día 2. Escucharemos al arquitecto jefe de Groq sobre el acelerador de inferencia de la startup para la nube. Cerebras también brindará una mirada en profundidad al codiseño de hardware y software para su motor a escala de obleas de segunda generación.
También habrá dos presentaciones de Tesla en esta categoría, ambas sobre su próxima supercomputadora AI Dojo. Dojo se presentó como «la primera supercomputadora de inteligencia artificial a exaescala» (1.1 EFLOPS para BF16/CFP8) utilizando el Tesla D1 ASIC de diseño personalizado de la compañía en módulos que la compañía llama Training Tiles.
La empresa de chips de inteligencia artificial para centros de datos Untether exhibirá su nueva arquitectura de inferencia de segunda generación llamada Boqueria. Todavía no conocemos los detalles, pero sí sabemos que el chip tendrá al menos 1000 núcleos RISC-V (¿le quitará la corona a Esperanto como el diseño RISC-V comercial más grande?) y que estará basado en un modelo similar. Arquitectura informática at-memory de primera generación.
La gente de IA también debe estar atenta a la sesión de tutorial del 21 de agosto sobre Compilación para sistemas heterogéneos con MLIR.
La otra sesión del tutorial cubre el estándar de interconexión de CPU/acelerador/memoria de Compute Express Link (CXL). CXL acaba de anunciar la tercera versión de su tecnología, que se espera que se convierta en el estándar de la industria, ya que los estándares que competían anteriormente han apoyado recientemente a CXL.
En otra parte del programa, escucharemos de Lightmatter sobre su dispositivo Passage, un sustrato de comunicaciones fotónicas programable a escala de oblea. Ranovus presentará su tecnología de integración monolítica para chips fotónicos y electrónicos.
También estaré atento a la presentación de Nvidia sobre su CPU Grace, una presentación sobre una estructura de procesamiento de interfaz cerebro-computadora de la Universidad de Yale y conferencias magistrales de Pat Gelsinger de Intel y Ganesh Venkataramanan de Tesla Motors.
El programa avanzado para Hot Chips 34 se puede encontrar aquí.
[ad_2]