[ad_1]
//php echo do_shortcode(‘[responsivevoice_button voice=»US English Male» buttontext=»Listen to Post»]’) ?>
SANTA CLARA, CALIFORNIA – “Si nos fijamos en la cartera de productos de AMD, podría decirse que es la más completa de la industria en términos de informática de IA”, dijo Vamsi Boppana, vicepresidente senior del Grupo de IA de AMD, en su discurso de apertura en la reciente Cumbre de Hardware de IA. La cartera de hardware de AMD incluye CPU y GPU de clase de centro de datos, GPU de consumo, FPGA y Ryzen 7040, una CPU cliente con NPU para PC. El software es la clave para desbloquear el poder de estas diferentes plataformas de hardware. Pero con un hardware más diverso, ¿cómo puede AMD competir con las sólidas ofertas de sus rivales de GPU?
Las pilas de software de AMD para cada clase de producto son diferentes: ROCm (abreviatura de Radeon Open Compute Platform) apunta a sus líneas de GPU de centro de datos Instinct (y pronto a sus GPU de consumo Radeon), Vitis AI apunta a sus FPGA y ZenDNN en sus dispositivos cliente.
¿Qué tan avanzado está AMD en la unificación de estas pilas?
«Tenemos un gran atractivo para los clientes y eso impulsa muchos de nuestros planes a corto plazo», dijo Boppana en una entrevista con EE Times después de su charla aquí. “El avión está volando ahora mismo, así que no podemos desmontar el motor. Sin embargo, estamos haciendo cosas absolutamente fundamentales para lograr una mayor unificación en toda nuestra pila”.
Boppana dijo que las tres pilas comparten infraestructura y herramientas comunes, incluidos los esfuerzos en curso para crear un cuantificador común.
“Con el tiempo, queremos llegar a un punto en el que los usuarios tengan un único proveedor de ejecución y puedan elegir entre ellos. [a hardware target]»A corto plazo, los módulos se compartirán entre pilas y, con el tiempo, a medida que cosas como plataformas heterogéneas se vuelvan más frecuentes, los elementos unificados comenzarán a prevalecer».
Una pila unificada sería útil para sistemas heterogéneos, dijo Boppana, particularmente cuando se requiere partición. Actualmente, la pila de Vitis maneja objetivos de CPU y xDNA, pero está de acuerdo en que se requerirá una partición tanto automática como controlada por el usuario.
“En este escenario, necesitamos poder tomar un enunciado de problema y dividir el diagrama para que ambas partes del diagrama se ejecuten. [different parts of the hardware]y tienen que trabajar juntos”, dijo.
“La República de China ha evolucionado”
ROCm es menos maduro que las ofertas de software GPU de la competencia, y la pila CUDA madura de Nvidia a menudo se considera una gran parte de la ventaja competitiva del líder del mercado.
«El software es un viaje», dijo Boppana. “Cualquiera que haya escrito o administrado software complejo sabe que lleva tiempo. La buena noticia es que íbamos por buen camino… ROCm ha evolucionado”.
Según Boppana, AMD hizo de ROCm su prioridad número uno a nivel empresarial el año pasado y lanzó una nueva organización que reúne los activos de todas las contribuciones de software de la compañía.
“Tenemos recursos mucho mayores trabajando en software, y [AMD CEO Lisa Su] ha dejado muy claro que quiere ver una inversión significativa y continua en el lado del software”, dijo Boppana. «Hemos acordado desplegar personal internamente, hemos adquirido Mipsology y estamos comprometidos a desarrollar talento tanto de forma orgánica como inorgánica».
AMD también lanzó recientemente un grupo interno de modelado de IA para mejorar la experiencia de su propia pila de software.
«Queremos un circuito de retroalimentación mucho más estrecho», dijo Boppana.
Usando código abierto para desafiar a Nvidia
AMD ha elegido Triton de OpenAI, un lenguaje de programación de código abierto y compilador para GPU que tiene como objetivo proporcionar una alternativa de código abierto a CUDA de Nvidia para los desarrolladores que desean escribir código de alto nivel que se ejecute de manera óptima en el hardware.
«Hay diferentes personas que codifican [our GPUs],» él dijo. «[Triton] Es un nivel de abstracción con el que la gente se siente cómoda. Es productivo. Y llega al hardware de una manera bastante eficiente y convincente. Pero para otros clientes eso no importa; No es necesario desarrollar nuevos núcleos. Podemos enviarles bibliotecas. Así que depende de quién quiera utilizarnos”.
A diferencia del enfoque de Nvidia con CUDA, que es en gran medida propietario, la mayor parte de la pila ROCm de AMD es de código abierto.
“Trabajamos con él [AI frameworks] y la gente que escribe las bibliotecas dice: «Si tienes un núcleo que quieres montar, puedes tomar algo que existe de nosotros, pero si descubres que tienes la oportunidad de optimizar el código fuente». [you can]'», dijo. «Entonces tenemos mucha más gente que está dispuesta y es capaz de contribuir. Eso es muy importante y muy impactante para nosotros: creemos que es la dirección estratégica correcta que podemos tomar».
Boppana dijo que las muestras de MI300 están actualmente con los clientes, y tanto los clientes como AMD tienen cargas de trabajo de capacitación de IA en funcionamiento, y la disponibilidad llegará a finales de este año.
ROCm será fundamental para el éxito tanto del MI300 como del MI300X.
«Para ser honesto, tenemos algunos lugares donde crecer», dijo. “Permitir que la comunidad contribuya [to ROCm] de nuestro lado nos ayudará a cerrar la brecha más rápidamente”.
[ad_2]