[ad_1]

GlobalFoundries, una empresa que fabrica chips para otros, incluidos AMD y General Motors, anunció previamente una asociación con Lightmatter. Harris dice que su empresa trabaja «con las empresas de semiconductores más grandes del mundo, así como con los hiperescaladores», en referencia a las empresas de nube más grandes como Microsoft, Amazon y Google.

Si Lightmatter u otra empresa pueden reinventar el cableado de proyectos masivos de IA, se podría eliminar un cuello de botella clave en el desarrollo de algoritmos más inteligentes. El uso de más potencia informática fue fundamental para los avances que condujeron a ChatGPT, y muchos investigadores de IA consideran que un mayor escalamiento del hardware es crucial para futuros avances en este campo y para cualquier esperanza de alcanzar alguna vez el objetivo vagamente especificado de la inteligencia artificial. Inteligencia General (AGI) significa programas que pueden igualar o superar la inteligencia biológica en todos los aspectos.

Vincular un millón de chips a la luz podría habilitar algoritmos varias generaciones más allá de las capacidades actuales, dice Nick Harris, director ejecutivo de Lightmatter. «La aprobación permitirá los algoritmos AGI», sugiere con confianza.

Los grandes centros de datos necesarios para entrenar algoritmos de IA gigantes suelen consistir en bastidores llenos de decenas de miles de computadoras que ejecutan chips de silicio especiales y una serie de conexiones, en su mayoría eléctricas, entre ellas. Mantener ciclos de entrenamiento para IA en tantos sistemas, todos conectados por cables e interruptores, es una enorme tarea de ingeniería. La conversión entre señales electrónicas y ópticas también limita fundamentalmente la capacidad de los chips para realizar cálculos en su conjunto.

El enfoque de Lightmatter tiene como objetivo simplificar el tráfico de datos confidenciales en los centros de datos de IA. «Por lo general, tienes una fila de GPU, y luego una capa de conmutadores, y una capa de conmutadores, y una capa de conmutadores, y tienes que atravesar ese árbol» para comunicar entre dos GPU, dice Harris. En un centro de datos conectado mediante pasaje, dijo Harris, cada GPU tendría una conexión de alta velocidad con todos los demás chips.

El trabajo de Lightmatter en Passage es un ejemplo de cómo el reciente auge de la IA ha inspirado a empresas grandes y pequeñas a intentar reinventar el hardware clave detrás de avances como ChatGPT de OpenAI. Nvidia, el proveedor líder de GPU para proyectos de IA, celebró su conferencia anual el mes pasado, donde el director ejecutivo, Jensen Huang, presentó el último chip de la compañía para entrenar IA: una GPU llamada Blackwell. Nvidia venderá la GPU en un «superchip» que consta de dos GPU Blackwell y un procesador de CPU tradicional, todos conectados a través de la nueva tecnología de comunicaciones de alta velocidad de la compañía llamada NVLink-C2C.

La industria de los chips es conocida por encontrar formas de exprimir más potencia de procesamiento de los chips sin hacerlos más grandes, pero Nvidia ha decidido oponerse a esa tendencia. Las GPU Blackwell del Superchip de la compañía son dos veces más potentes que sus predecesoras, pero se fabrican atornillando dos chips, lo que significa que utilizan mucha más energía. Este compromiso, junto con los esfuerzos de Nvidia por unir sus chips con interconexiones de alta velocidad, sugiere que las actualizaciones de otros componentes clave para las supercomputadoras de IA, como la propuesta por Lightmatter, podrían volverse más importantes.

[ad_2]