[ad_1]
//php echo do_shortcode(‘[responsivevoice_button voice=»US English Male» buttontext=»Listen to Post»]’) ?>
Todo en el mundo se puede representar con matemáticas, desde el evento más simple, la simetría de una hoja, hasta la representación más complicada de un cerebro humano. Las matemáticas son la columna vertebral de varios campos, como los gráficos 3D, la inteligencia artificial (IA), el aprendizaje automático (ML), la informática de alto rendimiento (HPC) y la informática científica.
Las matemáticas de alto nivel a menudo implican ecuaciones, funciones y modelos complicados. Para comprender el comportamiento de estas entidades, deben simularse, compilarse o ejecutarse. Las entidades siempre tienden a utilizar un conjunto de operadores matemáticos como suma, resta, multiplicación, división, raíz cuadrada, etc.
El tiempo de respuesta de un procesador a estas entidades se convierte en un factor crítico en el momento de la ejecución. Cuanto más rápida sea la velocidad de procesamiento del hardware subyacente, más rápida será la simulación/ejecución de las ecuaciones, funciones o modelos.
Actualmente, la aritmética de punto flotante (FP) es el sistema numérico preferido utilizado por los procesadores, GPU y aceleradores de última generación. En su búsqueda de un alto rendimiento, la gran mayoría de las empresas de semiconductores recurren a la fabricación de chips en nodos de tecnología inferior, como 5nm, 7nm y 10nm.
Esto ha llevado a un agotamiento más rápido de la batería y, por lo tanto, a un mayor consumo de energía del hardware subyacente.
Incluso de lo contrario, el sistema numérico IEE-FP nunca pudo hacer frente a sus problemas inherentes, como un rango dinámico más bajo, una precisión más baja, un hardware informático más lento, falta de cumplimiento de las reglas matemáticas, una gran cantidad de excepciones y requisitos de memoria más altos.
En consecuencia, los procesadores, las GPU y las tarjetas aceleradoras que dependen de la aritmética FP no pueden ofrecer un alto rendimiento sin afectar directamente el consumo de memoria.
![Imagen de VividSparks GPGPU basada en POSIT y tecnología CFA](https://www.eetimes.com/wp-content/uploads/Processor-Racer2.png?w=300&is-pending-load=1#038;resize=300%2C277)
VividSparks llena el vacío gracias a su decisión de cambiar el elemento central del cálculo en un punto crucial: el propio sistema numérico VividSparks ha migrado del sistema numérico tradicional FP a un sistema numérico más revolucionario llamado POSIT.
Ventajas de los POSIT
Los números POSIT nos permiten representar números reales con el beneficio adicional de obtener más precisión de un número determinado de bits. Por ejemplo, si una aplicación que usa números IEEE FP de 64 bits cambia a números POSIT de 32 bits, el doble de números puede caber en la memoria a la vez. Esto puede generar diferencias de rendimiento significativas en las aplicaciones que procesan grandes cantidades de datos.
Un ancho de datos reducido tiene muchas ventajas a la hora de calcular, como B. un rango dinámico más grande, cálculos aritméticos más rápidos y un área de silicio reducida, lo que conduce directamente a una memoria y un consumo de energía reducidos. Esto ha dado como resultado que los POSIT se conviertan en los nuevos favoritos en AI/ML, HPC, computación GPU y muchas otras aplicaciones.
tecnología CFA
Todos los productos VividSparks se desarrollan con POSIT como piedra angular. POSIT también allanó el camino para que VividSparks inventara la tecnología Carry-Free-Adder (CFA) para acelerar las velocidades computacionales. La tecnología CFA nos permite realizar cálculos en paralelo y reducir la ejecución de código secuencial.
La Agencia de Exploración Aeroespacial de Japón (JAXA) utiliza productos basados en POSIT de VividSparks para acelerar sus códigos (originalmente en FORTRAN). Ahora se ejecutan en un tiempo récord en la supercomputadora de JAXA, que tiene alrededor de 1000 nodos de procesador.
VividSparks analizó los códigos FORTRAN de JAXA para identificar los diversos segmentos de código que estaban vaciando la memoria y retrasando la ejecución, y luego los aceleró.
El tiempo de cálculo típico de los códigos FORTRAN (antes de la aceleración) era de unos tres días. Hoy, los códigos se ejecutan en solo 17.08 horas.
La reducción en el tiempo de ejecución fue posible debido al ancho de datos reducido, lo que redujo significativamente el uso de memoria y aumentó la transferencia de ancho de banda en la ranura PCIe gracias a la tecnología POSIT y CFA.
[ad_2]