[ad_1]
El portafolio de computación acelerada de Amazon Elastic Compute Cloud (Amazon EC2) ofrece la más amplia selección de aceleradores para sus cargas de trabajo de inteligencia artificial (IA), aprendizaje automático (ML), gráficos y computación de alto rendimiento (HPC). Nos complace anunciar la expansión de este portafolio con tres nuevas instancias con las últimas GPU NVIDIA: instancias Amazon EC2 P5e con GPU NVIDIA H200, instancias Amazon EC2 G6 con GPU NVIDIA L4 e instancias Amazon EC2 G6e con GPU NVIDIA L40S. Las tres instancias estarán disponibles en 2024 y esperamos ver qué puedes hacer con ellas.
AWS y NVIDIA han trabajado juntos durante más de 13 años, creando soluciones basadas en GPU integrales, rentables y de alto rendimiento para desarrolladores y empresas de todo el espectro. Contamos con las potentes GPU de NVIDIA con tecnologías AWS diferenciadas, como AWS Nitro System, red Elastic Fabric Adapter (EFA) v2 de 3200 Gbps, rendimiento de cientos de GB/s con Amazon FSx for Lustre y computación a exaescala con Amazon EC2 UltraClusters que combina la provisión de lo más Potente infraestructura para AI/ML, gráficos y HPC. Combinadas con otros servicios administrados como Amazon Bedrock, Amazon SageMaker y Amazon Elastic Kubernetes Service (Amazon EKS), estas instancias brindan a los desarrolladores la mejor plataforma de la industria para crear e implementar aplicaciones gráficas, HPC y de IA generativa.
Instancias basadas en GPU rentables y de alto rendimiento para cargas de trabajo de IA, HPC y gráficos
Para avanzar en el desarrollo, la capacitación y la inferencia de los LLM (modelos de lenguajes grandes) más grandes, las instancias EC2 P5e están equipadas con las últimas GPU H200 de NVIDIA, que ofrecen 141 GB de memoria de GPU HBM3e, que es 1,7 veces más grande y 1,4 veces más rápida que las GPU H100. . Este aumento en la memoria de GPU, junto con hasta 3200 Gbps de red EFA habilitada por AWS Nitro System, le permite continuar construyendo, entrenando e implementando sus modelos de última generación en AWS.
Las instancias EC2 G6e con GPU NVIDIA L40S están diseñadas para brindar a los desarrolladores una opción disponible de forma general para la capacitación e inferencia de LLM disponibles públicamente y para respaldar la creciente adopción de modelos de lenguaje pequeño (SLM). También son ideales para aplicaciones de gemelos digitales que utilizan NVIDIA Omniverse para describir y simular herramientas y aplicaciones 3D, así como para crear mundos virtuales y flujos de trabajo avanzados para la digitalización industrial.
Las instancias EC2 G6 con GPU NVIDIA L4 brindan una solución más rentable y con mayor eficiencia energética para implementar modelos de aprendizaje automático para procesamiento de lenguaje natural, traducción de idiomas, análisis de video e imágenes, reconocimiento y personalización de voz, y cargas de trabajo de gráficos, como la creación y representación de imágenes reales. tiempo Gráficos de calidad cinematográfica y transmisión de juegos.
Sobre el Autor
Chetan Kapoor es director de gestión de productos de la cartera de computación acelerada de Amazon EC2.
[ad_2]