[ad_1]
El Desafío de aprendizaje profundo de AWS, que se llevó a cabo del 5 de enero de 2022 al 1 de marzo de 2022, reunió a participantes de instituciones académicas, nuevas empresas y organizaciones empresariales para probar sus habilidades y crear un modelo de aprendizaje profundo de su elección con Amazon Elastic Compute Cloud (Amazon EC2 ) Instancias DL1 y Habanas SynapseAI SDK. Las instancias EC2 DL1 con aceleradores Gaudi de Habana Labs, una empresa de Intel, están diseñadas específicamente para entrenar modelos de aprendizaje profundo. Los asistentes pudieron ver las importantes ventajas de precio/rendimiento que ofrece DL1 sobre las instancias basadas en GPU.
Nos complace anunciar a los ganadores y mostrar algunos de los modelos de aprendizaje automático (ML) capacitados en este hackatón. Aprenderá sobre algunos de los casos de uso de aprendizaje profundo admitidos por las instancias EC2 DL1, incluida la visión artificial, el procesamiento del lenguaje natural y el modelado acústico.
modelos ganadores
Nuestro ganador del primer lugar es un proyecto presentado por Gustavo Zomer. Es una implementación del CLIP multilingüe (Pre-Entrenamiento de Lenguaje-Imagen Contrastiva). CLIP fue presentado por OpenAI en 2021 para entrenar un clasificador de imágenes más general en conjuntos de datos más grandes a través del aprendizaje autosupervisado. Se entrena en una gran cantidad de imágenes con una variedad de monitores de lenguaje natural, que están abundantemente disponibles en Internet pero se limitan al idioma inglés. Este proyecto reemplaza el codificador de texto en CLIP con un codificador de texto multilingüe llamado XLM-RoBERTa para ampliar la aplicabilidad del modelo a varios idiomas. Esta implementación modificada de CLIP puede emparejar imágenes con subtítulos en varios idiomas. El modelo se entrenó en 16 aceleradores en dos instancias DL1 y muestra cómo se puede escalar el entrenamiento de ML para usar varios aceleradores de Gaudí en varios nodos para aumentar el rendimiento del entrenamiento y reducir el tiempo de entrenamiento. Los jueces quedaron impresionados por el uso eficaz del aprendizaje profundo para romper las barreras del idioma y la implementación técnica mediante la capacitación distribuida.
En segundo lugar presentamos un proyecto de Remco van Akker. Utiliza una GAN (Generative Adversarial Network) para generar datos de imágenes retinales sintéticas para aplicaciones médicas. Los datos sintéticos se utilizan en el entrenamiento de modelos en aplicaciones médicas para superar la falta de datos médicos anotados, que requieren mucho trabajo y son costosos de producir. Los datos sintéticos se pueden utilizar como parte del aumento de datos para eliminar sesgos y hacer que los modelos de visión sean generalizables en aplicaciones médicas. Este proyecto se destacó por implementar un modelo generativo en DL1 para resolver un problema del mundo real que afecta la aplicación de IA y ML en el cuidado de la salud.
Completando nuestro top 3 se encontraba un proyecto presentado por Zohar Jackson que implementó un modelo Vision Transformer para la segmentación semántica. Este proyecto usa la biblioteca Ray Tune para ajustar hiperparámetros y usa Horovod para paralelizar el entrenamiento en 16 aceleradores Gaudi en dos instancias DL1.
Además de los tres ganadores principales, los concursantes ganaron varios otros premios, incluidos Mejor Ejecución Técnica, Mayor Impacto Potencial y Proyecto Más Creativo. Felicitaciones a todos los ganadores de este hackathon por crear un conjunto tan diverso de proyectos impactantes en instancias EC2 DL1 basadas en Gaudi Accelerator. Estamos ansiosos por ver qué construyen nuestros participantes en las instancias DL1 en el futuro.
Comience con instancias DL1
Como han demostrado los diversos proyectos de este hackatón, puede usar instancias EC2 DL1 para entrenar modelos de aprendizaje profundo para casos de uso como el procesamiento de lenguaje natural, el reconocimiento de objetos y el reconocimiento de imágenes. Con las instancias DL1, también obtiene hasta un 40 % más de precio/rendimiento para entrenar modelos de aprendizaje profundo en comparación con las instancias EC2 basadas en GPU de la generación actual. Visite Instancias DL1 de Amazon EC2 para obtener más información sobre cómo las instancias DL1 pueden acelerar sus cargas de trabajo de capacitación.
Sobre los autores
Dvij Bajpai es gerente sénior de productos en AWS. Trabaja en el desarrollo de instancias EC2 para aprendizaje automático y cargas de trabajo informáticas de alto rendimiento.
amr ragab es arquitecto principal de soluciones en AWS. Brinda orientación técnica para ayudar a los clientes a ejecutar cargas de trabajo informáticas complejas a escala.
Shruti Koparkar es gerente sénior de marketing de productos en AWS. Ayuda a los clientes a explorar, evaluar y adoptar la infraestructura informática acelerada EC2 para sus necesidades de aprendizaje automático.
[ad_2]