[ad_1]

Ajuste fino admitido

En el DevDay de noviembre pasado, en colaboración con un grupo dedicado de investigadores de OpenAI, anunciamos un programa de modelo personalizado destinado a entrenar y optimizar modelos para un dominio específico. Desde entonces, nos hemos reunido con docenas de clientes para determinar las necesidades de sus modelos individuales y hemos perfeccionado nuestro programa para maximizar aún más el rendimiento.

Hoy anunciamos oficialmente nuestra oferta de sintonización asistida como parte del programa de modelo personalizado. El ajuste asistido es una colaboración con nuestros equipos técnicos para aprovechar técnicas más allá de la API de ajuste, como hiperparámetros adicionales y varios métodos de ajuste eficiente de parámetros (PEFT) a mayor escala. Es particularmente útil para organizaciones que necesitan ayuda para configurar canales de datos de capacitación eficientes, sistemas de puntuación y parámetros y metodologías personalizados para maximizar el rendimiento del modelo para su caso de uso o tarea.

Por ejemplo, SK Telecom, un operador de telecomunicaciones que atiende a más de 30 millones de suscriptores en Corea del Sur, quería adaptar un modelo para convertirse en un experto en el campo de las telecomunicaciones, centrándose inicialmente en el servicio al cliente. Trabajaron con OpenAI para optimizar GPT-4 y mejorar su rendimiento en llamadas de telecomunicaciones en coreano. En el transcurso de varias semanas, SKT y OpenAI generaron mejoras significativas en el rendimiento de las tareas de servicio al cliente de telecomunicaciones: un aumento del 35 % en la calidad del resumen de llamadas, un aumento del 33 % en la precisión de la detección de intenciones y un aumento en las puntuaciones de satisfacción de 3,6 a 4,5 ( de 5) al comparar el modelo ajustado con GPT-4.

Modelo entrenado individualmente

En algunos casos, las empresas necesitan entrenar desde cero un modelo específico que comprenda su negocio, industria o campo. Los modelos totalmente entrenados individualmente imparten nuevos conocimientos en un dominio específico modificando pasos clave del proceso de entrenamiento del modelo utilizando técnicas novedosas durante y después del entrenamiento. Las organizaciones que tienen éxito con un modelo totalmente personalizado a menudo tienen grandes cantidades de datos propietarios (millones de ejemplos o miles de millones de tokens) que quieren usar para enseñar al modelo nuevos conocimientos o comportamientos complejos y únicos para casos de uso altamente específicos.

Por ejemplo, Harvey, una herramienta jurídica nativa de IA para abogados, trabajó con OpenAI para crear un modelo de lenguaje a gran escala personalizado para la jurisprudencia. Aunque los modelos básicos podían argumentar bien, carecían de un conocimiento integral de la historia de los casos legales y otros conocimientos necesarios para el trabajo jurídico. Después de probar la ingeniería rápida, RAG y realizar ajustes, Harvey trabajó con nuestro equipo para agregar la profundidad de contexto requerida al modelo: el equivalente a 10 mil millones de tokens en datos. Nuestro equipo ha modificado cada paso del proceso de capacitación del modelo, desde la capacitación intermedia específica del dominio hasta la personalización de los procesos posteriores a la capacitación y la incorporación de comentarios de defensores expertos. El modelo resultante logró un aumento del 83 % en las respuestas fácticas y los abogados prefirieron los resultados del modelo personalizado a GPT-4 el 97 % de las veces.

[ad_2]