[ad_1]
En esta publicación, hablaremos sobre cómo la IA generativa está transformando la industria de la IA conversacional al ofrecer nuevas experiencias para los clientes y los creadores de bots, y las nuevas funciones de Amazon Lex que aprovechan estos avances.
A medida que la demanda de IA conversacional continúa creciendo, los desarrolladores buscan formas de mejorar sus chatbots con interacciones similares a las humanas y funciones avanzadas como el procesamiento de preguntas frecuentes. Los avances recientes en la IA generativa están generando mejoras significativas en la comprensión del lenguaje natural, haciendo que los sistemas conversacionales sean más inteligentes. Al entrenar grandes modelos de redes neuronales en conjuntos de datos que contienen billones de tokens, los investigadores de IA han desarrollado técnicas que permiten a los robots comprender preguntas más complejas, proporcionar respuestas matizadas y más naturales, con sonido humano, y abordar una amplia gama de temas. Con estas nuevas innovaciones de IA generativa, puede crear asistentes virtuales que se sientan más naturales, intuitivos y útiles durante las interacciones de autoservicio basadas en texto o voz. Los rápidos avances en la IA generativa están acercando mucho más a los chatbots automatizados y a los asistentes virtuales a tener conversaciones verdaderamente inteligentes y fluidas. Con nuevos avances en el aprendizaje profundo y las técnicas de redes neuronales, los sistemas de conversación están en camino de volverse aún más flexibles, comprensibles y parecidos a los humanos. Esta nueva generación de asistentes impulsados por IA puede ofrecer experiencias de autoservicio fluidas en una amplia gama de casos de uso.
Cómo Amazon Bedrock está cambiando el panorama de la IA conversacional
Amazon Bedrock es una forma fácil de usar de crear y escalar aplicaciones de IA generativa con modelos base (FM). Amazon Bedrock ofrece una variedad de FM de proveedores líderes, lo que brinda a los clientes de AWS la flexibilidad y la opción de utilizar los mejores modelos para su caso de uso específico.
En el acelerado mundo actual, esperamos de cada empresa un servicio al cliente rápido y eficiente. Sin embargo, brindar un excelente servicio al cliente puede ser un desafío cuando la cantidad de consultas excede los recursos humanos dedicados a responderlas. Las empresas pueden abordar este desafío de manera eficiente y al mismo tiempo brindar un servicio al cliente personalizado aprovechando los avances en la IA generativa impulsada por grandes modelos lingüísticos (LLM).
A lo largo de los años, AWS ha invertido en democratizar el acceso y ampliar la comprensión de la IA, el aprendizaje automático (ML) y la IA generativa. Los LLM pueden ser extremadamente útiles en los centros de contacto al proporcionar respuestas automatizadas a preguntas frecuentes, analizar el sentimiento y la intención del cliente, enrutar las llamadas en consecuencia, crear resúmenes de conversaciones para ayudar a los agentes e incluso generar respuestas automáticas por correo electrónico o chat para generar consultas frecuentes de los clientes. Al abordar tareas repetitivas y obtener información de las conversaciones, los LLM permiten a los agentes del centro de contacto centrarse en ofrecer mayor valor a través de un servicio personalizado y resolver problemas complejos.
Mejore la experiencia del cliente con preguntas frecuentes conversacionales
La IA generativa tiene un enorme potencial para proporcionar respuestas rápidas y confiables a las preguntas frecuentes de los clientes a través del diálogo. Al acceder a fuentes de conocimiento y LLM autorizados, su bot de Amazon Lex existente puede brindar respuestas útiles, naturales y precisas a preguntas frecuentes que van más allá del diálogo orientado a tareas. Nuestro enfoque de generación aumentada de recuperación (RAG) permite a Amazon Lex aprovechar tanto la amplitud del conocimiento disponible en los repositorios como la fluidez de los LLM. Simplemente puede formular su pregunta en un lenguaje claro y comprensible y recibir una respuesta natural y personalizada en cuestión de segundos. La nueva función de preguntas frecuentes conversacionales en Amazon Lex permite a los desarrolladores de bots y diseñadores de conversaciones centrarse en definir la lógica empresarial en lugar de diseñar flujos de conversación integrales basados en preguntas frecuentes dentro de un bot.
Presentamos un QnAIntent integrado que utiliza un LLM para consultar una fuente de conocimiento autorizada y proporcionar una respuesta significativa y contextual. Además, los desarrolladores pueden configurar QnAIntent para que apunte a secciones específicas de la base de conocimientos, garantizando que solo se consulten partes específicas del contenido del conocimiento en tiempo de ejecución para satisfacer las necesidades del usuario. Esta característica aborda la necesidad de que industrias altamente reguladas, como los servicios financieros y la atención médica, brinden respuestas solo en un lenguaje compatible. La función de preguntas frecuentes conversacionales de Amazon Lex permite a las empresas mejorar las tasas de contención y, al mismo tiempo, evitar los altos costos de las solicitudes perdidas y la reubicación de representantes humanos.
Cree un bot de Amazon Lex utilizando el generador de bots descriptivo
Crear bots conversacionales desde cero es un proceso que requiere mucho tiempo y un amplio conocimiento de cómo los usuarios interactúan con los bots para anticipar solicitudes potenciales y programar respuestas apropiadas. Hoy en día, los diseñadores y desarrolladores de conversaciones pasan muchos días escribiendo código para realizar todo tipo de acciones de usuario (intenciones), las diferentes formas en que los usuarios expresan sus solicitudes (Declaraciones) y la información que el usuario necesita para realizar estas acciones (Llave).
La nueva función descriptiva de creación de bots en Amazon Lex utiliza IA generativa para acelerar el proceso de creación de bots. En lugar de escribir código, los diseñadores de conversaciones y desarrolladores de bots ahora pueden describir en un lenguaje sencillo lo que quieren que logre el bot (por ejemplo, «Aceptar reservas para mi hotel con nombre e información de contacto, fechas de viaje, tipo de habitación e información de pago»). . Con solo este simple mensaje, Amazon Lex genera automáticamente intenciones, expresiones de entrenamiento, espacios, mensajes y flujo de conversación para darle vida al bot descrito. Al proporcionar un diseño de bot básico, esta característica reduce en gran medida el tiempo y la complejidad de crear chatbots conversacionales y permite al desarrollador volver a priorizar el esfuerzo necesario para ajustar la experiencia conversacional.
Al aprovechar el poder de la IA generativa con LLM, Amazon Lex permite a los desarrolladores y usuarios no técnicos crear bots simplemente describiendo su objetivo. En lugar de codificar meticulosamente intenciones, expresiones, espacios, etc., los desarrolladores pueden proporcionar un mensaje en lenguaje natural y Amazon Lex generará automáticamente un flujo de bot básico listo para seguir refinando. Inicialmente, esta función solo está disponible en inglés, pero los desarrolladores pueden personalizar aún más el bot generado por IA según sea necesario antes de la implementación, lo que ahorra muchas horas de trabajo de desarrollo manual.
Mejora de la experiencia del usuario con resolución de ranura compatible
A medida que los consumidores se familiarizan más con los chatbots y los sistemas de respuesta de voz interactiva (IVR), esperan mayores niveles de inteligencia integrados en las experiencias de autoservicio. Proporcionar respuestas más claras y conversacionales es esencial para el éxito, ya que los usuarios esperan experiencias más naturales y humanas. A medida que aumenta la confianza del consumidor en las capacidades del chatbot, también se espera que aumente el rendimiento de la comprensión del lenguaje natural (NLU). En el escenario probable de que una expresión semánticamente simple o compleja no se resuelva adecuadamente en una ranura, la confianza del usuario puede disminuir. En tales casos, un LLM puede admitir dinámicamente el modelo NLU de Amazon Lex existente y garantizar una resolución de ranura precisa incluso si la expresión del usuario queda fuera de los límites del modelo de ranura. En Amazon Lex, la función de resolución de ranuras admitida proporciona al desarrollador del bot otra herramienta para mejorar la contención.
En tiempo de ejecución, si NLU no puede resolver un espacio durante una ronda de conversación, Amazon Lex invoca el LLM elegido por el desarrollador del bot para ayudar a resolver el espacio. Si el LLM puede proporcionar valor en un reintento de ranura, el usuario puede continuar la conversación normalmente. Por ejemplo, si un bot pregunta «¿En qué ciudad vive el titular de la póliza?» al volver a intentar el espacio y el usuario responde «Vivo en Springfield», el LLM puede resolver el valor en «Springfield». Los tipos de espacios admitidos para esta función incluyen AMAZON.City, AMAZON.Country, AMAZON.Number, AMAZON.Date, AMAZON.AlphaNumeric (sin expresiones regulares) y AMAZON.PhoneNumber, así como AMAZON.Confirmation. Esta función solo está disponible en inglés en el momento de escribir este artículo.
Mejorar la experiencia del constructor entrenando la generación de expresiones
Uno de los puntos débiles que suelen enfrentar los desarrolladores de bots y los diseñadores conversacionales es anticipar la variación y diversidad de las respuestas al solicitar una intención o solicitar información sobre un espacio. Cuando un desarrollador de bot crea una nueva intención, se deben proporcionar expresiones de muestra para entrenar el modelo de ML sobre los tipos de respuestas que puede y debe aceptar. A menudo puede resultar difícil predecir las permutaciones que utilizarán los clientes en términos de vocabulario y sintaxis. Para la generación de expresiones, Amazon Lex aprovecha modelos fundamentales como Amazon Titan para generar expresiones de entrenamiento con un solo clic, sin necesidad de un desarrollo inmediato.
La generación de expresiones utiliza el nombre de la intención, las expresiones existentes y, opcionalmente, la descripción de la intención para generar nuevas expresiones con un LLM. Los desarrolladores de bots y los diseñadores de conversaciones pueden editar o eliminar las expresiones generadas antes de aceptarlas. Esta característica funciona tanto con intenciones nuevas como existentes.
Diploma
Sin duda, los avances recientes en la IA generativa han llevado a una mejor experiencia automatizada del consumidor. Con Amazon Lex, nos comprometemos a integrar la IA generativa en todos los aspectos de la experiencia del creador y del usuario. Las características mencionadas en esta publicación son solo el comienzo, y estamos ansiosos por mostrarle lo que está por venir.
Para obtener más información, consulte la documentación de Amazon Lex y pruebe estas funciones en la consola de Amazon Lex.
Sobre los autores
Anuradha Durfee Es gerente senior de productos en el equipo de Amazon Lex y tiene más de 7 años de experiencia en IA conversacional. Le fascinan las interfaces de usuario de voz y mejorar el acceso a la tecnología a través de un diseño intuitivo.
Sandeep Srinivasan es gerente senior de productos en el equipo de Amazon Lex. Como gran observador del comportamiento humano, se preocupa por la experiencia del cliente. Pasa sus horas de vigilia en la intersección de las personas, la tecnología y el futuro.
[ad_2]