Las bases de conocimiento en Amazon Bedrock ahora facilitan la formulación de preguntas sobre un solo documento.

[ad_1]

En AWS re:Invent 2023, anunciamos la disponibilidad general de bases de conocimiento para Amazon Bedrock. Con Knowledge Bases para Amazon Bedrock, puede conectar de forma segura Foundation Models (FM) en Amazon Bedrock a sus datos empresariales para una generación aumentada de recuperación (RAG) totalmente administrada.

En publicaciones anteriores, cubrimos nuevas características como soporte de búsqueda híbrida, filtrado de metadatos para mejorar la precisión de la recuperación y cómo Knowledge Bases for Amazon Bedrock administra el flujo de trabajo RAG de un extremo a otro.

Hoy presentamos la nueva función para chatear con su documento sin configuración en Knowledge Bases para Amazon Bedrock. Esta nueva característica le permite hacer preguntas con confianza sobre documentos individuales sin la molestia de configurar una base de datos vectorial o ingerir datos, lo que permite a las empresas aprovechar sus datos corporativos con facilidad. Todo lo que necesita hacer es proporcionar un archivo de datos relevante como entrada y seleccionar su FM para comenzar.

Sin embargo, antes de profundizar en los detalles de esta función, comencemos con lo básico y comprendamos qué es RAG, qué beneficios ofrece y cómo esta nueva función permite la recuperación y generación de contenido según los requisitos de tiempo.

¿Qué es la recuperación de generación aumentada?

Los asistentes de inteligencia artificial (IA) basados ​​en FM tienen limitaciones, p. B. Proporcionar información desactualizada o problemas con contexto fuera de sus datos de capacitación. RAG aborda estos problemas permitiendo a los FM comparar fuentes de conocimiento autorizadas antes de generar respuestas.

Con RAG, cuando un usuario hace una pregunta, el sistema recupera el contexto relevante de una base de conocimientos seleccionada, como la documentación de la empresa. Proporciona este contexto al FM, quien lo utiliza para generar una respuesta más informada y precisa. RAG ayuda a superar las limitaciones de FM al ampliar sus capacidades con el conocimiento propio de la empresa, lo que permite que los chatbots y los asistentes de IA proporcionen información actualizada y específica del contexto adaptada a las necesidades comerciales sin volver a capacitar a todo el FM. En AWS, reconocemos el potencial de RAG y hemos trabajado para simplificar la adopción a través de bases de conocimiento para Amazon Bedrock, brindando una experiencia RAG totalmente administrada.

Necesidades de información inmediatas y a corto plazo.

Aunque una base de conocimientos hace todo el trabajo pesado y sirve como un gran depósito permanente de conocimientos de la empresa, es posible que necesite acceso temporal a los datos para tareas o análisis específicos dentro de sesiones de usuarios aislados. Los enfoques RAG tradicionales no están optimizados para estos escenarios de acceso a datos a corto plazo basados ​​en sesiones.

Las empresas incurren en tarifas por el almacenamiento y la gestión de datos. Esto puede hacer que RAG sea menos rentable para organizaciones con necesidades de información altamente dinámicas o de corta duración, particularmente si los datos solo se necesitan para tareas o análisis específicos y aislados.

Haga preguntas sobre un solo documento sin configuración

Esta nueva función para chatear con su documento en las bases de conocimiento de Amazon Bedrock aborda los desafíos mencionados anteriormente. Proporciona un método sin configuración que le permite utilizar su único documento junto con los FM proporcionados por Amazon Bedrock para la recuperación de contenido y tareas relacionadas con la generación. Esta nueva característica le permite hacer preguntas sobre sus datos sin la molestia de configurar una base de datos vectorial o la ingesta de datos, lo que facilita el aprovechamiento de los datos de su empresa.

Ahora puedes interactuar con tus documentos en tiempo real, sin ingesta previa de datos ni configuración de base de datos. No es necesario realizar ningún paso adicional de preparación de datos antes de consultarlos.

Este enfoque sin configuración facilita el aprovechamiento de los activos de información de su empresa con IA generativa mediante Amazon Bedrock.

Casos de uso y beneficios

Considere una empresa de contratación de personal que necesita analizar currículums y encontrar candidatos con oportunidades laborales adecuadas en función de su experiencia y habilidades. Anteriormente, había que configurar una base de conocimientos e invocar un flujo de trabajo de recopilación de datos para garantizar que solo los reclutadores autorizados pudieran acceder a los datos. Además, deberá gestionar la limpieza cuando los datos de una sesión o candidato ya no sean necesarios. En última instancia, pagaría más por el almacenamiento y la gestión de bases de datos vectoriales que por el uso real de FM. Esta nueva función de base de conocimientos para Amazon Bedrock permite a los reclutadores analizar currículums rápida y rápidamente y relacionar candidatos con oportunidades laborales adecuadas según la experiencia y las habilidades del candidato.

Como otro ejemplo, imagine a un gerente de producto en una empresa de tecnología que necesita analizar rápidamente los comentarios de los clientes y los tickets de soporte para identificar problemas comunes y oportunidades de mejora. Con esta nueva función, puede cargar fácilmente un documento para obtener información instantánea. Por ejemplo, podría preguntar: "¿Cuáles son los requisitos de la aplicación móvil?" o "¿Cuáles son los problemas más comunes que reportan los clientes con nuestro proceso de incorporación?". Esta función le permite sintetizar rápidamente esta información sin una gran preparación de datos ni esfuerzo administrativo. También puede solicitar resúmenes o conclusiones clave, como: B. "¿Cuáles son los aspectos más destacados de este documento de requisitos?"

Los beneficios de esta característica van más allá del ahorro de costos y la eficiencia operativa. Al eliminar la necesidad de bases de datos vectoriales y recopilación de datos, esta nueva característica de Knowledge Bases para Amazon Bedrock ayuda a proteger sus datos de propiedad y hacerlos accesibles solo en el contexto de sesiones de usuarios aislados.

Ahora que hemos cubierto los beneficios de las funciones y los posibles casos de uso, profundicemos en las bases de conocimientos de Amazon Bedrock para aprender cómo puede comenzar a utilizar esta nueva función.

Chatea con tu documento en las bases de conocimiento de Amazon Bedrock

Tienes varias formas de utilizar esta función:

  • La consola Amazon Bedrock
  • La base del Amazonas RetrieveAndGenerate API (SDK)

Veamos cómo podemos empezar a utilizar la consola de Amazon Bedrock:

  1. En la consola de Amazon Bedrock en Orquestación Seleccione en el panel de navegación Bases de conocimiento.
  2. Elegir Chatea con tu documento.
  3. Bajo Modeloelegir Seleccionar modelo.
  4. Elige tu modelo. Para este ejemplo, usaremos el modelo Claude 3 Sonnet (solo admitimos Sonnet en el lanzamiento).
  5. Elegir Aplicar.
  6. Bajo DatosPuede cargar el documento con el que desea chatear o señalar la ubicación del depósito de Amazon Simple Storage Service (Amazon S3) que contiene su archivo. Para este post subiremos un documento desde nuestro ordenador.

Los formatos de archivo admitidos son PDF, MD (Markdown), TXT, DOCX, HTML, CSV, XLS y XLSX. Asegúrese de que el tamaño del archivo no supere los 10 MB y no contenga más de 20.000 tokens. A Firmar se considera una unidad de texto, como una palabra, subpalabra, número o símbolo, que se procesa como una sola unidad. Debido al límite de token de grabación predeterminado, se recomienda utilizar un archivo de menos de 10 MB. Sin embargo, un archivo con mucho texto que sea mucho menor que 10 MB puede potencialmente exceder el límite del token.

Ahora puedes chatear con tu documento.

Como se muestra en la captura de pantalla a continuación, puede chatear con su documento en tiempo real.

Para personalizar su mensaje, ingrese su mensaje a continuación sistema inmediato.

Del mismo modo, puede utilizar el SDK de AWS a través de retrieve_and_generate API en los lenguajes de programación más importantes. En el siguiente ejemplo utilizamos AWS SDK para Python (Boto3):

import boto3

bedrock_client = boto3.client(service_name="bedrock-agent-runtime")
model_id = "your_model_id_here"    # Replace with your modelID
document_uri = "your_s3_uri_here"  # Replace with your S3 URI

def retrieveAndGenerate(input_text, sourceType, model_id, document_s3_uri=None, data=None):
    region = 'us-west-2'  
    model_arn = f'arn:aws:bedrock:{region}::foundation-model/{model_id}'

    if sourceType == "S3":
        return bedrock_client.retrieve_and_generate(
            input={'text': input_text},
            retrieveAndGenerateConfiguration={
                'type': 'EXTERNAL_SOURCES',
                'externalSourcesConfiguration': {
                    'modelArn': model_arn,
                    'sources': [
                        {
                            "sourceType": sourceType,
                            "s3Location": {
                                "uri": document_s3_uri  
                            }
                        }
                    ]
                }
            }
        )
        
    else:
        return bedrock_client.retrieve_and_generate(
            input={'text': input_text},
            retrieveAndGenerateConfiguration={
                'type': 'EXTERNAL_SOURCES',
                'externalSourcesConfiguration': {
                    'modelArn': model_arn,
                    'sources': [
                        {
                            "sourceType": sourceType,
                            "byteContent": {
                                "identifier": "testFile.txt",
                                "contentType": "text/plain",
                                "data": data  
                            }
                        }
                    ]
                }
            }
        )

response = retrieveAndGenerate(
                                input_text="What is the main topic of this document?",
                                sourceType="S3", 
                                model_id=model_id,
                                document_s3_uri=document_uri
                              )
                    
print(response['output']['text'])

Diploma

En esta publicación, explicamos cómo las bases de conocimiento de Amazon Bedrock ahora facilitan la formulación de preguntas sobre un solo documento. Exploramos los conceptos centrales detrás de RAG, los desafíos que aborda esta nueva característica y los diferentes casos de uso que permite en diferentes roles e industrias. También demostramos cómo se puede configurar y aprovechar esta característica a través de la consola de Amazon Bedrock y el SDK de AWS, demostrando la simplicidad y flexibilidad de esta característica, que proporciona una solución sin configuración para recopilar información de un solo documento sin configurar una base de datos vectorial.

Para obtener más información sobre las características de la base de conocimientos de Amazon Bedrock, consulte los siguientes recursos:

Comparta y aprenda con nuestra comunidad de IA generativa en community.aws.


Sobre los autores


Suman Debnath es uno de los principales defensores de los desarrolladores de aprendizaje automático en Amazon Web Services. Con frecuencia habla en conferencias, eventos y reuniones de AI/ML en todo el mundo. Le apasionan los sistemas distribuidos a gran escala y es un ávido fanático de Python.


Sebastián Múnera es ingeniero de software en el equipo de Amazon Bedrock Knowledge Bases en AWS, donde se enfoca en desarrollar soluciones para clientes que aprovechan aplicaciones generativas de IA y RAG. Anteriormente, trabajó en el desarrollo de soluciones generativas basadas en IA para que los clientes optimicen sus procesos y aplicaciones de código bajo/sin código. En su tiempo libre le gusta correr, levantar pesas y jugar con la tecnología.

[ad_2]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *


Subir