0 / 0
Volver a la versión inglesa de la documentación
Utilización de texto vectorizado con tareas de generación aumentada de recuperación
Última actualización: 28 nov 2024
Utilización de texto vectorizado con tareas de generación aumentada de recuperación

Utilice los modelos de inclusión para crear incorporaciones de texto que capturen el significado de una frase o pasaje para ayudar con las tareas de generación aumentadas de recuperación.

La generación aumentada por recuperación (RAG, por sus siglas en inglés) es una técnica en la que un foundation model se aumenta con conocimientos procedentes de fuentes externas. Puede utilizar incrustaciones de texto para encontrar información relevante de mayor calidad e incluirla en la pregunta para ayudar al foundation model a responder de forma objetiva.

El diagrama siguiente ilustra el patrón de generación de recuperación aumentada con soporte de inclusión.

Diagrama que muestra la adición de resultados de búsqueda derivados de un almacén de vectores a la entrada para la recuperación-generación aumentada

El patrón de generación de recuperación aumentada con soporte de inclusión implica los pasos siguientes:

  1. Convierta el contenido en incorporaciones de texto y almacénelas en un almacén de datos de vector.
  2. Utilice el mismo modelo de inclusión para convertir la entrada de usuario en incorporaciones de texto.
  3. Ejecute una búsqueda semántica o de similitud en la base de conocimientos para el contenido relacionado con la pregunta de un usuario.
  4. Extraiga los resultados de búsqueda más relevantes en su solicitud como contexto y añada una instrucción, como por ejemplo "Responder a la siguiente pregunta utilizando sólo información de los pasajes siguientes".
  5. Enviar el texto de consulta combinado (instrucción + resultados de búsqueda + pregunta) al foundation model.
  6. El foundation model utiliza la información contextual de la pregunta para generar una respuesta objetiva.

Aumentar la información del foundation model de Prompt Lab

Prompt Lab tiene una función incorporada en el modo de chat que le ayuda a implementar un caso de uso de RAG. Para comenzar, asocia los documentos relevantes con un mensaje. Los documentos que agrega se vectorizan y almacenan en una base de datos vectorial. Cuando se envía una consulta al chat, se busca en la base de datos y los resultados relacionados se incluyen en la entrada que se envía al foundation model. Para más información, consulte Basar las indicaciones foundation model en información contextual.

Cuaderno de ejemplo

El cuaderno de ejemplo Utilizar watsonx Granite Model Series, Chroma y LangChain para responder preguntas (RAG ) le guía por los pasos a seguir para mejorar un caso de uso RAG con incrustaciones.

Más información

Tema principal: Generación aumentada por recuperación

Búsqueda y respuesta de IA generativa
Estas respuestas las genera un modelo de lenguaje grande en watsonx.ai que se basa en el contenido de la documentación del producto. Más información