0 / 0

Creación de un experimento RAG (vía rápida)

Última actualización: 27 jun 2025
Creación de un experimento RAG (vía rápida)

Cree un experimento de generación aumentada por recuperación (RAG) utilizando AutoAI. Cargue una colección de documentos y transfórmelos en vectores que puedan utilizarse para mejorar el resultado de un modelo lingüístico de gran tamaño. Compare conductos optimizados para seleccionar el mejor patrón RAG para su aplicación.

Preparación de las fuentes de datos

Antes de crear un experimento RAG, prepare sus activos de recopilación de documentos y datos de evaluación. La colección de documentos proporciona el contexto para las respuestas a las preguntas. Los datos de evaluación son un archivo JSON con ejemplos de preguntas y respuestas para medir el rendimiento de los patrones RAG.

Para preparar la recogida de datos, siga estas directrices:

  • Formatos admitidos para la colección de documentos: PDF, HTML, DOCX, MD, PPTX, JSON, YAML o texto sin formato
  • Formato admitido para el archivo de datos de evaluación: JSON

Plantilla para el archivo de evaluación JSON

El archivo de datos de evaluación proporciona una serie de preguntas de muestra y respuestas correctas para evaluar el rendimiento del patrón GAR. Utilice este formato para el archivo JSON:

[
    {
        "question": "<text>",
        "correct_answer": "<text>",
        "correct_answer_document_ids": [
            "<file>",
            "<file>"
        ]
    },
    {
        "question": "<text>",
        "correct_answer": "<text>",
        "correct_answer_document_ids": [
            "<file>",
            "<file>"
        ]
    },
    {
        "question": "<text>",
        "correct_answer": "<text>",
        "correct_answer_document_ids": [
            "<file>",
            "<file>"
        ]
    }
]

Para añadir varias respuestas correctas a una pregunta, indique el texto de la respuesta y el ID del documento para cada respuesta correcta. Utilice este formato para múltiples respuestas correctas:

[
  {
    "question": "Question 1",
    "correct_answer": "Correct answer 1 for question 1.",
    "correct_answer_document_ids": ["id1a1q1", "id2a1q1"]
  },
  {
    "question": "Question 1",
    "correct_answer": "Correct answer 2 for question 1.",
    "correct_answer_document_ids": ["id1a2q1", "id2a2q1"]
  },
  {
    "question": "Question 2",
    "correct_answer": "Correct answer 1 for question 2.",
    "correct_answer_document_ids": ["id1a1q2", "id2a1q2"]
  }
]

Por ejemplo, los siguientes son ejemplos de preguntas y respuestas para el patrón que se entrena con la documentación de la biblioteca watsonx.ai Python.

[
    {
        "question": "What foundation models are available in watsonx.ai?",
        "correct_answer": "The following models are available in watsonx.ai: \nflan-t5-xl-3b\nFlan-t5-xxl-11b\nflan-ul2-20b\ngpt-neox-20b\ngranite-13b-chat-v2\ngranite-13b-chat-v1\ngranite-13b-instruct-v2\ngranite-13b-instruct-v1\nllama-2-13b-chat\nllama-2-70b-chat\nmpt-7b-instruct2\nmt0-xxl-13b\nstarcoder-15.5b",
        "correct_answer_document_ids": [
            "5B37710FE7BBD6EFB842FEB7B49B036302E18F81_0.txt"
        ]
    },
    {
        "question": "What foundation models are available on Watsonx, and which of these has IBM built?",
        "correct_answer": "The following foundation models are available on Watsonx:\n\n1. flan-t5-xl-3b\n2. flan-t5-xxl-11b\n3. flan-ul2-20b\n4. gpt-neox-20b\n5. granite-13b-chat-v2 (IBM built)\n6. granite-13b-chat-v1 (IBM built)\n7. granite-13b-instruct-v2 (IBM built)\n8. granite-13b-instruct-v1 (IBM built)\n9. llama-2-13b-chat\n10. llama-2-70b-chat\n11. mpt-7b-instruct2\n12. mt0-xxl-13b\n13. starcoder-15.5b\n\n The Granite family of foundation models, including granite-13b-chat-v2, granite-13b-chat-v1, and granite-13b-instruct-v2 has been build by IBM.",
        "correct_answer_document_ids": [
            "5B37710FE7BBD6EFB842FEB7B49B036302E18F81_0.txt",
            "B2593108FA446C4B4B0EF5ADC2CD5D9585B0B63C_0.txt"
        ]
    },
    {
        "question": "What is greedy decoding?",
        "correct_answer": "Greedy decoding produces output that closely matches the most common language in the model's pretraining data and in your prompt text, which is desirable in less creative or fact-based use cases. A weakness of greedy decoding is that it can cause repetitive loops in the generated output.",
        "correct_answer_document_ids": [
            "42AE491240EF740E6A8C5CF32B817E606F554E49_1.txt"
        ]
    },
    {
        "question": "When to tune a foundation model?",
        "correct_answer": "Tune a foundation model when you want to do the following things:\n\nReduce the cost of inferencing at scale\nGet the model's output to use a certain style or format\nImprove the model's performance by teaching the model a specialized task\nGenerate output in a reliable form in response to zero-shot prompts\"",
        "correct_answer_document_ids": [
            "FBC3C5F81D060CD996489B772ABAC886F12130A3_0.txt"
        ]
    },
    {
        "question": "What tuning parameters are available for IBM foundation models?",
        "correct_answer": "Tuning parameter values for IBM foundation models:\nInitialization method\ninitialization text\nbatch_size\naccumulate_steps\nlearning_rate\nnum_epochs\"",
        "correct_answer_document_ids": [
            "51747F17F413F1F34CFD73D170DE392D874D03DD_2.txt"
        ]
    },
    {
        "question": "How do I avoid generating personal information with foundation models?",
        "correct_answer": "To exclude personal information, try these techniques:\n- In your prompt, instruct the model to refrain from mentioning names, contact details, or personal information.\n- In your larger application, pipeline, or solution, post-process the content that is generated by the foundation model to find and remove personal information.\"",
        "correct_answer_document_ids": [
            "E59B59312D1EB3B2BA78D7E78993883BB3784C2B_4.txt"
        ]
    },
    {
        "question": "What is Watson OpenScale?",
        "correct_answer": "Watson OpenScale is a tool that helps organizations evaluate and monitor the performance of their AI models. It tracks and measures outcomes from AI models, and helps ensure that they remain fair, explainable, and compliant no matter where the models were built or are running. Watson OpenScale also detects and helps correct the drift in accuracy when an AI model is in production.",
        "correct_answer_document_ids": [
            "777F72F32FD20E96C4A5F0CCA461FE9A79334E96_0.txt"
        ]
    }
]

Elegir un almacén de vectores

Debe proporcionar una ubicación para almacenar los documentos vectorizados en una base de datos que se utiliza para almacenar y recuperar contenido para el proceso de preguntas y respuestas. Para obtener más información sobre las opciones de base de datos disponibles, consulte Elegir un almacén de vectores.

  • La base de datos Chroma en memoria por defecto es un almacén temporal de vectores para ejecutar el experimento. El índice no persiste más allá del experimento, por lo que no es una buena opción para su uso en producción.
  • Conéctese o cree una base de datos Milvus si desea un almacén permanente de vectores. Utilice esta opción si planea desplegar su patrón RAG. Para más detalles, consulte Configuración de un almacén de vectores watsonx.data Milvus
Importante:

Para conectarse a un almacén de vectores Milvus, puede elegir el tipo de conector genérico Milvus o el conector watsonx.data Milvus.

Vea este vídeo para ver cómo crear un experimento AutoAI RAG.

Este vídeo proporciona un método visual para aprender los conceptos y tareas de esta documentación.

Creación del experimento AutoAI RAG

Siga estos pasos para definir y ejecutar un experimento para buscar el patrón RAG óptimo para su caso de uso, utilizando los ajustes de configuración por defecto como fastpath.

  1. En la página de bienvenida de watsonx.ai o en la página Nuevos activos de un proyecto, haz clic en Crear soluciones de IA automáticamente.

  2. Escriba un nombre y una descripción opcional para el experimento, seleccione un tamaño de configuración y haga clic en Crear. También debe tener una instancia de servicio de tiempo de ejecución de watsonx.ai asociada al proyecto.

    Consejo : Si aparece un error al configurar un experimento, comprueba que dispones de recursos suficientes con tu plan. Si el problema persiste, intente rotar sus credenciales de tareas de IBM Cloud.

  3. Seleccione Construir una solución RAG como tipo de experimento.

  4. Cargar o conectarse a los datos de recopilación y evaluación de documentos. Seleccione hasta 20 carpetas y archivos de documentos para la colección de documentos. El archivo de datos de evaluación debe ser un único archivo JSON. Conexión a datos para un experimento RAG

  5. Elija dónde almacenar el índice basado en vectores para la colección de documentos.

  6. Especifique el archivo JSON que desea utilizar como datos de referencia para evaluar los resultados del experimento.

  7. Haga clic en Ejecutar experimento para crear los conductos RAG utilizando la configuración predeterminada:

    • Métrica optimizada: Optimiza la creación de los patrones RAG para la métrica de fidelidad de respuesta.
    • Modelos a considerar: El valor predeterminado de Todos los tipos de modelos considera todos los modelos de cimentación disponibles para generar los patrones GAR.

Los ajustes del experimento son configurables si desea personalizarlo para su caso de uso. Consulte Personalización de la configuración del experimento RAG.

Visualización de los resultados

Utilice las siguientes herramientas para ver el progreso y revisar los resultados.

  1. A medida que se ejecuta el experimento, un mapa de progreso ofrece una visualización de cómo se crean y optimizan los conductos. Pase el ratón por encima de cualquier nodo para obtener más detalles.

    Visualización del mapa de progreso de un experimento GAR en curso

  2. Cuando finalice el experimento, haga clic en Importancia de la configuración para revisar la importancia de cada configuración para crear y clasificar los patrones optimizados.

    Establecer la importancia de un experimento RAG

  3. Revise la tabla de clasificación que muestra las canalizaciones de experimentos, clasificadas según los resultados de la métrica optimizada.

    Tabla de clasificación de un experimento RAG

  4. Haga clic en el nombre de una tubería para ver los detalles. Revise la puntuación obtenida por la canalización en las distintas métricas evaluadas con respecto a la pregunta y respuesta de muestra.

    Detalles de un experimento RAG

  5. Una vez finalizado el análisis, haga clic en Guardar para generar automáticamente activos de cuaderno que podrá utilizar para probar y utilizar el patrón RAG.

    Guardar una canalización RAG

  6. Revise y ejecute el cuaderno o cuadernos resultantes para probar o utilizar su patrón GAR. Para más detalles, consulte Guardar un patrón RAG.

Próximos pasos

Tema principal: Creación de experimentos RAG con AutoAI