Utilisation de texte vectorisé avec des tâches de génération avec récupération augmentée

Dernière mise à jour : 04 mars 2025
Utilisation de texte vectorisé avec des tâches de génération avec récupération augmentée

Utilisez des modèles d'imbrication pour créer des imbrication de texte qui capturent la signification d'une phrase ou d'un passage afin de faciliter l'extraction des tâches de génération étendues.

La génération assistée par récupération (RAG) est une technique dans laquelle une invite de modèle de base est complétée par des connaissances provenant de sources externes. Vous pouvez utiliser l'intégration de texte pour trouver des informations pertinentes de meilleure qualité à inclure dans l'invite afin d'aider le modèle de base à répondre de manière factuelle.

Le diagramme suivant illustre le modèle de génération étendue à l'extraction avec prise en charge de l'intégration.

Diagramme illustrant l'ajout de résultats de recherche dérivés d'un magasin de vecteurs à l'entrée pour l'extraction-génération augmentée

Le modèle de génération d'extension d'extraction avec prise en charge de l'intégration implique les étapes suivantes:

  1. Convertissez votre contenu en incorporations de texte et stockez-les dans un magasin de données vectorielles.
  2. Utilisez le même modèle d'imbrication pour convertir l'entrée utilisateur en imbrication de texte.
  3. Exécutez une recherche de similarité ou sémantique dans votre base de connaissances pour le contenu lié à la question d'un utilisateur.
  4. Extrayez les résultats de recherche les plus pertinents dans votre invite en tant que contexte et ajoutez une instruction, telle que " Répondez à la question suivante en utilisant uniquement les informations des passages suivants.
  5. Envoyer le texte d'invite combiné (instruction + résultats de recherche + question) au modèle de fondation.
  6. Le modèle de la fondation utilise les informations contextuelles de l'invite pour générer une réponse factuelle.

Augmentation de l'entrée du modèle de fondation de Prompt Lab

Prompt Lab, dispose d'une fonction intégrée en mode chat qui vous aide à mettre en œuvre un cas d'utilisation RAG. Pour commencer, vous associez les documents pertinents à une invite. Les documents que vous ajoutez sont vectorisés et stockés dans une base de données vectorielles. Lorsqu'une requête est soumise au chat, la base de données est interrogée et les résultats correspondants sont inclus dans l'entrée qui est soumise au modèle de base. Pour plus d'informations, voir les messages d'invite de la base de référence dans les informations contextuelles.

Exemple de bloc-notes

Le cahier d'exemples Utiliser watsonx Granite Model Series, Chroma et LangChain pour répondre à des questions (RAG) vous guide à travers les étapes à suivre pour améliorer un cas d'utilisation RAG à l'aide d'embeddings.

En savoir plus

Sujet parent : Génération augmentée par récupération