Utilisez des modèles d'imbrication pour créer des imbrication de texte qui capturent la signification d'une phrase ou d'un passage afin de faciliter l'extraction des tâches de génération étendues.
La génération augmentée par récupération (RAG) est une technique dans laquelle un foundation model est complété par des connaissances provenant de sources externes. Vous pouvez utiliser les incorporations de texte pour trouver des informations pertinentes de meilleure qualité à inclure dans l'invite afin d'aider le foundation model à répondre de manière factuelle.
Le diagramme suivant illustre le modèle de génération étendue à l'extraction avec prise en charge de l'intégration.
Le modèle de génération d'extension d'extraction avec prise en charge de l'intégration implique les étapes suivantes:
- Convertissez votre contenu en incorporations de texte et stockez-les dans un magasin de données vectorielles.
- Utilisez le même modèle d'imbrication pour convertir l'entrée utilisateur en imbrication de texte.
- Exécutez une recherche de similarité ou sémantique dans votre base de connaissances pour le contenu lié à la question d'un utilisateur.
- Extrayez les résultats de recherche les plus pertinents dans votre invite en tant que contexte et ajoutez une instruction, telle que " Répondez à la question suivante en utilisant uniquement les informations des passages suivants.
- Envoyer le texte combiné de l'invite (instruction + résultats de la recherche + question) au foundation model.
- Le foundation model utilise les informations contextuelles de l'invite pour générer une réponse factuelle.
Augmentation des données du foundation model provenant de Prompt Lab
Le Prompt Lab dispose d'une fonction intégrée en mode chat qui vous aide à mettre en œuvre un cas d'utilisation RAG. Pour commencer, vous associez les documents pertinents à une invite. Les documents que vous ajoutez sont vectorisés et stockés dans une base de données vectorielles. Lorsqu'une requête est soumise au chat, la base de données est interrogée et les résultats correspondants sont inclus dans l'entrée soumise au foundation model Pour plus d'informations, voir Ancrer les invites du foundation model dans des informations contextuelles.
Exemple de bloc-notes
Le cahier d'exemples Utiliser watsonx Granite Model Series, Chroma et LangChain pour répondre à des questions (RAG) vous guide à travers les étapes à suivre pour améliorer un cas d'utilisation RAG à l'aide d'embeddings.
En savoir plus
- Modèles d'intégration pris en charge
- Génération augmentée à nouveau
- Vectorisation de texte à l'aide de l'API
- Techniques de dépassement des limitations de longueur de contexte
- Référence de l'API pour les incorporations de texte
Sujet parent : Génération augmentée par récupération