0 / 0
Zurück zur englischen Version der Dokumentation
Verwenden von vektorisiertem Text mit Tasks zur abruferweiterten Generierung
Letzte Aktualisierung: 28. Nov. 2024
Verwenden von vektorisiertem Text mit Tasks zur abruferweiterten Generierung

Verwenden Sie Einbettungsmodelle, um Texteinbettungen zu erstellen, die die Bedeutung eines Satzes oder einer Passage erfassen, um abruferweiterte Generierungstasks zu unterstützen.

Retrieval-augmented generation (RAG) ist eine Technik, bei der ein foundation model mit Wissen aus externen Quellen angereichert wird. Sie können Texteinbettungen verwenden, um relevante Informationen von höherer Qualität zu finden, die in die Aufforderung eingefügt werden können, damit das foundation model sachlich antworten kann.

Das folgende Diagramm veranschaulicht das Muster für die abruferweiterte Generierung mit Einbettungsunterstützung.

Diagramm, das das Hinzufügen von Suchergebnissen, die von einem Vektorspeicher abgeleitet wurden, zur Eingabe für die abruf-erweiterte Generierung zeigt

Das Muster für die abruferweiterte Generierung mit Einbettungsunterstützung umfasst die folgenden Schritte:

  1. Konvertieren Sie Ihre Inhalte in Texteinbettungen und speichern Sie sie in einem Vektordatenspeicher.
  2. Verwenden Sie dasselbe Einbettungsmodell, um die Benutzereingabe in Texteinbettungen zu konvertieren.
  3. Führen Sie eine Ähnlichkeits-oder semantische Suche in Ihrer Wissensbasis für Inhalte aus, die sich auf die Frage eines Benutzers beziehen.
  4. Extrahieren Sie die relevantesten Suchergebnisse als Kontext in Ihre Eingabeaufforderung und fügen Sie eine Anweisung hinzu, z. B. "Beantworten Sie die folgende Frage, indem Sie nur Informationen aus den folgenden Passagen verwenden."
  5. Senden Sie den kombinierten Aufforderungstext (Anweisung + Suchergebnisse + Frage) an das foundation model.
  6. Das foundation model verwendet kontextbezogene Informationen aus der Aufforderung, um eine sachliche Antwort zu erstellen.

Ergänzung des foundation model von Prompt Lab

Das Prompt Lab verfügt über eine integrierte Funktion im Chat-Modus, die Ihnen bei der Implementierung eines RAG-Anwendungsfalls hilft. Zu Beginn verknüpfen Sie relevante Dokumente mit einer Eingabeaufforderung. Die von Ihnen hinzugefügten Dokumente werden vektorisiert und in einer Vektordatenbank gespeichert. Wenn eine Anfrage an den Chat gestellt wird, wird die Datenbank durchsucht, und die entsprechenden Ergebnisse werden in die Eingabe, die an das foundation model übermittelt wird, aufgenommen. Weitere Informationen finden Sie unter Verankerung des foundation model in kontextuellen Informationen.

Beispielnotebook

Das Beispielnotizbuch Use watsonx Granite Model Series, Chroma, and LangChain to answer questions (RAG) führt Sie durch die Schritte, die Sie befolgen müssen, um einen RAG-Anwendungsfall mit Einbettungen zu erweitern.

Weitere Informationen

Übergeordnetes Thema: Retrieval-unterstützte Generierung

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen