AutoAI RAG Muster Details
Nach Abschluss Ihres AutoAI RAG-Experiments können Sie sich die Details eines Musters ansehen, um dessen Zusammensetzung und Leistung zu verstehen.
Übersicht über die Muster
In der Pipeline-Rangliste können Sie eine Tabelle mit den folgenden Informationen für jedes der vom Experiment erzeugten Muster anzeigen:
Spalte | Beschreibung |
---|---|
Rang | Rang der Platzierung nach der besten Leistung für die optimierte Metrik |
Ihren Namen | Mustername |
Modellname | Name des Einbettungsmodells, das zur Vektorisierung und Indexierung der Dokumente verwendet wird |
Metrik optimieren | Leistungsergebnis für die optimierte Metrik, die für das Experiment ausgewählt wurde. Ein RAG-Muster kann auf Antworttreue und Antwortkorrektheit optimiert werden |
Chunkgröße | Menge der aus den indizierten Dokumenten abgerufenen Daten |
Abrufmethode | Methode (Fenster oder Einfach) zum Abrufen indizierter Dokumente |
Vektorspeicher-Abstandsmetrik | Metrik (Cosinus oder Euklidisch), mit der gemessen wird, wie relevant die gespeicherten Vektoren für die Eingangsvektoren sind |
Musterdetails
Klicken Sie auf einen Musternamen, um die folgenden Konfigurationsdetails für ein Muster zu überprüfen. Um zwei Muster zu vergleichen, schalten Sie "Muster vergleichen" um und wählen Sie ein Muster zum Vergleich aus. Einige der Konfigurationseinstellungen können bei der Erstellung des Experiments bearbeitet werden. Weitere Informationen finden Sie unter "Anpassen der Einstellungen für das RAG-Experiment ".
Informationen zu den Mustern
Spalte | Beschreibung |
---|---|
Muster | Mustername |
Bewertungstyp | Wie die Leistungskennzahl berechnet und dargestellt wird. - Mittelwert: Der Durchschnittswert der Kennzahl. - KI-Obergrenze: Die Obergrenze des Konfidenzintervalls (KI) für den Mittelwert, die den höchsten Wert angibt, den die Kennzahl wahrscheinlich erreichen wird. - KI-Untergrenze: Die Untergrenze des Konfidenzintervalls (KI) für den Mittelwert, die den niedrigsten Wert angibt, den die Kennzahl wahrscheinlich erreichen wird. |
Richtigkeit der Antwort | Richtigkeit der generierten Antwort, die sowohl die Relevanz des abgerufenen Kontexts als auch die Qualität der generierten Antwort umfasst. |
Antwortgenauigkeit | Genauigkeit der generierten Antwort auf den abgerufenen Text. |
Kontextrichtigkeit | Relevanz der generierten Antwort für die Eingabe. |
Vektorspeicher
Spalte | Beschreibung |
---|---|
Vektorspeicher-Datenquellentyp | Datenquelle, die eine Verbindung mit dem Vektorspeicher herstellt. |
Vektorspeicher-Abstandsmetrik | Metrik, mit der gemessen wird, wie relevant die gespeicherten Vektoren für den Eingabevektor sind. |
Indexname des Vektorspeichers | Index, der als Datenstruktur zum Speichern und Abrufen von Vektorspeichern verwendet wird. |
Vektorspeicheroperation | Vektorspeicheroperation zum Abrufen von Daten. Zum Beispiel "upsert" zum Einfügen oder Aktualisieren von Zeilen in der Datenbanktabelle. |
Schemafelder für Vektorspeicher | Schema für die Speicherung des Index der vektorisierten Dokumente. |
Schema-ID des Vektorspeichers | Eindeutige Kennung des Vektor-Speicherschemas. |
Schemaname des Vektorspeichers | Name des Schemas, das für die Strukturierung der Datenbanktabelle verwendet wird |
Schematyp des Vektorspeichers | Bestimmt die Art der Daten, die im Schema gespeichert werden können, und die Operationen, die mit den Daten ausgeführt werden können. Der Schematyp struct wird für die Speicherung strukturierter Daten verwendet. |
Chunking
Spalte | Beschreibung |
---|---|
Chunk-Überlappung | Anzahl der Chunks, die gemeinsame Wörter oder Phrasen enthalten. |
Chunkgröße | Menge der aus den Indexdokumenten abgerufenen Daten. |
Chunk-Erweiterung | Wie relevanter Text für jeden Chunk der Eingabe nach Aufteilung der Eingabe in mehrere Chunks abgerufen wird. |
Einbettungen
Spalte | Beschreibung |
---|---|
Einbettungsmodell | Einbettungsmodell, das zur Vektorisierung und Indexierung der Dokumentensammlung verwendet wird. |
Eingabe-Token abschneiden | Maximale Anzahl von Token, die als Eingabe akzeptiert werden. |
Strategie des Abschneidens | Strategie, mit der festgelegt wird, wie die abgerufenen Dokumente verarbeitet werden sollen, um die Leistung des Modells zu optimieren. |
Abruf
Spalte | Beschreibung |
---|---|
Abrufmethode | Methode zum Abrufen indizierter Dokumente: Fenster oder einfach. |
Anzahl der Chunks | Anzahl der aus den indizierten Dokumenten abgerufenen Chunks. |
Fenstergröße | Anzahl der benachbarten Token, die das Modell beim Abrufen von Text aus indizierten Dokumenten berücksichtigt. |
Generierung
Spalte | Beschreibung |
---|---|
Text der Kontextvorlage | Strukturierte Vorlage für die generierte Antwort. |
Basismodell | Das im Experiment verwendete Foundation-Modell. Klicken Sie auf das Vorschausymbol, um Details über das Modell zu erfahren. |
Decodierungsmethode | Prozess, den ein Modell verwendet, um die Token in der generierten Ausgabe auszuwählen. |
Maximale Anzahl neuer Token | Maximale Anzahl neuer Token, die zusätzlich zu den aus indizierten Dokumenten abgerufenen Token erzeugt werden können. |
Mindestanzahl neuer Token | Mindestanzahl neuer Token, die generiert werden können. |
Text der Eingabeaufforderungsvorlage | Struktur mit Leitlinien für das Modell, das beim Abrufen von Text aus indizierten Dokumenten zu verwenden ist. |
Verhältnis von Wort zu Token | Anzahl der Wörter in einem Text geteilt durch die Anzahl der generierten Token. |
Q&A-Beispiel
Spalte | Beschreibung |
---|---|
Q&A-Beispiel | Fragen und richtige Antworten werden als Testdaten zur Messung der Leistung des Musters bereitgestellt. Beispiel: ![]() |
Übergeordnetes Thema: Automatisieren eines RAG-Musters mit AutoAI