0 / 0
Zurück zur englischen Version der Dokumentation
Eingabeaufforderungsvorlagen in Projekten auswerten
Letzte Aktualisierung: 12. Dez. 2024
Eingabeaufforderungsvorlagen in Projekten auswerten

Sie können Prompt-Vorlagen in Projekten mit watsonx.governance auswerten, um die Leistung von Aufgaben foundation model zu messen und zu verstehen, wie Ihr Modell Antworten erzeugt.

Mit watsonx.governancekönnen Sie Eingabeaufforderungsvorlagen in Projekten auswerten, um zu messen, wie effektiv Ihre Basismodelle Antworten für die folgenden Tasktypen generieren:

  • Klassifikation
  • Zusammenfassung
  • Generierung
  • Beantwortung von Fragen
  • Extrahieren von Entitäten
  • Abruf-Erweiterte Generierung

Vorbereitende Schritte

Sie müssen Zugriff auf ein Projekt haben, um Eingabeaufforderungsvorlagen auszuwerten. Weitere Informationen finden Sie unter watsonx.governance.

Zum Ausführen von Auswertungen müssen Sie sich anmelden und wechseln zu einem watsonx -Konto, auf dem watsonx.governance -und watsonx.ai -Instanzen installiert sind. Öffnen Sie anschließend ein Projekt. Ihnen muss die Rolle Administrator oder Bearbeiter für das Konto zugewiesen sein, um Projekte zu öffnen.

In Ihrem Projekt müssen Sie das Prompt Lab watsonx.ai verwenden, um eine Prompt-Vorlage zu erstellen und zu speichern. Sie müssen Variablen angeben, wenn Sie Eingabeaufforderungsvorlagen erstellen, um Auswertungen zu aktivieren. Der Abschnitt Try im Prompt Lab muss mindestens eine Variable enthalten.

Sehen Sie sich dieses Video an, um zu sehen, wie eine Eingabeaufforderungsvorlage in einem Projekt ausgewertet wird.

Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.

In den folgenden Abschnitten wird beschrieben, wie Sie Eingabeaufforderungsvorlagen in Projekten auswerten und Ihre Bewertungsergebnisse überprüfen können.

Auswertungen ausführen

Zum Ausführen von Auswertungen von Eingabeaufforderungsvorlagen können Sie auf Auswerten klicken, wenn eine gespeicherte Eingabeaufforderungsvorlage auf der Registerkarte Assets in watsonx.governance geöffnet wird, um den Assistenten Eingabeaufforderungsvorlage auswerten zu öffnen. Sie können Bewertungen nur ausführen, wenn Ihnen die Rolle Administrator oder Editor für Ihr Projekt zugewiesen ist.

Auswertung der Eingabeaufforderungsvorlage ausführen

Dimensionen auswählen

Der Assistent Eingabeaufforderungsvorlage auswerten zeigt die Dimensionen an, die für die Auswertung des Tasktyps verfügbar sind, der Ihrer Eingabeaufforderung zugeordnet ist. Sie können die Dimensionen erweitern, um die Liste der Metriken anzuzeigen, die zum Auswerten der ausgewählten Dimensionen verwendet werden.

Auszuwertende Dimensionen auswählen

Watsonx.governance konfiguriert automatisch Auswertungen für jede Dimension mit Standardeinstellungen. Um Auswertungen mit verschiedenen Einstellungen zu konfigurieren, können Sie Erweiterte Einstellungen wählen, um Stichprobengrößen festzulegen und die Metriken auszuwählen, die Sie zur Auswertung Ihrer Prompt-Vorlage verwenden möchten:

Metriken für Auswertung auswählen

Sie können auch Schwellenwerte für jede Metrik festlegen, die Sie für Ihre Auswertungen auswählen:

Bewertungen konfigurieren

Testdaten auswählen

Um Testdaten auszuwählen, können Sie eine CSV-Datei hochladen oder ein Asset aus Ihrem Projekt auswählen. Die von Ihnen ausgewählten Testdaten müssen Referenzspalten und Spalten für jede Prompt-Variable enthalten.

Testdaten auswählen

Variablen zuordnen

Sie müssen Prompt-Variablen den zugehörigen Spalten aus Ihren Testdaten zuordnen.

Karten-Testdaten

Prüfen und bewerten

Bevor Sie die Auswertung Ihrer Eingabeaufforderungsvorlage ausführen, können Sie die Auswahl für den Tasktyp der Eingabeaufforderung, die hochgeladenen Testdaten und den Typ der ausgeführten Auswertung überprüfen.

Einstellungen für die Auswertung von Eingabeaufforderungsvorlagen prüfen und auswerten

Bewertungsergebnisse prüfen

Nach Abschluss der Bewertung können Sie auf der Registerkarte Bewerten in watsonx.governance eine Zusammenfassung Ihrer Bewertungsergebnisse anzeigen, um Einblicke in die Leistung Ihres Modells zu erhalten. Die Zusammenfassung bietet einen Überblick über Metrikbewertungen und Verstöße gegen Standardbewertungsschwellenwerte für Ihre Eingabeaufforderungsvorlagenauswertungen.

Wenn Ihnen die Rolle Anzeigeberechtigter für Ihr Projekt zugewiesen wurde, können Sie Auswerten in der Assetliste auf der Registerkarte Assets auswählen, um die Auswertungsergebnisse anzuzeigen.

Auswertung der Eingabeaufforderungsvorlage aus Assetliste ausführen

Um die Ergebnisse zu analysieren, können Sie auf den Pfeil Navigationspfeil neben der Auswertung Ihrer Eingabeaufforderung klicken, um Datenvisualisierungen Ihrer Ergebnisse im Zeitverlauf anzuzeigen. Sie können auch Ergebnisse der Modellzustandsbewertung analysieren, die standardmäßig während der Auswertungen von Eingabeaufforderungsvorlagen ausgeführt wird, um zu verstehen, wie effizient Ihr Modell Ihre Daten verarbeitet.

Das Menü Aktionen enthält außerdem die folgenden Optionen, die Sie bei der Ergebnisanalyse unterstützen:

  • Jetzt auswerten: Führen Sie die Auswertung mit einem anderen Testdataset aus.
  • Alle Bewertungen: Zeigen Sie ein Protokoll Ihrer Bewertungen an, um zu verstehen, wie sich Ihre Ergebnisse im Laufe der Zeit ändern.
  • Überwachungen konfigurieren: Konfigurieren Sie Bewertungsschwellenwerte und Stichprobenumfänge.
  • Modellinformationen anzeigen:Zeigen Sie Details zu Ihrem Modell an, um zu verstehen, wie Ihre Implementierungsumgebung eingerichtet ist.

Ergebnisse der Auswertung von Eingabeaufforderungsvorlagen analysieren

Wenn Sie Eingabeaufforderungsvorlagen verfolgen, können Sie die Bewertungsergebnisse überprüfen, um Einblicke in Ihre Modellleistung während des gesamten KI-Lebenszyklus zu gewinnen.

Übergeordnetes Thema: Bewertung von KI-Modellen.

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen