0 / 0
Zurück zur englischen Version der Dokumentation
Prompt Lab
Letzte Aktualisierung: 03. Dez. 2024
Prompt Lab

Im Eingabeaufforderungslabor in IBM watsonx.aikönnen Sie mit Eingabeaufforderungen verschiedener Basismodelle experimentieren, Beispieleingabeaufforderungen untersuchen und die besten Eingabeaufforderungen speichern und teilen.

Sie verwenden das Prompt Lab, um effektive Eingabeaufforderungen zu entwickeln, die Sie zur Inferenz an implementierte Basismodelle übergeben. Sie verwenden das Prompt Lab nicht zum Erstellen neuer Basismodelle.

Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.

Anforderungen

Wenn Sie sich für watsonx.ai registriert und über ein Sandbox-Projekt verfügen, sind alle Voraussetzungen erfüllt und Sie können das Prompt Lab verwenden.

Sie müssen die folgenden Anforderungen erfüllen, um das Prompt Lab verwenden zu können:

  • Sie müssen über ein Projekt verfügen.
  • Sie müssen über die Rolle Bearbeiter oder Administrator im Projekt verfügen.
  • Das Projekt muss eine zugehörige watsonx.ai Runtime Service-Instanz haben. Andernfalls werden Sie möglicherweise aufgefordert, den Service zuzuordnen, wenn Sie das Prompt Lab öffnen.

Eingabeaufforderung erstellen und ausführen

Führen Sie die folgenden Schritte aus, um eine neue Eingabeaufforderung zu erstellen und auszuführen:

  1. Wählen Sie auf der Startseite watsonx.ai ein Projekt aus und klicken Sie dann auf die Kachel „Neues Asset“ > „Chatten und Eingabeaufforderungen mit Foundation-Modellen erstellen“ .

  2. Optional: Wählen Sie einen anderen Bearbeitungsmodus aus, in dem gearbeitet werden soll, z. B. Unformatiert.

  3. Wählen Sie ein foundation model.

    Tipp: Um alle verfügbaren Basismodelle anzuzeigen, entfernen Sie alle angewendeten Suchfilter.
  4. Optional: Aktualisieren Sie Modellparameter oder fügen Sie Eingabeaufforderungsvariablen hinzu.

  5. Geben Sie eine Eingabeaufforderung ein.

  6. Klicken Sie auf das Sendesymbol Symbol 'Senden' .

    Klicken Sie im Modus Strukturiert oder Freiform auf Generieren.

  7. Sie können eine Inferenzanforderung jederzeit abbrechen, indem Sie auf das Stoppsymbol Symbol 'Stoppen' klicken.

    Tokens in Ihrer Eingabe werden als verwendete Tokens gezählt. Alle Tokens, die vom Modell als Ausgabe generiert wurden, bevor die Anforderung abgebrochen wurde, werden ebenfalls gezählt.

  8. Speichern Sie Ihre Arbeit als Projektasset, um Ihre Arbeit beizubehalten, sodass Sie eine Eingabeaufforderung wiederverwenden oder mit Mitarbeitern im aktuellen Projekt teilen können. Weitere Informationen finden Sie unter Eingabeaufforderungen speichern.

Führen Sie die folgenden Schritte aus, um eine Beispieleingabeaufforderung auszuführen:

  1. Wählen Sie im Menü Beispieleingabeaufforderungen im Prompt Lab eine Beispieleingabeaufforderung aus.

    Die Eingabeaufforderung wird im Editor geöffnet und ein geeignetes Modell wird ausgewählt.

  2. Klicken Sie auf Generieren.

Bearbeitungsoptionen für Eingabeaufforderungen

Sie geben Ihre Eingabeaufforderung im Eingabeaufforderungseditor ein. Der Eingabeaufforderungseditor verfügt über folgende Bearbeitungsmodi:

Chatmodus

Sie können mit dem foundation model chatten, um zu sehen, wie das Modell mit Dialog- oder Fragebeantwortungsaufgaben umgeht.

Beginnen Sie den Chat, indem Sie eine Frage oder ein Ersuchen an das foundation model stellen, das es beantworten soll. Alternativ können Sie auf ein Schnelleinstiegsbeispiel klicken, um es an das Modell zu übergeben. Schnellstartproben werden an das foundation model geschickt. Wenn Sie mit einem anderen foundation model arbeiten möchten, fügen Sie Ihren eigenen Text hinzu.

Jeder nachfolgende Turnus im Dialog baut auf Informationen auf, die zuvor ausgetauscht wurden.

Hinweis:Sie können keine Änderungen vornehmen, während ein Chat in Bearbeitung ist. Klicken Sie auf das Symbol „Chat löschen“ Symbol 'Chat löschen' um anzuhalten und Änderungen vorzunehmen.

Bevor Sie einen Chat starten, überprüfen und passen Sie die Modellauswahl und die Parametereinstellungen an. Zur Unterstützung des langen Austauschs von Dialogen wird der Parameter Maximale Anzahl Token auf einen hohen Standardwert gesetzt. Sie können beispielsweise eine Stoppfolge hinzufügen, um zu verhindern, dass das Modell Wortausgaben generiert.

Chatvorlagen

Vordefinierter Text, der als Systemeingabeaufforderung bezeichnet wird, wird am Anfang des Chats eingefügt, um Grundregeln für den Dialog festzulegen. Klicken Sie zum Überprüfen und Anpassen des Texts auf das Symbol „Systemeingabeaufforderung bearbeiten Eingabeaufforderung bearbeiten .

Einige Basismodelle empfehlen bestimmte Vorlagen, die verschiedene Segmente der Eingabeaufforderung identifizieren, z. B. die Eingabeaufforderungsanweisung und die Benutzereingabe. Der Chat-Modus passt die Syntax der Eingabeaufforderung an das empfohlene Format des jeweiligen foundation model an. Sie können auf das Symbol Vollständigen Text der Eingabeaufforderung anzeigen „Vollständigen Eingabeaufforderungstext anzeigen “ klicken, um den vollständigen Eingabeaufforderungstext anzuzeigen, der an das foundation model übermittelt wird.

Erdungsaufforderungen in Fakten

Damit das foundation model sachliche Ergebnisse liefert, fügen Sie der Eingabeaufforderung Dokumente mit relevanten Informationen hinzu. Klicken Sie auf das Symbol „Dokumente hochladen“ Symbol für das Hochladen von Dokumenten und wählen Sie dann „Dokumente hinzufügen“ aus. Weitere Informationen finden Sie unter Chatten mit Dokumenten und Bildern.

Sie können auch relevante Daten aus einem Vektorspeicher eines Drittanbieters hinzufügen. Klicken Sie auf das Symbol für die Erdung mit Dokumenten ' Erdung mit Dokumentensymbol und wählen Sie den Vektorindex. Weitere Informationen finden Sie unter Hinzufügen von vektorisierten Dokumenten für die Eingabeaufforderungen für das foundation model.

Im Chatmodus ausgelassene Funktionen

Die folgenden Funktionen werden aus dem Chatmodus ausgeschlossen:

  • Die Tokennutzungszahl wird im Chatmodus nicht angezeigt.

    Beachten Sie, dass der Chatverlauf mit jeder neuen Eingabeaufforderung, die Sie übergeben, gesendet wird, was zur Gesamtzahl der Tokens beiträgt.

    Sie können die Tokenanzahl selbst mithilfe der API überprüfen. Klicken Sie auf das Symbol Vollständigen Text der Eingabeaufforderung anzeigen zum Anzeigen des vollständigen Eingabeaufforderungstexts , um den vollständigen Eingabeaufforderungstext zu öffnen und zu kopieren. Verwenden Sie anschließend die Methode zur Texttokenisierung, um die Token zu zählen.

  • Im Chatmodus können Sie keine Eingabeaufforderungsvariablen definieren. Daher können Sie gespeicherte Vorlagen für Chataufforderungen nicht regulieren.

Sehen Sie sich dieses Video an, das den Chat-Modus im Prompt Lab zeigt.

Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.

Strukturierter Modus

Der strukturierte Modus unterstützt neue Benutzer bei der Erstellung effektiver Eingabeaufforderungen. Text aus den Feldern wird in einem Vorlagenformat an das Modell gesendet.

Sie fügen den entsprechenden Feldern Teile Ihrer Eingabeaufforderung hinzu:

  • Anweisung: Fügen Sie eine Anweisung hinzu, wenn dies für Ihren Anwendungsfall sinnvoll ist. Eine Anweisung ist eine unbedingte Anweisung wie Zusammenfassen des folgenden Artikels.

  • Beispiele: Fügen Sie mindestens ein Beispielpaar hinzu, das die gewünschte Eingabe und die entsprechende Ausgabe enthält. Wenn Sie in Ihrer Eingabeaufforderung einige Beispieleingabe-und -ausgabepaare angeben, wird dies als Bedienerführung mit wenigen Aufrufenbezeichnet.

    Wenn Sie ein bestimmtes Präfix für die Eingabe oder Ausgabe benötigen, können Sie die Standardbezeichnungen "Input:" oder "Output:" durch die gewünschten Bezeichnungen ersetzen. So können Sie beispielsweise die Standardbeschriftungen durch benutzerdefinierte Beschriftungen ersetzen, die in den Trainingsdaten verwendet wurden, als ein foundation model mit Prompt-Tuning versehen wurde.

    Zwischen der Beispielbezeichnung und dem Beispieltext wird ein Leerzeichen hinzugefügt.

  • Eingabe testen: Geben Sie im Bereich Testen die letzte Eingabe für Ihre Eingabeaufforderung ein.

Modus mit freiem Format

Sie fügen Ihre Eingabeaufforderung in Klartext hinzu. Ihr Bedienerführungstext wird genau so an das Modell gesendet, wie Sie es eingegeben haben.

Der Modus mit freiem Format ist eine gute Wahl, wenn Sie strukturierte Eingabe übergeben möchten und wissen, wie die Eingabeaufforderung formatiert werden soll.

Konfigurationsoptionen für Modell und Eingabeaufforderung

Sie müssen angeben, welches Modell angefordert werden soll, und können optional Parameter festlegen, die das generierte Ergebnis steuern.

Auswahlmöglichkeiten für Modell

Im Eingabeaufforderungslabor können Sie Ihre Eingabeaufforderung an jedes der von watsonx.aiunterstützten Modelle übergeben. Sie können kürzlich verwendete Modelle aus der Dropdown-Liste auswählen. Sie können auch auf Alle Basismodelle anzeigen klicken, um alle unterstützten Modelle anzuzeigen, nach Task zu filtern und allgemeine Informationen zu den Modellen zu lesen.

Wenn Sie ein foundation model mit dem Tuning Studio abgestimmt und das abgestimmte Modell bereitgestellt haben oder wenn Sie ein benutzerdefiniertes foundation model bereitgestellt haben, ist das abgestimmte oder benutzerdefinierte Modell auch für die Eingabeaufforderung im Eingabeaufforderungslabor verfügbar.

Modellparameter

Um zu steuern, wie das Modell die Ausgabe als Antwort auf Ihre Eingabeaufforderung generiert, können Sie Decodierungsparameter und Stoppkriterien angeben. Weitere Informationen finden Sie unter Modellparameter für Bedienerführung.

Variablen für Eingabeaufforderung

Um Ihre Eingabeaufforderungen flexibler zu gestalten, können Sie Eingabeaufforderungsvariablen definieren. Eine Eingabeaufforderungsvariable ist ein Platzhalterschlüsselwort, das Sie bei der Erstellung in den statischen Text Ihrer Eingabeaufforderung einschließen und zur Laufzeit dynamisch durch Text ersetzen. Weitere Informationen finden Sie unter Wiederverwendbare Eingabeaufforderungen erstellen.

Vollständigen Text der Eingabeaufforderung anzeigen

In den folgenden Situationen möchten Sie vielleicht den vollständigen Text der Aufforderung sehen, der an das foundation model übermittelt wird:

  • Wenn Eingabeaufforderungsvariablen verwendet werden, um aufgelöste Variablenwerte im Kontext anzuzeigen.
  • Im Chatmodus, bei dem die empfohlenen Eingabeaufforderungsformate für verschiedene Basismodelle automatisch angewendet werden.
  • Im strukturierten Modus, in dem Sie Teile der Eingabeaufforderung in separaten Feldern hinzufügen.

KI-Leitfäden

Wenn Sie den Umschalter AI guardrails auf Einsetzen, wird die schädliche Sprache automatisch aus dem Text der Eingabeeingabeaufforderung und aus der vom Modell generierten Ausgabe entfernt. Insbesondere wird jeder Satz in der Eingabe oder Ausgabe, der eine schädliche Sprache enthält, durch eine Nachricht ersetzt, die besagt, dass potenziell schädlicher Text entfernt wurde.

Hinweis:Dieses Feature wird ausschließlich für Modelle in englischer Sprache unterstützt. Wenn Sie mit einem nicht-englischen foundation model arbeiten, deaktivieren Sie die AI-Leitplanken.

Weitere Informationen finden Sie unter Schädlichen Inhalt entfernen.

Eingabeaufforderungscode

Wenn Sie die Eingabeaufforderung programmgesteuert ausführen möchten, können Sie den Eingabeaufforderungscode anzeigen und kopieren oder die Bibliothek Python verwenden.

Code anzeigen

Wenn Sie auf das Symbol „Code anzeigen Code anzeigen klicken, wird ein cURL -Befehl angezeigt, den Sie von außerhalb des Prompt Lab aufrufen können, um die aktuelle Eingabeaufforderung und die Parameter an das ausgewählte Modell zu senden und eine generierte Antwort zu erhalten.

Der Befehl enthält einen Platzhalter für ein IBM Cloud IAM-Token. Informationen zum Generieren des Zugriffstokens finden Sie unter Generieren eines IBM Cloud IAM-Tokens .

Programmgesteuerte Alternative zum Prompt Lab

Die grafische Oberfläche des Prompt Lab ist ein großartiger Ort, um mit Ihren Eingabeaufforderungen zu experimentieren und zu iterieren. Sie können jedoch auch Basismodelle in watsonx.ai programmgestützt über die Python -Bibliothek oder die REST-API anfordern. Weitere Informationen finden Sie unter Generative AI-Lösungen kodieren.

Verfügbare Eingabeaufforderungen

In der seitlichen Anzeige können Sie auf Beispieleingabeaufforderungen, Ihren Sitzungsprotokoll und gespeicherte Eingabeaufforderungen zugreifen.

Beispiele

Eine Sammlung von Beispieleingabeaufforderungen ist im Prompt Lab verfügbar. Die Beispiele veranschaulichen effektiven Eingabeaufforderungstext und Modellparameter für verschiedene Aufgaben, einschließlich Klassifizierung, Extraktion, Inhaltsgenerierung, Beantwortung von Fragen und Zusammenfassung.

Wenn Sie auf ein Beispiel klicken, wird der Eingabeaufforderungstext im Editor geladen, ein geeignetes Modell wird ausgewählt und optimale Parameter werden automatisch konfiguriert.

Verlauf

Wenn Sie mit unterschiedlichen Eingabeaufforderungstexten, Modellauswahlmöglichkeiten und Parametern experimentieren, werden die Details jedes Mal im Sitzungsprotokoll erfasst, wenn Sie Ihre Eingabeaufforderung übergeben. Klicken Sie zum Laden einer vorherigen Eingabeaufforderung auf den Eintrag im Protokoll und anschließend auf Wiederherstellen.

Gespeichert

Über das Menü Gespeicherte Eingabeaufforderungsvorlagen können Sie alle Eingabeaufforderungen laden, die Sie als Eingabeaufforderungsvorlagenasset im aktuellen Projekt gespeichert haben.

Wenn watsonx.governance bereitgestellt wird und Ihre Eingabeaufforderungsvorlage mindestens eine Eingabeaufforderungsvariable enthält, können Sie die Effektivität von Modellantworten bewerten. Weitere Informationen finden Sie unter Eingabeaufforderungsvorlagen in Projekten auswerten.

Weitere Informationen


Übergeordnetes Thema: Abgenerative KI-Lösungen entwickeln

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen