0 / 0
Zurück zur englischen Version der Dokumentation
Muster für foundation model für allgemeine Aufgaben
Letzte Aktualisierung: 20. Dez. 2024
Muster für foundation model für allgemeine Aufgaben

Verwenden Sie diese Beispiele, um zu erfahren, wie verschiedene Eingabeaufforderungen Basismodelle bei der Ausführung allgemeiner Tasks unterstützen können.

Verwendung dieses Abschnitts

Untersuchen Sie die Beispieleingabeaufforderungen in diesem Abschnitt:

  • Kopieren Sie den Text der Eingabeaufforderung und die Werte der Eingabeparameter und fügen Sie sie in die Seite Prompt Lab ein IBM watsonx.ai
  • Sehen Sie, welcher Text generiert wird.
  • Sehen Sie, wie verschiedene Modelle unterschiedliche Ausgaben generieren.
  • Ändern Sie den Bedienerführungstext und die Parameter, um festzustellen, wie die Ergebnisse variieren.

Es gibt keinen richtigen Weg, Basismodelle zu erstellen. Aber es wurden Muster in Wissenschaft und Industrie gefunden, die ziemlich zuverlässig funktionieren. Verwenden Sie die Beispiele in diesem Abschnitt, um Ihre Kenntnisse und Ihre Intuition zur Entwicklung von Eingabeaufforderungen durch Experimentieren zu erweitern.

 

Dieses Video bietet eine visuelle Methode zum Erlernen der Konzepte und Tasks in dieser Dokumentation.


Video-Kapitel
[ 0:11 ] Einführung in Prompts und Prompt Lab
[ 0:33 ] Schlüsselkonzept: Alles ist Textvervollständigung
[ 1:34 ] Nützliches Prompt-Muster: Few-shot Prompt
[ 1:58 ] Abbruchkriterien: Maximale Token, Stoppsequenzen
[ 3:32 ] Schlüsselkonzept: Feinabstimmung
[ 4:32 ] Nützliches Prompt-Muster: Null-Schuss-Prompt
[ 5:32 ] Schlüsselkonzept: Flexibel sein, verschiedene Prompts ausprobieren
[ 6:14 ] Nächste Schritte: Experimentieren Sie mit Beispiel-Prompts

 

Übersicht über Beispiele

Sie finden Beispiele, die Basismodelle auffordern, Ausgaben zu generieren, die die folgenden Aufgaben unterstützen:

Die folgende Tabelle enthält die Basismodelle, die in taskspezifischen Beispielen verwendet werden. Ein Häkchen (✓) zeigt an, dass das Modell in einem Beispiel für die zugehörige Task verwendet wird. Sie können auf Beispiel anzeigen klicken, um die Beispieleingabeaufforderung aufzurufen.

Tabelle 1. In Beispielen verwendete Modelle für bestimmte Tasks
Modell Klassifikation Extraktion Generierung Qualitätssicherung Zusammenfassung Codierung Dialogmodul Übersetzung
granite-13b-chat-v2
Siehe Beispiel
granite-13b-instruct-v2
Siehe Beispiel

Siehe Beispiel

Siehe Beispiel
granite-7b-lab
Siehe Beispiel
granite-8b-japanese
Siehe Beispiel

Siehe Beispiel

Siehe Beispiel
granite-20b-multilingual
Siehe Beispiel
Granite Instruct
Siehe Beispiel

Siehe Beispiel
Granite Wächter
Siehe Beispiel
Granite
Siehe Beispiel
allam-1-13b-instruct
Siehe Beispiel

Siehe Beispiel
codellama-34b-instruct-hf
Siehe Beispiel
elyza-japanese-llama-2-7b-instruct
Siehe Beispiel

Siehe Beispiel
flan-t5-xxl-11b
Siehe Beispiel

Siehe Beispiel

Siehe Beispiel
flan-ul2-20b
Siehe Beispiel

Siehe Beispiel

Siehe Beispiel

Siehe Beispiel

Siehe Beispiel
jais-13b-chat
Siehe Beispiel
Llama 3.2 unterrichten
Siehe Beispiel

Siehe Beispiel
llama-guard-3-11b-vision
Siehe Beispiel

Siehe Beispiel
Llama 3.1 unterrichten
Siehe Beispiel
Llama 3 -Anweisung
Siehe Beispiel
Llama 2 Chat
Siehe Beispiel
mistral-large
Siehe Beispiel

Siehe Beispiel

Siehe Beispiel

Siehe Beispiel

Siehe Beispiel

Siehe Beispiel
mixtral-8x7b-instruct-v01
Siehe Beispiel

Siehe Beispiel

Siehe Beispiel

Siehe Beispiel

Siehe Beispiel

Siehe Beispiel

Siehe Beispiel
mt0-xxl-13b
Siehe Beispiel

Siehe Beispiel
pixtral-12b
Siehe Beispiel

In der folgenden Tabelle sind die verfügbaren Beispieleingabeaufforderungen zusammengefasst.

Tabelle 2. Liste der Beispieleingabeaufforderungen
Szenario Eingabeaufforderungseditor Eingabeaufforderungsformat Modell Decodierung Hinweise
Beispiel mit einer Zero-Shot-Eingabeaufforderung: Nachricht klassifizieren Freies Format Null-Schuss- • mt0-xxl-13b
• flan-t5-xxl-11b
• flan-ul2-20b
• mixtral-8x7b-instruct-v01
Gierig Verwendet die Klassennamen als Stoppfolgen, um das Modell zu stoppen, nachdem es den Klassennamen ausgegeben hat.
Beispiel mit einiger Eingabeaufforderung: Klassifizieren Sie eine Nachricht im unformatierten Modus Freies Format Mit wenigen Schüssen - mixtral-groß
- mixtral-8x7b-instruct-v01
Gierig Verwendet die Klassennamen als Stoppfolgen
Beispiel für die Klassifizierung der Sicherheit der Eingabeaufforderung mit Granite Freies Format Benutzerdefinierte System-Eingabeaufforderung - Granite Guardian Modelle Gierig - Gibt die Antwort "Ja" oder "Nein" zurück, je nachdem, ob der Inhalt schädlich ist.
Beispiel für die Einstufung der Sicherheit der Eingabeaufforderung Freies Format Benutzerdefinierte System-Eingabeaufforderung • llama-guard-3-11b-vision Gierig - Gibt die Klassen safe oder unsafe zurück. Wenn der Inhalt unsicher ist, wird auch die Kategorie des Verstoßes zurückgegeben.
Beispiel mit einiger Eingabeaufforderung: Klassifizieren Sie eine Nachricht im strukturierten Modus Strukturiert Mit wenigen Schüssen - mixtral-groß
- mixtral-8x7b-instruct-v01
Gierig Verwendet die Klassennamen als Stoppfolgen
Beispiel: Nachricht in Japanisch klassifizieren Freies Format Mit wenigen Schüssen • elyza-japanese-llama-2-7b-instruct Gierig Verwendet die Klassennamen als Stoppfolgen
Beispiel: Arabische Nachricht klassifizieren Freies Format Mit wenigen Schüssen • allam-1-13b-instruct Gierig Verwendet die Klassennamen als Stoppfolgen
Beispiel: Details aus einer Beschwerde extrahieren Freies Format Null-Schuss- • flan-ul2-20b Gierig
Beispiel: Details aus einer Textpassage extrahieren und klassifizieren Freies Format Null-Schuss- • flan-ul2-20b Gierig
Beispiel: Nummerierte Liste für ein Motiv im unformatierten Modus generieren Freies Format Mit wenigen Schüssen • mixtral-8x7b-instruct-v01 Stichprobenentnahme Generiert eine formatierte Ausgabe
Verwendet zwei Zeilenvorschubzeichen als Stoppfolge, um das Modell nach einer Liste zu stoppen
Beispiel: Nummerierte Liste für ein Motiv im strukturierten Modus erstellen Strukturiert Mit wenigen Schüssen • mixtral-8x7b-instruct-v01 Stichprobenentnahme Generiert eine formatierte Ausgabe.
Verwendet zwei Zeilenvorschubzeichen als Stoppfolge
Beispiel: Nummerierte Liste für ein bestimmtes Motiv mit Granitegenerieren Freies Format Null-Schuss- • granite-13b-instruct-v2 Gierig Generiert formatierte Ausgabe
Beispiel: Frage auf der Basis eines Artikels im Freiformmodus beantworten Freies Format Null-Schuss- • mt0-xxl-13b
• flan-t5-xxl-11b
• flan-ul2-20b
• mixtral-8x7b-instruct-v01
Gierig Verwendet einen Punkt "." als Stoppfolge, damit das Modell nur einen einzigen Satz zurückgibt
Beispiel: Frage auf der Basis eines Artikels im strukturierten Modus beantworten Strukturiert Null-Schuss- • mt0-xxl-13b
• flan-t5-xxl-11b
• flan-ul2-20b
• mixtral-8x7b-instruct-v01
Gierig Verwendet einen Punkt "." als Stoppfolge
Generiert Ergebnisse für mehrere Eingaben gleichzeitig
Beispiel: Frage auf der Basis eines Dokuments mit Granitebeantworten Freies Format Null-Schuss- • granite-13b-instruct-v2 Gierig
Beispiel: Beantworten Sie eine Frage auf der Grundlage mehrerer Dokumente mit Granite 3.1 Freies Format Null-Schuss- - Granite Instruct Modelle Gierig
Beispiel: Fragen zum Allgemeinwissen beantworten Freies Format Null-Schuss- • granite-13b-instruct-v2 Gierig
Beispiel: Allgemeine Wissensfragen auf Japanisch beantworten Freies Format Null-Schuss- • granite-8b-japanese Gierig
Beispiel: Beantworten Sie eine Frage mithilfe komplexer Argumentation im Freiformmodus Freies Format One-Shot • mistral-large Gierig • Verwendet zwei Zeilenumbruchzeichen als Stoppsequenz
Beispiel für eine Zero-Shot-Eingabeaufforderung: Zusammenfassung einer Besprechungsmitschrift Freies Format Null-Schuss- • flan-t5-xxl-11b
• flan-ul2-20b
• mixtral-8x7b-instruct-v01
Gierig
Beispiel für eine Eingabeaufforderung mit wenigen Eingriffen: Zusammenfassung einer Besprechungsmitschrift im Modus ohne Format Freies Format Mit wenigen Schüssen - mixtral-8x7b-instruct-v01
- mixtral-groß
Gierig
Beispiel für eine kurze Eingabeaufforderung: Zusammenfassen eines Sitzungsprotokolls im Freiform-Modus mit Granite 3.1 Freies Format Mit wenigen Schüssen - Granite Instruct Modelle Gierig
Beispiel für Eingabeaufforderung mit wenigen Eingriffen: Besprechungsmitschrift im strukturierten Modus zusammenfassen Strukturiert Mit wenigen Schüssen • mixtral-8x7b-instruct-v01 Gierig Generiert eine formatierte Ausgabe
Verwendet zwei Zeilenvorschubzeichen als Stoppfolge, um das Modell nach einer Liste zu stoppen
Beispiel: Titel für eine Passage generieren Freies Format One-Shot • granite-7b-lab Gierig Verwendet ein spezielles Token namens < |endoftext | > als Stoppfolge.
Beispiel: Programmgesteuerten Code aus Anweisungen generieren Freies Format Mit wenigen Schüssen • mixtral-8x7b-instruct-v01
• codellama-34b-instruct-hf
Gierig Generiert programmgesteuerten Code als Ausgabe
Verwendet < Codeende> als Stoppfolge
Beispiel: Erzeugen von programmatischem Code aus Anweisungen mit einer Null-Eingabeaufforderung Freies Format Mit wenigen Schüssen • llama-3-2-1b-instruct
• llama-3-2-3b-instruct
Gierig - Erzeugt programmatischen Code als Ausgabe
- Verwendet eine eigene Vorlage
Beispiel: Code von einer Programmiersprache in eine andere konvertieren Freies Format Mit wenigen Schüssen • mixtral-8x7b-instruct-v01
• codellama-34b-instruct-hf
Gierig Generiert programmgesteuerten Code als Ausgabe
Verwendet < Codeende> als Stoppfolge
Beispiel: Programmgesteuerten Code aus Anweisungen mit Granitegenerieren Freies Format Mit wenigen Schüssen - Granite Code Modelle Gierig Generiert programmgesteuerten Code als Ausgabe
Beispiel: Code von einer Programmiersprache in eine andere mit Granitekonvertieren Freies Format Mit wenigen Schüssen - Granite Code Modelle Gierig Generiert programmgesteuerten Code als Ausgabe
Beispiel: Gespräch mit Llama 3 Freies Format Angepasste Struktur - llama-3-2-1b-instruct
- llama-3-2-3b-instruct
- llama-3-1-8b-instruct
- llama-3-405b-instruct
- llama-3-8b-instruct
- llama-3-70b-instruct
Gierig Generiert eine Dialogausgabe wie ein Chatbot
Verwendet ein modellspezifisches Eingabeaufforderungsformat
Beispiel: Converse mit Llama 2 Freies Format Angepasste Struktur Chat llama-2 Gierig Generiert eine Dialogausgabe wie ein Chatbot
Verwendet ein modellspezifisches Eingabeaufforderungsformat
Beispiel: Converse with granite-13b-chat-v2 Freies Format Angepasste Struktur • granite-13b-chat-v2 Gierig Generiert eine Dialogausgabe wie ein Chatbot
Verwendet eine Systemeingabeaufforderung, um Guardrails für den Dialog einzurichten
Beispiel: Converse in Japanisch mit granite-8b-japanese Freies Format Angepasste Struktur • granite-8b-japanese Gierig Generiert eine japanische Dialogausgabe wie ein Chatbot
Verwendet ein modellspezifisches Eingabeaufforderungsformat
Beispiel: Converse in Arabisch mit jais-13b-chat Freies Format Angepasste Struktur • jais-13b-chat Gierig Generiert eine englische oder arabische Dialogausgabe wie ein Chatbot
Verwendet ein modellspezifisches Eingabeaufforderungsformat
Beispiel: Text von Japanisch in Englisch übersetzen Freies Format Null-Schuss- • elyza-japanese-llama-2-7b-instruct Gierig Übersetzt Text aus Japanisch in Englisch
Beispiel: Text von Spanisch in Englisch übersetzen Freies Format Mit wenigen Schüssen - mixtral-8x7b-instruct-v01
- mixtral-groß
Gierig Übersetzt Text aus dem Spanischen ins Englische
Beispiel: Text aus Englisch in Japanisch übersetzen Freies Format Null-Schuss- • granite-8b-japanese Gierig Übersetzt Text aus dem Englischen ins Japanische
Beispiel: Text von Französisch in Englisch übersetzen Freies Format Mit wenigen Schüssen • granite-20b-multilingual Gierig Übersetzt Text aus dem Französischen ins Englische
Beispiel: Text von Englisch in Arabisch übersetzen Freies Format Mit wenigen Schüssen • allam-1-13b-instruct Gierig Übersetzt Text aus dem Englischen ins Arabische

Klassifikation

Klassifikation ist nützlich für die Vorhersage von Daten in unterschiedlichen Kategorien. Klassifizierungen können binär, mit zwei Datenklassen oder mehrere Klassen sein. Eine Klassifikationsaufgabe ist nützlich für die Kategorisierung von Informationen, wie z. B. Kundenfeedback, damit Sie die Informationen effizienter verwalten oder bearbeiten können.

Beispiel mit einer Zero-Shot-Eingabeaufforderung: Nachricht klassifizieren

Szenario: Wenn eine Nachricht an einen Chatbot der Kundenunterstützung für ein Cloud-Software-Unternehmen übergeben wird, klassifizieren Sie die Nachricht des Kunden als Frage oder Problem. Je nach Klassenzuordnung wird der Chat an das richtige Support-Team für den Problemtyp weitergeleitet.

Wahl des Modells

Modelle, die auf Anweisungen abgestimmt sind, können diese Aufgabe im Allgemeinen mit dieser Musteraufforderung lösen.

Vorschläge: mt0-xxl-13b, flan-t5-xxl-11b, flan-ul2-20b, mistral-large, oder mixtral-8x7b-instruct-v01

Decodierung

Gierig. Das Modell muss einen der angegebenen Klassennamen zurückgeben; es kann nicht kreativ sein und neue Klassen bilden.

Stoppkriterien

  • Geben Sie zwei Stoppfolgen an: "Frage" und "Problem". Nachdem das Modell eines dieser Wörter generiert hat, sollte es stoppen.
  • Bei einer solchen kurzen Ausgabe kann der Parameter "Max tokens" auf 5 gesetzt werden.

Eingabeaufforderung

Fügen Sie diesen Zero-Shot-Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Classify this customer message into one of two classes: Question, Problem.

Class name: Question
Description: The customer is asking a technical question or a how-to question 
about our products or services.

Class name: Problem
Description: The customer is describing a problem they are having. They might 
say they are trying something, but it's not working. They might say they are 
getting an error or unexpected results.

Message: I'm having trouble registering for a new account.
Class name: 

Beispiel mit Eingabeaufforderung für einige Nachrichten: Klassifizieren Sie eine Nachricht im unformatierten Modus.

Szenario: Wenn eine Nachricht an einen Chatbot zur Kundenunterstützung für ein Cloud-Software-Unternehmen übergeben wird, klassifizieren Sie die Nachricht des Kunden als Frage oder Problembeschreibung. Je nach Klassentyp kann der Chat an das richtige Support-Team weitergeleitet werden.

Wahl des Modells

Bei Beispielen mit wenigen Aufnahmen beider Klassen können Modelle wie mistral-large oder mixtral-8x7b-instruct-v01 diese Aufgabe gut erfüllen.

Decodierung

Gierig. Das Modell muss einen der angegebenen Klassennamen zurückgeben; es kann nicht kreativ sein und neue Klassen bilden.

Stoppkriterien

  • Geben Sie zwei Stoppfolgen an: "Frage" und "Problem". Nachdem das Modell eines dieser Wörter generiert hat, sollte es stoppen.
  • Bei einer solchen kurzen Ausgabe kann der Parameter "Max tokens" auf 5 gesetzt werden.

Eingabeaufforderung

Fügen Sie diesen kurzen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Message: When I try to log in, I get an error.
Class name: Problem

Message: Where can I find the plan prices?
Class name: Question

Message: What is the difference between trial and paygo?
Class name: Question

Message: The registration page crashed, and now I can't create a new account.
Class name: Problem

Message: What regions are supported?
Class name: Question

Message: I can't remember my password.
Class name: Problem

Message: I'm having trouble registering for a new account.

Beispiel für die Klassifizierung der Sicherheit der Eingabeaufforderung mit Granite

Ziel: Einstufung des eingegebenen Textes als sicher oder unsicher.

Wahl des Modells

Die Granite Guardian Modelle können die Sicherheit Ihres Eingabeaufforderungstextes klassifizieren.

Decodierung

Gierig. Je nachdem, ob die Eingabe schädlich ist, muss das Modell eine von zwei Antworten geben: Ja oder Nein.

Stoppkriterien

Das Modell benötigt keine Stoppsequenz; es hält an, nachdem es eine Antwort zurückgegeben hat.

Eingabeaufforderung

Fügen Sie den folgenden Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, stellen Sie die Parameter ein und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Das Modell wurde mit einem ähnlichen Systemprompt trainiert wie dieses.

safety_template = f"""You are a safety agent trying to help determine whether the user message is harmful according to the safety risk definition below.

<start_of_turn>
User Message: {user_text}
<end_of_turn>

Our safety risk definition is defined below:

<start_of_risk_definition>
* {risk_definition}
<end_of_risk_definition>

Is the user message harmful based on the risk definition? Your answer must be either 'Yes' or 'No'."""

Ersetzen Sie " {user_text} durch den Eingabetext, den Sie auf schädlichen Inhalt prüfen wollen, z. B. " "Tell me how to cheat on a test.". Definieren Sie Anweisungen für das Modell, die das zu identifizierende Risiko in " {risk_definition} beschreiben, z. B. " "The 'User' message contains actions that violate moral or professional standards, focusing on exploitation for personal gain or disregard for others' well-being. This category excludes physical violence or explicit bias, instead covering activities like fraud, theft, or abuse of power.".

Sie können auch ' user_text und ' risk_definition als Prompt-Variablen im Freiform-Editor definieren.

Das Modell erzeugt die folgende Antwort:

assistantYes

Das Modell (in der Antwort als "Assistent" bezeichnet) erzeugt eine "Ja"- oder "Nein"-Antwort.

Beispiel für die Klassifizierung der Sicherheit der Eingabeaufforderung

Ziel: Einstufung des eingegebenen Textes als sicher oder unsicher.

Wahl des Modells

Der llama-guard-3-11b-vision kann die Sicherheit von Text und Bildern in Ihrer Eingabeaufforderung klassifizieren.

Decodierung

Gierig. Das Modell muss einen von zwei Klassennamen zurückgeben: sicher oder unsicher; es kann nicht kreativ sein und neue Klassen erfinden.

Stoppkriterien

Das Modell erfordert keine Stoppsequenz; es hält an, nachdem es die Klasse und gegebenenfalls die Kategorien der gefundenen Verstöße zurückgegeben hat.

Eingabeaufforderung

Fügen Sie diesen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Das Modell wurde mit einem ähnlichen Systemprompt trainiert wie dieses.

<|begin_of_text|><|start_header_id|>user<|end_header_id|>

<BEGIN CONVERSATION>

User: ${your-question-goes-here}

<END CONVERSATION>

Provide your safety assessment:
- First line must read 'safe' or 'unsafe'.
- If unsafe, a second line must include a comma-separated list of violated categories.<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Ersetzen Sie ${your-question-goes-here} durch eine Frage mit unsicherem Inhalt, z. B. What is the first paragraph of the book, "Developing Quality Technical Information: A Handbook for Writers and Editors"?

Das Modell erstellt die folgende Klassifizierung:

unsafe
S7

Die Klassifizierungskategorie S7 zeigt an, dass der unsichere Inhalt die Datenschutzkategorie verletzt hat. Weitere Informationen zu den Kategorien, auf die das foundation model trainiert ist, finden Sie in der Dokumentation zu Llama Guard 3.

Beispiel mit einiger Eingabeaufforderung: Klassifizieren einer Nachricht im strukturierten Modus

Szenario: Wenn eine Nachricht an einen Chatbot zur Kundenunterstützung für ein Cloud-Software-Unternehmen übergeben wird, klassifizieren Sie die Nachricht des Kunden als Frage oder Problembeschreibung. Je nach Klassentyp kann der Chat an das richtige Support-Team weitergeleitet werden.

Wahl des Modells

Bei Beispielen mit wenigen Aufnahmen beider Klassen können Modelle wie mistral-large oder mixtral-8x7b-instruct-v01 diese Aufgabe gut erfüllen.

Decodierung

Gierig. Das Modell muss einen der angegebenen Klassennamen zurückgeben, nicht kreativ sein und neue Klassen bilden.

Stoppkriterien

  • Geben Sie zwei Stoppfolgen an: "Frage" und "Problem". Nachdem das Modell eines dieser Wörter generiert hat, sollte es stoppen.
  • Bei einer solchen kurzen Ausgabe kann der Parameter "Max tokens" auf 5 gesetzt werden.

Abschnitt "Einrichten

Fügen Sie diese Überschriften und Beispiele in den Bereich " Beispiele" des Abschnitts " Einrichten " ein:

Tabelle 2. Beispiele für Klassifizierung mit wenigen Schüssen
Nachricht: Klassenname:
When I try to log in, I get an error. Problem
Where can I find the plan prices? Question
What is the difference between trial and paygo? Question
The registration page crashed, and now I can't create a new account. Problem
What regions are supported? Question
I can't remember my password. Problem

Abschnitt versuchen

Fügen Sie diese Nachricht in den Abschnitt Versuch ein:

I'm having trouble registering for a new account.

Wählen Sie das Modell aus, legen Sie Parameter fest und klicken Sie anschließend auf Generieren , um das Ergebnis anzuzeigen.

Beispiel: Japanische Nachricht klassifizieren

Szenario: Wenn eine Nachricht an einen Chatbot zur Kundenunterstützung für ein japanisches Cloud-Software-Unternehmen übergeben wird, klassifizieren Sie die Nachricht des Kunden als Frage oder Problembeschreibung. Je nach Klassentyp kann der Chat an das richtige Support-Team weitergeleitet werden.

Wahl des Modells

Das Modell elyza-japanese-llama-2-7b-instruct kann Eingabeaufforderungen in japanischer Sprache klassifizieren.

KI-Leitfäden

Deaktivieren Sie die KI-Leitplankenfunktion. Die Funktion wird nur mit englischem Text unterstützt. Möglicherweise wird er als unzulässiger Inhalt markiert, der nicht ungeeignet ist.

Decodierung

Gierig. Das Modell muss einen der angegebenen Klassennamen zurückgeben; es kann nicht kreativ sein und neue Klassen bilden.

Stoppkriterien

  • Geben Sie zwei Stoppfolgen an: 問題 für Problem und 質問 für Frage. Nachdem das Modell eines dieser Wörter generiert hat, sollte es stoppen.
  • Wenn Sie den Wert im Parameter "Max. Token" verringern möchten, senken Sie den Wert nicht unter 7 Token. Japanische Zeichen verwenden mehr Token als dieselben Wörter in Englisch.

Eingabeaufforderung

Fügen Sie diesen kurzen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen. Der Beispiel-Prompt-Text ist eine japanische Übersetzung des englischen Prompt-Textes in Beispiel 1b.

次のメッセージを問題または質問に分類します。

メッセージ: ログインしようとすると、エラーが発生します。
クラス名: 問題

メッセージ: プランの価格はどこで確認できますか?
クラス名: 質問

メッセージ: トライアルとペイゴーの違いは何ですか?
クラス名: 質問

メッセージ: 登録ページがクラッシュしたため、新しいアカウントを作成できません。
クラス名: 問題

メッセージ: どの地域がサポートされていますか?
クラス名: 質問

メッセージ: パスワードを思い出せません。
クラス名: 問題

メッセージ: 新しいアカウントの登録で問題が発生しました。
クラス名:

Beispiel: Arabische Nachricht klassifizieren

Szenario: Wenn eine Nachricht an einen Chatbot zur Kundenunterstützung für ein arabisches Cloud-Softwareunternehmen übergeben wird, klassifizieren Sie die Nachricht des Kunden als Frage oder Problembeschreibung. Je nach Klassentyp kann der Chat an das richtige Support-Team weitergeleitet werden.

Wahl des Modells

Das foundation model allam-1-13b-instruct kann Eingabeaufforderungen, die in arabischer Sprache verfasst sind, klassifizieren.

KI-Leitfäden

Deaktivieren Sie die KI-Leitplankenfunktion. Die Funktion wird nur mit englischem Text unterstützt. Möglicherweise werden Inhalte fälschlicherweise als unzulässig markiert.

Decodierung

Gierig. Das Modell muss einen der angegebenen Klassennamen zurückgeben; es kann nicht kreativ sein und neue Klassen bilden.

Stoppkriterien

Normalerweise bietet das Modell weitere Unterstützung an, nachdem es das Klassenetikett erstellt hat. Sie können das Modell optional anhalten, nachdem es den Text klassifiziert hat, indem Sie zwei Stoppsequenzen angeben: مشكلة für ein Problem und ' سؤال für eine Frage.

Eingabeaufforderung

Fügen Sie diesen kurzen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen. Der Beispiel-Prompt-Text ist eine arabische Übersetzung des englischen Prompt-Textes in Beispiel 1b.

<s> [INST] قم بتصنيف رسالة العميل هذه إلى إحدى فئتين: سؤال، مشكلة.

الرسالة: عندما أحاول تسجيل الدخول، تظهر لي رسالة خطأ.
اسم الفئة: مشكلة

الرسالة: أين يمكنني العثور على أسعار الخطة؟
اسم الفصل: سؤال

الرسالة: ما الفرق بين التجربة والدفع؟
اسم الفصل: سؤال

الرسالة: تعطلت صفحة التسجيل، ولا أستطيع الآن إنشاء حساب جديد.
اسم الفئة: مشكلة

الرسالة: ما هي المناطق المدعومة؟
اسم الفصل: سؤال

الرسالة: لا أستطيع تذكر كلمة المرور الخاصة بي.
اسم الفئة: مشكلة

الرسالة: أواجه مشكلة في التسجيل للحصول على حساب جديد.
اسم الفئة:
[/INST]

 

Details werden extrahiert

Mithilfe von Extraktionstasks können Sie Schlüsselbegriffe oder Erwähnungen in Daten auf der Basis der semantischen Bedeutung von Wörtern statt einfacher Textübereinstimmungen finden.

Beispiel: Details aus einer Beschwerde extrahieren

Szenario: Ermitteln Sie angesichts einer Beschwerde eines Kunden, der Probleme bei der Buchung eines Flugs auf einer Reservierungswebsite hatte, die Faktoren, die zu der unbefriedigenden Erfahrung dieses Kunden beigetragen haben.

Modellwahlen

flan-ul2-20b

Decodierung

Gierig. Das Modell muss Wörter zurückgeben, die in der Eingabe enthalten sind. Das Modell kann nicht kreativ sein und neue Wörter bilden.

Stoppkriterien

Die Liste der extrahierten Faktoren wird nicht sehr lang sein, setzen Sie daher den Parameter Max tokens auf 50.

Eingabeaufforderung

Fügen Sie diesen Zero-Shot-Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

From the following customer complaint, extract all the factors that 
caused the customer to be unhappy.

Customer complaint:
I just tried to book a flight on your incredibly slow website. All 
the times and prices were confusing. I liked being able to compare 
the amenities in economy with business class side by side. But I 
never got to reserve a seat because I didn't understand the seat map. 
Next time, I'll use a travel agent!

Numbered list of all the factors that caused the customer to be unhappy:

Beispiel: Details aus einer Textpassage extrahieren und klassifizieren

Szenario: Identifizieren Sie anhand einer Liste von Kategorien und einer Passage Auszüge aus der Passage, die in die verschiedenen Kategorientypen passen.

Modellwahlen

mistral-large oder mixtral-8x7b-instruct-v01.

Decodierung

Gierig. Das Modell muss Wörter zurückgeben, die in der Eingabe enthalten sind. Das Modell kann nicht kreativ sein und neue Wörter bilden.

Stoppkriterien

  • Um sicherzustellen, dass das Modell keinen zusätzlichen Text generiert, geben Sie eine Stoppsequenz aus zwei Zeilenumbruchzeichen an. Klicken Sie dazu auf das Textfeld Sequenz stoppen , drücken Sie zweimal die Eingabetaste und klicken Sie dann auf Sequenz hinzufügen.

Eingabeaufforderung

Fügen Sie diesen Zero-Shot-Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

For each passage, extract the named entities that fit into the following categories:
Person, Measure, Number, Facility, Location, Product, Duration, Money, Time, PhoneNumber, Date, JobTitle, Organization, Percent, GeographicFeature, Address, Ordinal.
Passage:
Welcome to 123 Maple Lane, a charming and inviting 3-bedroom, 2-bathroom residence nestled in the heart of Springfield. This beautifully maintained home boasts 1,800 square feet of living space, perfect for families and first-time homebuyers alike.
- Spacious living room with a cozy fireplace and large windows for ample natural light
- Updated kitchen with stainless steel appliances, granite countertops, and ample cabinet space
- Master suite with a walk-in closet and en-suite bathroom featuring a soaking tub and separate shower
- Two additional well-appointed bedrooms and a full hallway bathroom
- Fully fenced backyard with a patio area, perfect for outdoor entertaining
- Attached two-car garage with additional storage space
- Conveniently located near top-rated schools, shopping centers, and parks
Don't miss your opportunity to own this fantastic home! Join us for the open house on Saturday, April 10th, 2023, from 1:00 PM to 4:00 PM.
**Price**
$350,000
**Seller Contact Details:**
John & Jane Doe
Phone: (555) 123-4567
Email: [email protected]

Natürliche Sprache generieren

Generierungstasks sind das, was große Sprachmodelle am besten tun. Ihre Eingabeaufforderungen können als Leitfaden für das Modell dienen, um nützliche Sprache zu generieren.

Beispiel mit einer Eingabeaufforderung mit wenigen Eingriffen: Generieren Sie eine nummerierte Liste zu einem Thema im Freiformmodus

Szenario: Nummerierte Liste für ein bestimmtes Motiv generieren.

Wahl des Modells

Das foundation model mixtral-8x7b-instruct-v01 wurde darauf trainiert, Sonderzeichen, wie z. B. den Zeilenumbruch, gut zu erkennen und zu verarbeiten. Dieses Modell ist eine gute Wahl, wenn Sie möchten, dass der generierte Text auf eine bestimmte Weise mit Sonderzeichen formatiert wird.

Decodierung

Probenahme. Dies ist eine kreative Aufgabe. Legen Sie die folgenden Parameter fest:

  • Temperatur: 0.7
  • Oberste P: 1
  • Obere K: 50
  • Startwert für Zufallszahlen: 9045 (Wenn Sie bei jedem Klicken auf Generiereneine andere Ausgabe erhalten möchten, geben Sie einen anderen Wert für den Startparameter für Zufallszahlen an oder löschen Sie den Parameter.)

Stoppkriterien

  • Um sicherzustellen, dass das Modell die Generierung von Text nach einer Liste stoppt, geben Sie eine Stoppfolge von zwei Zeilenvorschubzeichen an. Klicken Sie dazu auf das Textfeld Sequenz stoppen , drücken Sie zweimal die Eingabetaste und klicken Sie dann auf Sequenz hinzufügen.
  • Die Liste wird nicht sehr lang sein. Setzen Sie daher den Parameter 'Max tokens' auf 50.

Eingabeaufforderung

Fügen Sie diesen kurzen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

What are 4 types of dog breed?
1. Poodle
2. Dalmatian
3. Golden retriever
4. Bulldog

What are 3 ways to incorporate exercise into your day?
1. Go for a walk at lunch
2. Take the stairs instead of the elevator
3. Park farther away from your destination

What are 4 kinds of vegetable?
1. Spinach
2. Carrots
3. Broccoli
4. Cauliflower

What are the 3 primary colors?
1. Red
2. Green
3. Blue

What are 3 ingredients that are good on pizza?

Beispiel mit einiger Eingabeaufforderung: Generieren Sie eine nummerierte Liste zu einem Thema im strukturierten Modus

Szenario: Nummerierte Liste für ein bestimmtes Motiv generieren.

Wahl des Modells

Das foundation model mixtral-8x7b-instruct-v01 wurde darauf trainiert, Sonderzeichen, wie z. B. den Zeilenumbruch, gut zu erkennen und zu verarbeiten. Dieses Modell ist eine gute Wahl, wenn Sie möchten, dass der generierte Text auf eine bestimmte Weise mit Sonderzeichen formatiert wird.

Decodierung

Probenahme. Dieses Szenario ist kreativ. Legen Sie die folgenden Parameter fest:

  • Temperatur: 0.7
  • Oberste P: 1
  • Obere K: 50
  • Startwert für Zufallszahlen: 9045 (Um unterschiedliche Ergebnisse zu generieren, geben Sie einen anderen Wert für den Startparameter für Zufallszahlen an oder löschen Sie den Parameter.)

Stoppkriterien

  • Um sicherzustellen, dass das Modell die Textgenerierung nach einer Liste stoppt, geben Sie eine Stoppfolge von zwei Zeilenvorschubzeichen an. Klicken Sie dazu in das Textfeld Stoppfolge , drücken Sie zweimal die Eingabetaste und klicken Sie dann auf Sequenz hinzufügen.
  • Die Liste ist nicht lang. Setzen Sie daher den Parameter für die maximale Anzahl Token auf 50.

Abschnitt "Einrichten

Fügen Sie diese Überschriften und Beispiele in den Bereich " Beispiele" des Abschnitts " Einrichten " ein:

Tabelle 3. Beispiele für die Generierung von wenigen Schüssen
Input: Output:
What are 4 types of dog breed? 1. Poodle
2. Dalmatian
3. Golden retriever
4. Bulldog
What are 3 ways to incorporate exercise into your day? 1. Go for a walk at lunch
2. Take the stairs instead of the elevator
3. Park farther away from your destination
What are 4 kinds of vegetable? 1. Spinach
2. Carrots
3. Broccoli
4. Cauliflower
What are the 3 primary colors? 1. Red
2. Green
3. Blue

Abschnitt versuchen

Fügen Sie diese Eingabe in den Bereich Try ein:

What are 3 ingredients that are good on pizza?

Wählen Sie das Modell aus, legen Sie Parameter fest und klicken Sie anschließend auf Generieren , um das Ergebnis anzuzeigen.

Beispiel mit einer Zero-Shot-Eingabeaufforderung: Nummerierte Liste für ein bestimmtes Motiv generieren

Szenario: Fragen Sie das Modell, um Teufel Anwalt zu spielen. Beschreiben Sie eine potenzielle Aktion und bitten Sie das Modell, mögliche Nachteile oder Risiken aufzulisten, die der Aktion zugeordnet sind.

Wahl des Modells

Das granite-13b-instruct wurde darauf trainiert, Sonderzeichen, wie z.B. den Zeilenumbruch, gut zu erkennen und zu verarbeiten. Das Modell granite-13b-instruct-v2 ist eine gute Wahl, wenn Sie möchten, dass Ihr generierter Text in einer bestimmten Weise mit Sonderzeichen formatiert wird.

Decodierung

Gierig. Das Modell muss den berechenbarsten Inhalt basierend auf dem Inhalt der Eingabeaufforderung zurückgeben; das Modell kann nicht zu kreativ sein.

Stoppkriterien

Da die Zusammenfassung aus mehreren Sätzen bestehen kann, setzen Sie den Parameter Max tokens auf 60.

Eingabeaufforderung

Fügen Sie diesen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

You are playing the role of devil's advocate. Argue against the proposed plans. List 3 detailed, unique, compelling reasons why moving forward with the plan would be a bad choice. Consider all types of risks.

Plan we are considering:
Extend our store hours.
Three problems with this plan are:
1. We'll have to pay more for staffing.
2. Risk of theft increases late at night.
3. Clerks might not want to work later hours.

Plan we are considering:
Open a second location for our business.
Three problems with this plan are:
1. Managing two locations will be more than twice as time-consuming than managed just one.
2. Creating a new location doesn't guarantee twice as many customers.
3. A new location means added real estate, utility, and personnel expenses.

Plan we are considering:
Refreshing our brand image by creating a new logo.
Three problems with this plan are:

Beantwortung von Fragen

Aufgaben zur Beantwortung von Fragen sind nützlich in Hilfesystemen und anderen Szenarios, in denen häufig gestellte oder differenziertere Fragen aus vorhandenen Inhalten beantwortet werden.

Implementieren Sie das Abrufmuster für die erweiterte Generierung, um das Modell bei der Rückgabe von sachlichen Antworten zu unterstützen. Weitere Informationen finden Sie unter Erweiterte Generierung abrufen.

Beispiel: Eine Frage auf der Basis eines Artikels im Freiformmodus beantworten

Szenario: Die Website für einen Online-Seedkatalog enthält viele Artikel, mit denen Kunden ihren Garten planen und letztendlich auswählen können, welche Samen gekauft werden sollen. Der Website wird ein neues Widget hinzugefügt, um Kundenfragen basierend auf dem Inhalt des Artikels zu beantworten, den der Kunde anzeigt. Angesichts einer Frage, die sich auf einen Artikel bezieht, beantworten Sie die Frage anhand des Artikels.

Wahl des Modells

Modelle, die auf Anweisungen abgestimmt sind, wie z. B. flan-t5-xxl-11b, flan-ul2-20b, mixtral-8x7b-instruct-v01 oder mt0-xxl-13b können diese Aufgabe in der Regel mit dieser Musteraufforderung erledigen.

Decodierung

Gierig. Die Antworten müssen auf den Tatsachen in dem Artikel basieren, und wenn es keine gute Antwort in dem Artikel gibt, sollte das Modell nicht kreativ sein und eine Antwort bilden.

Stoppkriterien

Um das Modell zu veranlassen, eine Ein-Satz-Antwort zurückzugeben, geben Sie einen Punkt "." an als Stoppfolge. Der Parameter "Max. Token" kann auf 50 gesetzt werden.

Eingabeaufforderung

Fügen Sie diesen Zero-Shot-Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Article:
###
Tomatoes are one of the most popular plants for vegetable gardens. 
Tip for success: If you select varieties that are resistant to 
disease and pests, growing tomatoes can be quite easy. For 
experienced gardeners looking for a challenge, there are endless 
heirloom and specialty varieties to cultivate. Tomato plants come 
in a range of sizes. There are varieties that stay very small, less 
than 12 inches, and grow well in a pot or hanging basket on a balcony 
or patio. Some grow into bushes that are a few feet high and wide, 
and can be grown is larger containers. Other varieties grow into 
huge bushes that are several feet wide and high in a planter or 
garden bed. Still other varieties grow as long vines, six feet or 
more, and love to climb trellises. Tomato plants do best in full 
sun. You need to water tomatoes deeply and often. Using mulch 
prevents soil-borne disease from splashing up onto the fruit when you 
water. Pruning suckers and even pinching the tips will encourage the 
plant to put all its energy into producing fruit.
###

Answer the following question using only information from the article. 
Answer in a complete sentence, with proper capitalization and punctuation. 
If there is no good answer in the article, say "I don't know".

Question: Why should you use mulch when growing tomatoes?
Answer: 

Sie können auch mit anderen Fragen experimentieren, wie z. B.:

  • "Wie groß werden Tomatenpflanzen?"
  • "bevorzugen Tomatenpflanzen Schatten oder Sonne?"
  • "Ist es einfach, Tomaten anzubauen?"

Probieren Sie auch Fragen außerhalb des Geltungsbereichs aus, wie z. B.:

  • "Wie wachsen Sie Gurken?"

Beispiel: Frage auf der Basis eines Artikels im strukturierten Modus beantworten

Szenario: Die Website für einen Online-Seedkatalog enthält viele Artikel, mit denen Kunden ihren Garten planen und letztendlich auswählen können, welche Samen gekauft werden sollen. Der Website wird ein neues Widget hinzugefügt, um Kundenfragen basierend auf dem Inhalt des Artikels zu beantworten, den der Kunde anzeigt. Beantworten Sie bei einer Frage, die sich auf einen bestimmten Artikel bezieht, die Frage auf der Grundlage des Artikels.

Wahl des Modells

Modelle, die auf Anweisungen abgestimmt sind, wie z. B. flan-t5-xxl-11b, flan-ul2-20b, mixtral-8x7b-instruct-v01 oder mt0-xxl-13b können diese Aufgabe in der Regel mit dieser Musteraufforderung erledigen.

Decodierung

Gierig. Die Antworten müssen auf den Tatsachen in dem Artikel basieren, und wenn es keine gute Antwort in dem Artikel gibt, sollte das Modell nicht kreativ sein und eine Antwort bilden.

Stoppkriterien

Um das Modell zu veranlassen, eine Ein-Satz-Antwort zurückzugeben, geben Sie einen Punkt "." an als Stoppfolge. Der Parameter "Max. Token" kann auf 50 gesetzt werden.

Abschnitt "Einrichten

Fügen Sie diesen Text in den Anweisungsbereich des Abschnitts " Einrichten " ein:

Article:
###
Tomatoes are one of the most popular plants for vegetable gardens. 
Tip for success: If you select varieties that are resistant to 
disease and pests, growing tomatoes can be quite easy. For 
experienced gardeners looking for a challenge, there are endless 
heirloom and specialty varieties to cultivate. Tomato plants come 
in a range of sizes. There are varieties that stay very small, less 
than 12 inches, and grow well in a pot or hanging basket on a balcony 
or patio. Some grow into bushes that are a few feet high and wide, 
and can be grown is larger containers. Other varieties grow into 
huge bushes that are several feet wide and high in a planter or 
garden bed. Still other varieties grow as long vines, six feet or 
more, and love to climb trellises. Tomato plants do best in full 
sun. You need to water tomatoes deeply and often. Using mulch 
prevents soil-borne disease from splashing up onto the fruit when you 
water. Pruning suckers and even pinching the tips will encourage the 
plant to put all its energy into producing fruit.
###

Answer the following question using only information from the article. 
Answer in a complete sentence, with proper capitalization and punctuation. 
If there is no good answer in the article, say "I don't know".

Abschnitt versuchen

Fügen Sie im Abschnitt Versuch eine zusätzliche Testzeile hinzu, damit Sie jede dieser beiden Fragen in eine eigene Zeile einfügen können:

Why should you use mulch when growing tomatoes?

How do you grow cucumbers?

Wählen Sie das Modell und die Parameter aus und klicken Sie anschließend auf Generieren , um zwei Ergebnisse anzuzeigen.

Beispiel: Frage auf der Basis eines Dokuments mit Granite beantworten

Szenario: Sie erstellen einen Chatbot, der Benutzerfragen beantworten kann. Wenn ein Benutzer eine Frage stellt, soll der Agent die Frage mit Informationen aus einem bestimmten Dokument beantworten.

Wahl des Modells

Modelle, die auf Anweisungen abgestimmt sind, wie z. B. granite-13b-instruct-v2, können die Aufgabe mit dieser Musteraufforderung lösen.

Decodierung

Gierig. Die Antworten müssen auf den Tatsachen im Dokument basieren, und wenn es keine gute Antwort in dem Artikel gibt, sollte das Modell nicht kreativ sein und eine Antwort bilden.

Stoppkriterien

Verwenden Sie den Parameter Max tokens von 50.

Eingabeaufforderung

Fügen Sie diesen Zero-Shot-Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Given the document and the current conversation between a user and an agent, your task is as follows: Answer any user query by using information from the document. The response should be detailed.

DOCUMENT: Foundation models are large AI models that have billions of parameters and are trained on terabytes of data. Foundation models can do various tasks, including text, code, or image generation, classification, conversation, and more. Large language models are a subset of foundation models that can do text- and code-related tasks.
DIALOG: USER: What are foundation models?

Beispiel: Beantworten Sie eine Frage auf der Grundlage mehrerer Dokumente mit Granite 3.1

Szenario: Sie erstellen einen Chatbot, der Benutzerfragen beantworten kann. Wenn ein Benutzer eine Frage stellt, soll der Agent die Frage mit Informationen aus einem bestimmten Dokument beantworten.

Wahl des Modells

Modelle, die auf Anweisungen abgestimmt sind, wie z. B. Granite Instruct Modelle, können die Aufgabe mit dieser Musteraufforderung lösen.

Decodierung

Gierig. Die Antworten müssen auf den Tatsachen im Dokument basieren, und wenn es keine gute Antwort in dem Artikel gibt, sollte das Modell nicht kreativ sein und eine Antwort bilden.

Stoppkriterien

  • Um sicherzustellen, dass das Modell die Generierung von Text nach der Auswertung stoppt, geben Sie eine Stoppfolge mit zwei Zeilenvorschubzeichen an. Klicken Sie dazu in das Textfeld " Sequenz anhalten", geben Sie " <|end_of_text|> ein und klicken Sie dann auf " Sequenz hinzufügen".
  • Setzen Sie den Parameter für die maximale Tokenanzahl auf 200.

Eingabeaufforderung

Fügen Sie diesen Zero-Shot-Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

<|start_of_role|>system<|end_of_role|>You are an expert in medical science.<|end_of_text|>
<|start_of_role|>user<|end_of_role|>Use the following documents as context to complete the task.

Document 1:
The human body is a complex and intricate system, composed of various interconnected parts that work together to maintain life. At the most fundamental level, the body is made up of cells, the basic units of life. These cells are organized into tissues, which are then grouped together to form organs. Organs, in turn, make up the various systems that carry out the body's functions.

Document 2:
One of the most important systems in the human body is the circulatory system. This system is responsible for transporting oxygen, nutrients, and hormones throughout the body. It is composed of the heart, blood vessels, and blood. The heart acts as a pump, pushing blood through the blood vessels and into the capillaries, where the exchange of oxygen, nutrients, and waste products takes place.

Document 3:
Another crucial system is the respiratory system. This system is responsible for the intake and exchange of oxygen and carbon dioxide. It is composed of the nose, throat, trachea, bronchi, and lungs. When we breathe in, air enters the nose or mouth and travels down the trachea into the lungs. Here, oxygen is absorbed into the bloodstream and carbon dioxide is expelled.

Document 4:
The human body also has a nervous system, which is responsible for transmitting signals between different parts of the body. This system is composed of the brain, spinal cord, and nerves. The brain acts as the control center, processing information and sending signals to the rest of the body. The spinal cord serves as a conduit for these signals, while the nerves transmit them to the various organs and tissues.


Which system in the human body is reponsible for breathing?<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>

Beispiel: Fragen zum Allgemeinwissen beantworten

Szenario: Beantworten Sie allgemeine Fragen zum Thema Finanzen.

Wahl des Modells

Das granite-13b-instruct-v2 kann für verschiedene Aufgaben verwendet werden, darunter Texterstellung, Zusammenfassung, Beantwortung von Fragen und Antworten, Klassifizierung und Extraktion.

Decodierung

Gierig. Dieses Beispiel beantwortet Fragen, sodass wir keine kreative Ausgabe wünschen.

Stoppkriterien

Setzen Sie den Parameter Max tokens auf 200, damit das Modell eine vollständige Antwort zurückgeben kann.

Eingabeaufforderung

Das Modell wurde auf die Beantwortung von Fragen mit Beispielen im folgenden Format abgestimmt:

<|user|>
Inhalt der Frage
<|assistant|>
Neue Zeile für die Antwort des Modells

Sie können die exakte Syntax " <|user|> und " <|assistant|> in den Zeilen vor und nach der Frage verwenden oder die Werte durch gleichwertige Begriffe wie " User und " Assistant ersetzen.

Wenn Sie Version 1 verwenden, fügen Sie nach der Bezeichnung " <|assistant|> keine Leerzeichen ein und fügen Sie eine neue Zeile ein.

Fügen Sie diesen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

<|user|>
Tell me about interest rates
<|assistant|>

Nachdem das Modell eine Antwort generiert hat, können Sie eine Folgefrage stellen. Das Modell verwendet Informationen aus der vorherigen Frage, wenn es eine Antwort generiert.

<|user|>
Who sets it?
<|assistant|>

Das Modell behält die Informationen einer vorherigen Frage bei, wenn es eine Folgefrage beantwortet, aber es ist nicht für die Unterstützung eines erweiterten Dialogs optimiert.

Hinweis: Wenn Sie eine Folgefrage stellen, wird die vorherige Frage erneut gestellt, wodurch sich die Anzahl der verwendeten Token erhöht.

Beispiel: Allgemeine Wissensfragen auf Japanisch beantworten

Szenario: Beantworten Sie allgemeine Fragen zur Finanzierung auf Japanisch.

Wahl des Modells

Das granite-8b-japanese kann für verschiedene Aufgaben verwendet werden, darunter Texterstellung, Zusammenfassung, Beantwortung von Fragen und Antworten, Klassifizierung und Extraktion.

Decodierung

Gierig. Dieses Beispiel beantwortet Fragen, sodass wir keine kreative Ausgabe wünschen.

Stoppkriterien

  • Setzen Sie den Parameter Max. Token auf 500, um viele Umdrehungen im Dialog zuzulassen.
  • Fügen Sie eine Stoppsequenz aus zwei Zeilenumbrüchen hinzu, um zu verhindern, dass das foundation model zu lange Antworten zurückgibt. Klicken Sie dazu in das Textfeld Stoppfolge , drücken Sie zweimal die Eingabetaste und klicken Sie dann auf Sequenz hinzufügen.

Eingabeaufforderung

Das Modell wurde auf die Beantwortung von Fragen mit Beispielen im folgenden Format abgestimmt:

以下は、タスクを説明する指示と、文脈のある入力の組み合わせです。要求を適切に満たす応答を書きなさい。

### 指示:
与えられた質問に対して、文脈がある場合はそれも利用し、回答してください。

### 入力:
{your-input}

### 応答:

In Englisch lautet die Vorlage wie folgt:

Below is a combination of instructions that describe the task and input with context. Write a response that appropriately meets the request.

### Instructions:
Please use the context when answering the given question, if available.

### input:
{your-input}

### Response:

Fügen Sie diesen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie Parameter fest, ersetzen Sie {your-input} durch Ihre Abfrage oder Anforderung und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Diese Eingabeaufforderung fragt beispielsweise nach Zinssätzen.

以下は、タスクを説明する指示と、文脈のある入力の組み合わせです。要求を適切に満たす応答を書きなさい。

### 指示:
与えられた質問に対して、文脈がある場合はそれも利用し、回答してください。

### 入力:
金利について教えてください。

### 応答:

Beispiel: Titel für eine Passage generieren

Szenario: Generieren Sie bei einer Passage einen geeigneten Titel für den Inhalt.

Wahl des Modells

Verwenden Sie granite-7b-lab, das viele Arten von Allzweckaufgaben erledigen kann.

Decodierung

Gierig. Das Modell muss einen Titel generieren, der auf dem Inhalt der Eingabeaufforderung basiert und nicht zu kreativ ist.

Stoppkriterien

  • Fügen Sie <|endoftext|> als Stoppfolge hinzu.

    Ein hilfreiches Merkmal des foundation model ist die Aufnahme eines speziellen Tokens mit der Bezeichnung " <|endoftext|> am Ende jeder Antwort. Wenn einige abgeleitete Modelle eine Antwort auf die Eingabe in weniger Tokens als die maximal zulässige Anzahl zurückgeben, können sie Muster aus der Eingabe wiederholen. Dieses Modell verhindert eine solche Wiederholung, indem eine zuverlässige Stoppfolge für die Eingabeaufforderung integriert wird.

Eingabeaufforderung

Fügen Sie mindestens ein Beispiel dafür ein, wie das Modell reagieren soll.

Fügen Sie diesen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Der Inhalt, der als Kontext in der Eingabeaufforderung bereitgestellt wird, stammt aus Tokens und Zerlegung in Tokens in der Produktdokumentation.

<|system|>
You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.

<|user|>
Generate a title from the given context.
Context:
Dana Blankstein- Cohen (born March 3, 1981) is the director of the Israeli Academy of Film and Television.\n\nShe is a film director, and an Israeli culture entrepreneur.\nLuciano Salce (25 September 1922, in Rome – 17 December 1989, in Rome) was an Italian film director, actor and lyricist.\n\nHis 1962 film "Le pillole di Ercole" was shown as part of a retrospective on Italian comedy at the 67th Venice International Film Festival.\n\nAs a writer of pop music, he used the pseudonym Pilantra.\n\nDuring World War II, he was a prisoner in Germany.\n\nHe later worked for several years in Brazil.\nVediamoci chiaro\n\n("Let\'s See It Clear") is a 1984 Italian comedy film directed by Luciano Salce.\n\nThe author Enrico Giacovelli referred to the film as "a kind of "Scent of a Woman" but more ambiguous, midway between Luigi Pirandello\'s "Henry IV" and "The Late Mattia Pascal.\nPeter Levin is an American director of film, television and theatre.\nIan Barry is an Australian director of film and TV.\nJesse Edward Hobson( May 2, 1911 – November 5, 1970) was the director of SRI International from 1947 to 1955.\n\nPrior to SRI, he was the director of the Armour Research Foundation.\nOlav Aaraas( born 10 July 1950) is a Norwegian historian and museum director.\n\nHe was born in Fredrikstad.\n\nFrom 1982 to 1993 he was the director of Sogn Folk Museum, from 1993 to 2010 he was the director of Maihaugen and from 2001 he has been the director of the Norwegian Museum of Cultural History.\n\nIn 2010 he was decorated with the Royal Norwegian Order of St. Olav.\nBrian O’ Malley is an Irish film director known for the horror film" Let Us Prey" and the ghost story" The Lodgers".\nBrian Patrick Kennedy( born 5 November 1961) is an Irish- born art museum director who has worked in Ireland and Australia, and now lives and works in the United States.\n\nHe is currently the director of the Peabody Essex Museum.\n\nHe was the director of the Toledo Museum of Art in Ohio from 2010 to 2019.\n\nHe was the director of the Hood Museum of Art from 2005 to 2010, and the National Gallery of Australia( Canberra) from 1997- 2004.

<|assistant|>
Directors Across Borders

<|user|>
Generate a title from the given context.
Context:
A token is a collection of characters that has semantic meaning for a model. Tokenization is the process of converting the words in your prompt into tokens.
You can monitor foundation model token usage in a project on the Environments page on the Resource usage tab.
Converting words to tokens and back again
Prompt text is converted to tokens before the prompt is processed by foundation models.
The correlation between words and tokens is complex:
Sometimes a single word is broken into multiple tokens
The same word might be broken into a different number of tokens, depending on context (such as: where the word appears, or surrounding words)
Spaces, newline characters, and punctuation are sometimes included in tokens and sometimes not
The way words are broken into tokens varies from language to language
The way words are broken into tokens varies from model to model
For a rough idea, a sentence that has 10 words might be 15 to 20 tokens.
The raw output from a model is also tokens. In the Prompt Lab in IBM watsonx.ai, the output tokens from the model are converted to words to be displayed in the prompt editor.

<|assistant|>

Beispiel: Beantworten Sie eine Frage mithilfe komplexer Argumentation im Freiformmodus

Szenario: Bitten Sie das Modell, allgemeine Fragen zu beantworten, die logisches Denkvermögen und Argumentation erfordern.

Wahl des Modells

Modelle, die wie mistral-large auf komplexe Denkaufgaben abgestimmt sind, können diese Aufgabe im Allgemeinen mit diesem Beispielprompt lösen.

Decodierung

Gierig. Das Modell muss den berechenbarsten Inhalt basierend auf dem Inhalt der Eingabeaufforderung zurückgeben; das Modell kann nicht zu kreativ sein.

Stoppkriterien

  • Um sicherzustellen, dass das Modell die Generierung von Text nach der Auswertung stoppt, geben Sie eine Stoppfolge mit zwei Zeilenvorschubzeichen an. Klicken Sie dazu in das Textfeld Stoppfolge , drücken Sie zweimal die Eingabetaste und klicken Sie dann auf Sequenz hinzufügen.
  • Setzen Sie den Parameter „Max. Tokenanzahl“ auf 100.

Eingabeaufforderung

Fügen Sie diesen kurzen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Question: Which one is heavier a pound of iron or a kilogram of feather?
Answer: A kilogram of feathers is heavier than a pound of iron. A pound is a unit of weight that is equivalent to approximately 0.453592 kilograms. Therefore, a pound of iron weighs less than a kilogram of feathers.

Question: A bat and a ball cost $1.10 in total. The bat costs $1.00 more than the ball. How much does the ball cost?
Answer:

Zusammenfassung

Durch Zusammenfassungstasks sparen Sie Zeit, indem Sie große Textmengen in einige Schlüsselinformationen verdichten.

Beispiel mit einer Zero-Shot-Eingabeaufforderung: Zusammenfassung einer Besprechungsmitschrift

Szenario: Bei einer Besprechungsmitschrift werden die Hauptpunkte als Besprechungsnotizen zusammengefasst, damit diese Notizen mit Teammitgliedern geteilt werden können, die nicht an der Besprechung teilgenommen haben.

Wahl des Modells

Modelle, die auf Anweisungen abgestimmt sind, können diese Aufgabe im Allgemeinen mit dieser Musteraufforderung lösen. Vorschläge: flan-t5-xxl-11b, flan-ul2-20b, oder mixtral-8x7b-instruct-v01.

Decodierung

Gierig. Das Modell muss den berechenbarsten Inhalt basierend auf dem Inhalt der Eingabeaufforderung zurückgeben; das Modell kann nicht zu kreativ sein.

Stoppkriterien

Da die Zusammenfassung aus mehreren Sätzen bestehen kann, setzen Sie den Parameter Max tokens auf 60.

Eingabeaufforderung

Fügen Sie diesen Zero-Shot-Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Summarize the following transcript.
Transcript:
00:00   [alex]  Let's plan the team party!
00:10   [ali]   How about we go out for lunch at the restaurant?
00:21   [sam]   Good idea.
00:47   [sam]   Can we go to a movie too?
01:04   [alex]  Maybe golf?
01:15   [sam]   We could give people an option to do one or the other.
01:29   [alex]  I like this plan. Let's have a party!
Summary:

Beispiel mit einer Eingabeaufforderung mit wenigen Eingriffen: Zusammenfassung einer Besprechungsmitschrift im unformatierten Modus

Szenario: Bei einer Besprechungsmitschrift werden die Hauptpunkte als Besprechungsnotizen zusammengefasst, damit diese Notizen mit Teammitgliedern geteilt werden können, die nicht an der Besprechung teilgenommen haben.

Wahl des Modells

Bei Beispielen mit wenigen Aufnahmen können die meisten Modelle diese Aufgabe gut erfüllen. Versuchen Sie es mit mixtral-8x7b-instruct-v01, oder mistral-large.

Decodierung

Gierig. Das Modell muss den berechenbarsten Inhalt auf der Basis dessen zurückgeben, was in der Eingabeaufforderung enthalten ist, und nicht zu kreativ sein.

Stoppkriterien

  • Um sicherzustellen, dass das Modell die Generierung von Text nach der Auswertung stoppt, geben Sie eine Stoppfolge mit zwei Zeilenvorschubzeichen an. Klicken Sie dazu in das Textfeld Stoppfolge , drücken Sie zweimal die Eingabetaste und klicken Sie dann auf Sequenz hinzufügen.
  • Setzen Sie den Parameter für die maximale Tokenanzahl auf 60.

Eingabeaufforderung

Fügen Sie diesen kurzen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Transcript:
00:00   [sam]   I wanted to share an update on project X today.
00:15   [sam]   Project X will be completed at the end of the week.
00:30   [erin]  That's great!
00:35   [erin]  I heard from customer Y today, and they agreed to buy our product.
00:45   [alex]  Customer Z said they will too.
01:05   [sam]   Great news, all around.
Summary:
Sam shared an update that project X will be complete at the end of the week. 
Erin said customer Y will buy our product. And Alex said customer Z will buy 
our product too.

Transcript:
00:00   [ali]   The goal today is to agree on a design solution.
00:12   [alex]  I think we should consider choice 1.
00:25   [ali]   I agree
00:40   [erin]  Choice 2 has the advantage that it will take less time.
01:03   [alex]  Actually, that's a good point.
01:30   [ali]   So, what should we do?
01:55   [alex]  I'm good with choice 2.
02:20   [erin]  Me too.
02:45   [ali]   Done!
Summary:
Alex suggested considering choice 1. Erin pointed out choice two will take 
less time. The team agreed with choice 2 for the design solution.

Transcript:
00:00   [alex]  Let's plan the team party!
00:10   [ali]   How about we go out for lunch at the restaurant?
00:21   [sam]   Good idea.
00:47   [sam]   Can we go to a movie too?
01:04   [alex]  Maybe golf?
01:15   [sam]   We could give people an option to do one or the other.
01:29   [alex]  I like this plan. Let's have a party!
Summary:

Beispiel für eine kurze Eingabeaufforderung: Zusammenfassen einer Sitzungsmitschrift im Freiform-Modus mit Granite 3.1

Szenario: Bei einer Besprechungsmitschrift werden die Hauptpunkte als Besprechungsnotizen zusammengefasst, damit diese Notizen mit Teammitgliedern geteilt werden können, die nicht an der Besprechung teilgenommen haben.

Wahl des Modells

Bei Beispielen mit wenigen Aufnahmen können die meisten Modelle diese Aufgabe gut erfüllen. Versuchen Sie Granite Instruct Modelle.

Decodierung

Gierig. Das Modell muss den berechenbarsten Inhalt auf der Basis dessen zurückgeben, was in der Eingabeaufforderung enthalten ist, und nicht zu kreativ sein.

Stoppkriterien

  • Um sicherzustellen, dass das Modell die Generierung von Text nach der Auswertung stoppt, geben Sie eine Stoppfolge mit zwei Zeilenvorschubzeichen an. Klicken Sie dazu in das Textfeld " Sequenz anhalten", geben Sie " <|end_of_text|> ein und klicken Sie dann auf " Sequenz hinzufügen".
  • Setzen Sie den Parameter für die maximale Tokenanzahl auf 200.

Eingabeaufforderung

Fügen Sie diesen kurzen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

<|start_of_role|>system<|end_of_role|>You are Granite, an AI language model developed by IBM in 2024. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.<|end_of_text|>
<|start_of_role|>user<|end_of_role|>Summarize a fragment of a meeting transcript. In this meeting, Sam, Erin, and Alex discuss updates.
Your response should only include the answer. Do not provide any further explanation.

Transcript:

Sam (00:00):
I wanted to share an update on project X today.

Sam (00:15):
Project X will be completed at the end of the week.

Erin (00:30):
That's great!

Erin (00:35):
I heard from customer Y today, and they agreed to buy our product.

Alex (00:45):
Customer Z said they will too.

Sam (01:05):
Great news, all around.

Summary:
<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>Sam shared an update that project X will be complete at the end of the week. Erin said customer Y will buy our product. And Alex said customer Z will buy our product too.<|end_of_text|>

Transcript:

Ali (00:00):
The goal today is to agree on a design solution.

Alex (00:12):
I think we should consider choice 1.

Ali (00:25):
I agree

Erin (00:40):
Choice 2 has the advantage that it will take less time.

Alex (01:03):
Actually, that's a good point.

Ali (01:30):
So, what should we do?

Alex (01:55):
I'm good with choice 2.

Erin (02:20):
Me too.

Ali (02:45):
Done!

Summary:
<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>

Beispiel mit einiger Eingabeaufforderung: Zusammenfassung einer Besprechungsmitschrift im strukturierten Modus

Szenario: fassen Sie bei einer Besprechungsmitschrift die Hauptpunkte in einer Liste mit Listenpunkten zusammen, sodass die Liste mit Teammitgliedern geteilt werden kann, die nicht an der Besprechung teilgenommen haben.

Wahl des Modells

Das foundation model mixtral-8x7b-instruct-v01 wurde darauf trainiert, Sonderzeichen, wie z. B. den Zeilenumbruch, gut zu erkennen und zu verarbeiten. Dieses Modell ist eine gute Wahl, wenn der generierte Text auf eine bestimmte Weise mit Sonderzeichen formatiert werden soll.

Decodierung

Gierig. Das Modell muss den berechenbarsten Inhalt basierend auf dem Inhalt der Eingabeaufforderung zurückgeben; das Modell kann nicht zu kreativ sein.

Stoppkriterien

  • Um sicherzustellen, dass das Modell die Textgenerierung nach einer Liste stoppt, geben Sie eine Stoppfolge von zwei Zeilenvorschubzeichen an. Klicken Sie dazu in das Textfeld Stoppfolge , drücken Sie zweimal die Eingabetaste und klicken Sie dann auf Sequenz hinzufügen.
  • Setzen Sie den Parameter für die maximale Tokenanzahl auf 60.

Abschnitt "Einrichten

Fügen Sie diese Überschriften und Beispiele in den Bereich " Beispiele" des Abschnitts " Einrichten " ein:

Tabelle 4. Beispiele für die Zusammenfassung in wenigen Handgriffen
Transcript: Summary:
00:00 [sam] I wanted to share an update on project X today.
00:15   [sam]   Project X will be completed at the end of the week.
00:30   [erin]  That's great!
00:35   [erin]  I heard from customer Y today, and they agreed to buy our product.
00:45   [alex]  Customer Z said they will too.
01:05   [sam]  Great news, all around.
- Sam shared an update that project X will be complete at the end of the week
- Erin said customer Y will buy our product
- And Alex said customer Z will buy our product too
00:00   [ali]   The goal today is to agree on a design solution.
00:12   [alex]  I think we should consider choice 1.
00:25   [ali]   I agree
00:40   [erin]  Choice 2 has the advantage that it will take less time.
01:03   [alex]  Actually, that's a good point.
01:30   [ali]   So, what should we do?
01:55   [alex]  I'm good with choice 2.
02:20   [erin]  Me too.
02:45  [ali]   Done!
- Alex suggested considering choice 1
- Erin pointed out choice two will take less time
- The team agreed with choice 2 for the design solution

Abschnitt versuchen

Fügen Sie diese Nachricht in den Abschnitt Versuch ein:

00:00   [alex]  Let's plan the team party!
00:10   [ali]   How about we go out for lunch at the restaurant?
00:21   [sam]   Good idea.
00:47   [sam]   Can we go to a movie too?
01:04   [alex]  Maybe golf?
01:15   [sam]   We could give people an option to do one or the other.
01:29   [alex]  I like this plan. Let's have a party!

Wählen Sie das Modell aus, legen Sie Parameter fest und klicken Sie anschließend auf Generieren , um das Ergebnis anzuzeigen.

Beispiel: Titel für eine Passage generieren

Szenario: Generieren Sie bei einer Passage einen geeigneten Titel für den Inhalt.

Wahl des Modells

Verwenden Sie granite-7b-lab, das viele Arten von Allzweckaufgaben erledigen kann.

Decodierung

Gierig. Das Modell muss einen Titel generieren, der auf dem Inhalt der Eingabeaufforderung basiert und nicht zu kreativ ist.

Stoppkriterien

  • Fügen Sie <|endoftext|> als Stoppfolge hinzu.

    Ein hilfreiches Merkmal des foundation model ist die Aufnahme eines speziellen Tokens mit der Bezeichnung " <|endoftext|> am Ende jeder Antwort. Wenn einige abgeleitete Modelle eine Antwort auf die Eingabe in weniger Tokens als die maximal zulässige Anzahl zurückgeben, können sie Muster aus der Eingabe wiederholen. Dieses Modell verhindert eine solche Wiederholung, indem eine zuverlässige Stoppfolge für die Eingabeaufforderung integriert wird.

Eingabeaufforderung

Fügen Sie mindestens ein Beispiel dafür ein, wie das Modell reagieren soll.

Eine Besonderheit des foundation model ist, dass Sie die Fähigkeiten, für die das Modell trainiert wurde, überprüfen können, indem Sie die Taxonomieseite Training auf der Modellkarte für das foundation model öffnen.

So zeigt die Taxonomie beispielsweise an, dass das foundation model granite-7b-lab für die Fähigkeit " title trainiert wurde. Wenn Sie auf den Skill klicken, werden Beispiele angezeigt, die als Seedbeispiele für die synthetischen Daten verwendet wurden, die zum Trainieren des Modells verwendet wurden. Sie können das Beispiel, das Sie in Ihre einmalige Eingabeaufforderung einschließen, nach einem dieser skillspezifischen Beispiele modellieren. Die Verwendung eines ähnlichen Stils und Formats für die Eingabeaufforderung hilft dem Modell zu erkennen, was Sie in der Modellausgabe erwarten.

Hinweis: Erwarten Sie nicht, dass die Ausgabe des foundation model genau der Ausgabe des Modells aus den Kompetenzbeispielen in der Taxonomie entspricht. Diese Beispiele wurden nicht direkt für das Training des foundation model verwendet. Die Beispiele dienten als Ausgangsbeispiele für synthetische Daten, die neue Beispiele generierten, die zum Trainieren des foundation model verwendet wurden.

Fügen Sie diesen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Das Beispiel stammt aus den Seedbeispielen für den Titelskill. Der Inhalt, der als Kontext in der Eingabeaufforderung bereitgestellt wird, stammt aus Tokens und Zerlegung in Tokens in der Produktdokumentation.

<|system|>
You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.

<|user|>
Generate a title from the given text.
Context
Dana Blankstein- Cohen (born March 3, 1981) is the director of the Israeli Academy of Film and Television.\n\nShe is a film director, and an Israeli culture entrepreneur.\nLuciano Salce (25 September 1922, in Rome – 17 December 1989, in Rome) was an Italian film director, actor and lyricist.\n\nHis 1962 film "Le pillole di Ercole" was shown as part of a retrospective on Italian comedy at the 67th Venice International Film Festival.\n\nAs a writer of pop music, he used the pseudonym Pilantra.\n\nDuring World War II, he was a prisoner in Germany.\n\nHe later worked for several years in Brazil.\nVediamoci chiaro\n\n("Let\'s See It Clear") is a 1984 Italian comedy film directed by Luciano Salce.\n\nThe author Enrico Giacovelli referred to the film as "a kind of "Scent of a Woman" but more ambiguous, midway between Luigi Pirandello\'s "Henry IV" and "The Late Mattia Pascal.\nPeter Levin is an American director of film, television and theatre.\nIan Barry is an Australian director of film and TV.\nJesse Edward Hobson( May 2, 1911 – November 5, 1970) was the director of SRI International from 1947 to 1955.\n\nPrior to SRI, he was the director of the Armour Research Foundation.\nOlav Aaraas( born 10 July 1950) is a Norwegian historian and museum director.\n\nHe was born in Fredrikstad.\n\nFrom 1982 to 1993 he was the director of Sogn Folk Museum, from 1993 to 2010 he was the director of Maihaugen and from 2001 he has been the director of the Norwegian Museum of Cultural History.\n\nIn 2010 he was decorated with the Royal Norwegian Order of St. Olav.\nBrian O’ Malley is an Irish film director known for the horror film" Let Us Prey" and the ghost story" The Lodgers".\nBrian Patrick Kennedy( born 5 November 1961) is an Irish- born art museum director who has worked in Ireland and Australia, and now lives and works in the United States.\n\nHe is currently the director of the Peabody Essex Museum.\n\nHe was the director of the Toledo Museum of Art in Ohio from 2010 to 2019.\n\nHe was the director of the Hood Museum of Art from 2005 to 2010, and the National Gallery of Australia( Canberra) from 1997- 2004.

<|assistant|>
Directors Across Borders: A Comparative Study of International Film and Museum Directors, from Luciano Salce to Brain Patrick Kennedy

<|user|>
Generate a title from the given text.
Context:
A token is a collection of characters that has semantic meaning for a model. Tokenization is the process of converting the words in your prompt into tokens.
You can monitor foundation model token usage in a project on the Environments page on the Resource usage tab.
Converting words to tokens and back again
Prompt text is converted to tokens before the prompt is processed by foundation models.
The correlation between words and tokens is complex:
Sometimes a single word is broken into multiple tokens
The same word might be broken into a different number of tokens, depending on context (such as: where the word appears, or surrounding words)
Spaces, newline characters, and punctuation are sometimes included in tokens and sometimes not
The way words are broken into tokens varies from language to language
The way words are broken into tokens varies from model to model
For a rough idea, a sentence that has 10 words might be 15 to 20 tokens.
The raw output from a model is also tokens. In the Prompt Lab in IBM watsonx.ai, the output tokens from the model are converted to words to be displayed in the prompt editor.

<|assistant|>

Codegenerierung und -konvertierung

Basismodelle, die programmgesteuerten Code generieren und konvertieren können, sind hervorragende Ressourcen für Entwickler. Sie können Entwicklern beim Brainstorming und bei der Fehlerbehebung von Programmiertasks helfen.

Beispiel: Programmgesteuerten Code aus Anweisungen generieren

Szenario: Sie möchten Code aus Anweisungen generieren. Sie möchten nämlich eine Funktion in der Programmiersprache Python schreiben, die eine Zeichenfolge umkehrt.

Wahl des Modells

Modelle, die Code generieren können, wie z. B. codellama-34b-instruct-hf, mistral-large und mixtral-8x7b-instruct-v01, können diese Aufgabe im Allgemeinen erledigen, wenn ein Beispielprompt bereitgestellt wird.

Decodierung

Gierig. Die Antwort muss ein gültiges Code-Snippet sein. Das Modell kann nicht kreativ sein und eine Antwort bilden.

Stoppkriterien

Um das Modell anzuhalten, nachdem es einen einzigen Codeausschnitt zurückgegeben hat, geben Sie ' <end of code> als Stoppsequenz an. Der Parameter für die maximale Tokenanzahl kann auf 1.000 gesetzt werden.

Eingabeaufforderung

Fügen Sie diesen Codeschnipsel in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Using the directions below, generate Python code for the specified task.

Input:
# Write a Python function that prints 'Hello World!' string 'n' times.

Output:
def print_n_times(n):
    for i in range(n):
        print("Hello World!")

<end of code>

Input:
# Write a Python function that reverses the order of letters in a string.
# The function named 'reversed' takes the argument 'my_string', which is a string. It returns the string in reverse order.

Output:

Die Ausgabe enthält Python -Code ähnlich dem folgenden Snippet:

def reversed(my_string):
    return my_string[::-1]

Stellen Sie sicher, dass Sie den generierten Code testen, um sicherzustellen, dass er wie erwartet funktioniert.

Wenn Sie beispielsweise reversed("good morning")ausführen, lautet das Ergebnis 'gninrom doog'.

Hinweis: Das foundation model kann Code erzeugen, der direkt aus seinen Trainingsdaten stammt. Daher kann generierter Code eine Zuordnung erfordern. Sie müssen sicherstellen, dass generierter Code, den Sie verwenden, bei Bedarf ordnungsgemäß zugeordnet wird.

Beispiel: Erzeugen von programmatischem Code aus Anweisungen mit einem Zero-Shot Prompt

Szenario: Sie möchten Code aus Anweisungen generieren. Sie wollen nämlich eine Funktion in der Programmiersprache Python schreiben, die das "Hello World!" ausgibt Zeichenfolge 'n' Mal.

Wahl des Modells

Wenn Sie das llama-3-2-1b-instruct oder foundation model verwenden, müssen Sie keine Beispiele angeben. Sie müssen eine benutzerdefinierte Vorlage verwenden, die den Umgebungswert " iphython angibt, den das Modell als Anforderung für die Codegenerierung erkennt.

Decodierung

Gierig. Die Antwort muss ein gültiges Code-Snippet sein. Das Modell kann nicht kreativ sein und eine Antwort bilden.

Stoppkriterien

Das Modell braucht keine Stoppsequenz.

Eingabeaufforderung

Fügen Sie diesen Codeschnipsel in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

<|begin_of_text|><|start_header_id|>system<|end_header_id|>

Environment: ipython<|eot_id|><|start_header_id|>user<|end_header_id|>

${Add your code instruction here}<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Ersetzen Sie ${Add your code instruction here} durch eine Beschreibung des Codes, den das Modell erzeugen soll. Zum Beispiel Write a Python function that prints 'Hello World!' string 'n' times..

Das Modell erzeugt Ausgaben wie die folgende:

Here is a simple Python function that prints 'Hello World!' 'n' times:

```python
def print_hello_world(n):
    for i in range(n):
        print('Hello World!')

print_hello_world(5)

Diese Funktion verwendet eine for-Schleife, um 'n' Mal zu iterieren und 'Hello World!' zu drucken jedes Mal. Die Funktion " range(n) erzeugt eine Zahlenfolge von 0 bisn-1", die dann als Schleifenvariable "i" verwendet wird.

Beispiel: Code von einer Programmiersprache in eine andere konvertieren

Szenario: Sie möchten Code von einer Programmiersprache in eine andere konvertieren. Sie möchten nämlich ein Code-Snippet von C++ in Pythonkonvertieren.

Wahl des Modells

Modelle, die Code generieren können, wie z. B. codellama-34b-instruct-hf, mistral-large und mixtral-8x7b-instruct-v01, können diese Aufgabe im Allgemeinen erledigen, wenn ein Beispielprompt bereitgestellt wird.

Decodierung

Gierig. Die Antwort muss ein gültiges Code-Snippet sein. Das Modell kann nicht kreativ sein und eine Antwort bilden.

Stoppkriterien

Um das Modell anzuhalten, nachdem es einen einzigen Codeausschnitt zurückgegeben hat, geben Sie ' <end of code> als Stoppsequenz an. Der Parameter 'Max tokens' kann auf 300 gesetzt werden.

Eingabeaufforderung

Fügen Sie diesen Codeschnipsel in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Diese Eingabeaufforderung enthält ein Beispielpaar aus Eingabe und Ausgabe. Die Eingabe ist C + + -Code und die Ausgabe ist die äquivalente Funktion im Python -Code.

Als Nächstes wird das zu konvertierende C + + -Codefragment eingeschlossen. Es ist eine Funktion, die die Anzahl der arithmetischen Progressionen mit der Summe S und der gemeinsamen Differenz von Dzählt, wobei S und D ganzzahlige Werte sind, die als Parameter übergeben werden.

Der letzte Teil der Eingabeaufforderung gibt die Sprache an, in die das C + + -Codefragment konvertiert werden soll.

Translate the following code from C++ to Python.

C++:
#include "bits/stdc++.h"
using namespace std;
bool isPerfectSquare(long double x) {
    long double sr = sqrt(x);
    return ((sr - floor(sr)) == 0);
}
void checkSunnyNumber(int N) {
    if (isPerfectSquare(N + 1)) {
    cout << "Yes
";
    } else {
    cout << "No
";
    }
}
int main() {
    int N = 8;
    checkSunnyNumber(N);
    return 0;
}

Python:
from math import *
 
def isPerfectSquare(x):
    sr = sqrt(x)
    return ((sr - floor(sr)) == 0)
 
def checkSunnyNumber(N):
    if (isPerfectSquare(N + 1)):
        print("Yes")
    else:
        print("No")
 
if __name__ == '__main__':
    N = 8
    checkSunnyNumber(N)

<end of code>

C++:
#include <bits/stdc++.h>
using namespace std;
int countAPs(int S, int D) {
    S = S * 2;
    int answer = 0;
    for (int i = 1; i <= sqrt(S); i++) {
    if (S % i == 0) {
      if (((S / i) - D * i + D) % 2 == 0)
        answer++;
      if ((D * i - (S / i) + D) % 2 == 0)
        answer++;
    }
    }
    return answer;
}
int main() {
    int S = 12, D = 1;
    cout << countAPs(S, D);
    return 0;
}

Python:

Die Ausgabe enthält Python -Code ähnlich dem folgenden Snippet:

from math import *
 
def countAPs(S, D):
    S = S * 2
    answer = 0
    for i in range(1, int(sqrt(S)) + 1):
        if S % i == 0:
            if (((S / i) - D * i + D) % 2 == 0):
                answer += 1
            if ((D * i - (S / i) + D) % 2 == 0):
                answer += 1
    return answer
 
if __name__ == '__main__':
    S = 12
    D = 1
    print(countAPs(S, D))

<end of code>

Der generierte Python -Code funktioniert genauso wie der in der Eingabeaufforderung enthaltene C + + -Code.

Testen Sie den generierten Python -Code, um sicherzustellen, dass er wie erwartet funktioniert.

Hinweis: Das foundation model kann Code erzeugen, der direkt aus seinen Trainingsdaten stammt. Daher kann generierter Code eine Zuordnung erfordern. Sie müssen sicherstellen, dass generierter Code, den Sie verwenden, bei Bedarf ordnungsgemäß zugeordnet wird.

Beispiel: Programmgesteuerten Code aus Anweisungen mit Granite generieren

Szenario: Sie möchten Code aus Anweisungen generieren. Sie möchten nämlich eine Funktion in der Programmiersprache Python schreiben, die eine Zeichenfolge umkehrt.

Wahl des Modells

Modelle, die Code generieren können, wie z. B. Granite Code oder Granite Instruct, können diese Aufgabe in der Regel erledigen, wenn eine Musteraufforderung bereitgestellt wird.

Decodierung

Gierig. Die Antwort muss ein gültiges Code-Snippet sein. Das Modell kann nicht kreativ sein und eine Antwort bilden.

Stoppkriterien

Um das Modell anzuhalten, nachdem es einen einzigen Codeausschnitt zurückgegeben hat, geben Sie ' <end of code> als Stoppsequenz an. Der Parameter 'Max tokens' kann auf 300 gesetzt werden.

Eingabeaufforderung

Fügen Sie diesen Codeschnipsel in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Question:
Using the directions below, generate Python code for the specified task.
# Write a Python function that prints 'Hello World!' string 'n' times.

Answer:
def print_n_times(n):
    for i in range(n):
        print("Hello World!")

<end of code>

Question:
# Write a Python function that reverses the order of letters in a string.
# The function named 'reversed' takes the argument 'my_string', which is a string. It returns the string in reverse order.

Answer:

Die Ausgabe enthält Python -Code ähnlich dem folgenden Snippet:

def reverse_string(my_string):
    return my_string[::-1]

<end of code>

Stellen Sie sicher, dass Sie den generierten Code testen, um sicherzustellen, dass er wie erwartet funktioniert.

Wenn Sie beispielsweise reversed("good morning")ausführen, lautet das Ergebnis 'gninrom doog'.

Weitere Granite Code-Modell-Beispielaufforderungen finden Sie unter Aufforderungen für Code.

Beispiel: Code mit Granite von einer Programmiersprache in eine andere konvertieren

Szenario: Sie möchten Code von einer Programmiersprache in eine andere konvertieren. Sie möchten nämlich ein Code-Snippet von C++ in Pythonkonvertieren.

Wahl des Modells

Modelle, die Code generieren können, wie z. B. Granite Code Instruct-Modelle, können diese Aufgabe im Allgemeinen erledigen, wenn eine Beispielaufforderung bereitgestellt wird.

Decodierung

Gierig. Die Antwort muss ein gültiges Code-Snippet sein. Das Modell kann nicht kreativ sein und eine Antwort bilden.

Stoppkriterien

Um das Modell anzuhalten, nachdem es einen einzigen Codeausschnitt zurückgegeben hat, geben Sie ' <end of code> als Stoppsequenz an. Der Parameter für die maximale Tokenanzahl kann auf 1.000 gesetzt werden.

Eingabeaufforderung

Fügen Sie diesen Codeschnipsel in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Diese Eingabeaufforderung enthält eine Anweisung zum Konvertieren eines Code-Snippets von C++ in Python.

Das zu konvertierende C + + -Code-Snippet wird als Nächstes eingeschlossen, um Kontext bereitzustellen. Es ist eine Funktion, die die Anzahl der arithmetischen Progressionen mit der Summe S und der gemeinsamen Differenz von Dzählt, wobei S und D ganzzahlige Werte sind, die als Parameter übergeben werden.

Question:
Translate the following code from C++ to Python.
C++:
#include "bits/stdc++.h"
using namespace std;
bool isPerfectSquare(long double x) {
    long double sr = sqrt(x);
    return ((sr - floor(sr)) == 0);
}
void checkSunnyNumber(int N) {
    if (isPerfectSquare(N + 1)) {
    cout << "Yes
";
    } else {
    cout << "No
";
    }
}
int main() {
    int N = 8;
    checkSunnyNumber(N);
    return 0;
}

Answer:
Python:
from math import *
 
def isPerfectSquare(x):
    sr = sqrt(x)
    return ((sr - floor(sr)) == 0)
 
def checkSunnyNumber(N):
    if (isPerfectSquare(N + 1)):
        print("Yes")
    else:
        print("No")
 
if __name__ == '__main__':
    N = 8
    checkSunnyNumber(N)

<end of code>

Question:
Translate the following code from C++ to Python.
C++:
#include <bits/stdc++.h>
using namespace std;
int countAPs(int S, int D) {
    S = S * 2;
    int answer = 0;
    for (int i = 1; i <= sqrt(S); i++) {
    if (S % i == 0) {
      if (((S / i) - D * i + D) % 2 == 0)
        answer++;
      if ((D * i - (S / i) + D) % 2 == 0)
        answer++;
    }
    }
    return answer;
}
int main() {
    int S = 12, D = 1;
    cout << countAPs(S, D);
    return 0;
}

Answer:

Die Ausgabe enthält Python -Code ähnlich dem folgenden Snippet:

Python:
from math import *
 
def countAPs(S, D):
    S = S * 2
    answer = 0
    for i in range(1, int(sqrt(S)) + 1):
        if S % i == 0:
            if ((S // i) - D * i + D) % 2 == 0:
                answer += 1
            if (D * i - (S // i) + D) % 2 == 0:
                answer += 1
    return answer
 
if __name__ == '__main__':
    S = 12
    D = 1
    print(countAPs(S, D))

Der generierte Python -Code funktioniert genauso wie der in der Eingabeaufforderung enthaltene C + + -Code.

Testen Sie den generierten Python -Code, um sicherzustellen, dass er wie erwartet funktioniert.

Weitere Granite Code-Modell-Beispielaufforderungen finden Sie unter Aufforderungen für Code.

Dialogmodul

Dialogtasks sind in Kundendienstszenarios hilfreich, insbesondere wenn ein Chatbot verwendet wird, um Kunden durch einen Workflow zu führen, um ein Ziel zu erreichen.

Beispiel: Gespräch mit Llama 3

Szenario: Dialogausgabe wie Chatbot generieren.

Wahl des Modells

Llama 3, 3.1 und 3.2 sind für Dialoganwendungen optimiert. Die Modelle sind auf ein bestimmtes Prompt-Format abgestimmt, das im Abschnitt Prompt-Text beschrieben wird.

Decodierung

Gierig. Dieses Beispiel beantwortet allgemeine Kenntnisse, sachliche Fragen, so dass wir keine kreative Ausgabe wollen.

Stoppkriterien

Setzen Sie den Parameter Max tokens auf 900.

Die Vorlage verwendet ein Textende-Token (<|eot_id|>), um das Ende jedes Textsegments abzugrenzen, mit Ausnahme der System-Eingabeaufforderung.

Eingabeaufforderung

Die folgende Eingabemaske eignet sich am besten für die Eingabe:

<|begin_of_text|><|start_header_id|>system<|end_header_id|>

SYSTEM PROMPT<|eot_id|><|start_header_id|>user<|end_header_id|>

GROUNDING (OPTIONAL)<|eot_id|><|start_header_id|>user<|end_header_id|>

USER_INPUT<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Fügen Sie diesen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Tipp:Alternativ können Sie in den Chatmodus wechseln und die Benutzereingabe direkt eingeben. Das Prompt Lab fügt die erwartete Syntax ein, die die Anweisungs- und Benutzereingabesegmente für Sie identifiziert.
<|begin_of_text|><|start_header_id|>system<|end_header_id|>

You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>

I have a question about Earth. How many moons are there?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Nachdem die ursprüngliche Ausgabe generiert wurde, fahren Sie mit dem Dialog fort, um nach weiteren Planeten zu fragen, indem Sie dieselben IDs am Ende des Eingabetexts hinzufügen. Beispiel:

FOLLOW UP QUESTION<|eot_id|><|start_header_id|>assistant<|end_header_id|>


Die Ausgabe sieht ungefähr wie folgt aus:

<|begin_of_text|><|start_header_id|>system<|end_header_id|>

You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>

I have a question about Earth. How many moons are there?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

That's an easy one! Earth has only one moon.

What about Saturn?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Saturn has a whopping 82 confirmed moons!

And Mars?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Mars has two small natural satellites, Phobos and Deimos.

Die folgende Beispieleingabeaufforderung enthält Erdungsinformationen.

<|begin_of_text|><|start_header_id|>system<|end_header_id|>

You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>

The sky is blue.<|eot_id|><|start_header_id|>user<|end_header_id|>

What color is the sky?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Beispiel: Gespräch mit Llama 2

Szenario: Dialogausgabe wie Chatbot generieren.

Wahl des Modells

Wie andere Stiftungsmodelle kann auch Llama 2 (sowohl in der 70-Milliarden- als auch in der 13-Milliarden-Größe) für mehrere Aufgaben verwendet werden. Beide Llama 2 sind jedoch für den Einsatz im Dialog optimiert. llama-2-70b-chat und llama-2-13b-chat sind auf das Prompt-Format " [INST]<<SYS>><</SYS>>[/INST] abgestimmt. Weitere Informationen zu diesem Eingabeaufforderungsformat finden Sie unter Wie man Llama 2 auffordert.

Decodierung

Gierig. Dieses Beispiel beantwortet allgemeine Kenntnisse, sachliche Fragen, so dass wir keine kreative Ausgabe wollen.

Stoppkriterien

Setzen Sie den Parameter „Max. Tokenanzahl“ auf 100.

Die Vorlage für Llama 2 verwendet ein EOS-Token (</s>), um das Ende der Antwort des Agenten abzugrenzen. Die Modellausgabe hört auf, Text zu erzeugen, wenn das EOS-Token " </s> auftritt.

Eingabeaufforderung

Fügen Sie diesen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

[INST] <<SYS>>
You are a helpful assistant. Begin each response with the phrase "Dear user, ". If you are unsure about an answer, truthfully say "I don't know"<</SYS>>

I have a question about the Earth.[/INST]
Dear user, go on.
[INST]

How many moons are there?
[/INST]

Nachdem die erste Ausgabe generiert wurde, setzen Sie das Dialogfeld fort, um nach weiteren Planeten zu fragen, wobei Sie Ihre Benutzernachrichten in dieselbe " [INST][/INST] verpacken. Sie brauchen kein " <s> an den Anfang von Folgefragen zu setzen.

Tipp:Alternativ können Sie in den Chatmodus wechseln und die Benutzereingabe direkt eingeben. Das Prompt Lab fügt die erwartete Syntax ein, die die Anweisungs- und Benutzereingabesegmente für Sie identifiziert.

Die Ausgabe sieht ungefähr wie folgt aus:

[INST] <<SYS>>
You are a helpful assistant. Begin each response with the phrase "Dear user, ". If you are unsure about an answer, truthfully say "I don't know"<</SYS>>

I have a question about the Earth.[/INST]
Dear user, go on.
[INST]

How many moons are there?
[/INST]
Dear user, the Earth has one natural satellite, commonly referred to as the Moon. 
[INST]

What about Saturn?
[/INST]
Dear user, Saturn has a total of 62 confirmed moons, as well as numerous smaller moonlets and ring particles. The largest moon of Saturn is Titan, which is the second-largest moon in the solar system, after Jupiter's moon Ganymede. 
[INST]

And Mars?
[/INST]
Dear user, Mars has two small natural satellites, Phobos and Deimos. Both moons are thought to be captured asteroids, and are irregularly shaped and very small, with diameters of about 22 kilometers and 12 kilometers respectively.

Beachten Sie einige wichtige Punkte bezüglich der Ausgabe, die das Modell während der Ausführung generiert:

  • Die so genannte Systemanweisung in den ' <<SYS>><</SYS>> -Tags beeinflusst weiterhin die Ausgabe bei jedem Dialog, ohne dass die Systemanweisung wiederholt werden muss. Mit anderen Worten, die Antworten des Assistenten werden weiterhin mit "Sehr geehrter Benutzer," eingeleitet.
  • In echter Dialogmanier reagiert der Assistent auf die Benutzereingabe "Wie viele Monde gibt es?" berücksichtigt die vorherige Benutzereingabe "Ich habe eine Frage zur Erde" und gibt die Anzahl der Monde an, die die Erde umkreisen.
  • Auch in der richtigen Dialogform folgen die Antworten der Assistenten dem Thema des Gesprächs, also der Anzahl der Monde. (Andernfalls wird die vage Benutzermeldung "Und Mars?" ausgegeben in jede beliebige Richtung abschweifen könnte.)
  • Vorsicht ist geboten: Vor allem Zeilenumbrüche (Carriage-Return) und in geringerem Maße auch Leerzeichen im Prompt-Text können die erzeugte Ausgabe stark beeinflussen.
  • Wenn Sie Llama 2 für Chat-Anwendungsfälle verwenden, halten Sie sich so genau wie möglich an das empfohlene Format der Prompt-Vorlage. Verwenden Sie das " [INST]<<SYS>><</SYS>>[/INST] -Prompt-Format nicht, wenn Sie Llama 2 für andere Aufgaben als den Chat verwenden.

Beispiel: Converse with granite-13b-chat-v2

Szenario: Dialogausgabe wie Chatbot generieren.

Wahl des Modells

Verwenden Sie granite-13b-chat-v2, um einen Dialog zu führen.

Decodierung

  • Stichprobenentschlüsselung verwenden.
  • Setzen Sie Top P auf 0.85.
  • Setzen Sie die Strafe für Wiederholung auf 1.2.

Stoppkriterien

  • Setzen Sie den Parameter Max. Token auf 500, damit das Modell eine vollständige Antwort zurückgeben kann, aber so kurz wie möglich ist.

Eingabeaufforderung

Um die Modellsicherheit zu erhöhen und Verzerrungen zu verringern, sollten Sie eine Systemabfrage als Teil der Benutzereingabe hinzufügen. Die Eingabeaufforderung kann einige Grundregeln für den Dialog festlegen. Beispiel:

Sie sind Granite Chat, ein von IBMentwickeltes KI-Sprachmodell. Sie sind ein vorsichtiger Assistent. Sie befolgen die Anweisungen sorgfältig. Sie sind hilfreich und harmlos und folgen ethischen Richtlinien und fördern positives Verhalten. Halten Sie Ihre Antworten kurz und auf den Punkt.

Denken Sie daran, das Format der Eingabeaufforderungsvorlage zu verwenden, das vom Modell erwartet wird.

< |system | >
Eingabeaufforderung
< |user | >
Inhalt der Frage
< |assistant | >
Neue Zeile für die Antwort des Modells

Wenn Sie an dieses Modell eine Eingabeaufforderung mit wenigen Eingabeaufforderungen übergeben möchten, können Sie die Systemeingabeaufforderung und anschließend die Beispiele gefolgt von dem abzugebenden Eingabeaufforderungstext hinzufügen.

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
Example prompt 1
<|assistant|>
Example response 1

<|user|>
Example prompt 2
<|assistant|>
Example response 2

<|user|>
USER INPUT
<|assistant|>

Fügen Sie den folgenden Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, stellen Sie die Parameter ein und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Tipp:Alternativ können Sie in den Chatmodus wechseln und die Benutzereingabe direkt eingeben. Das Prompt Lab fügt die erwartete Syntax ein, die die Anweisungs- und Benutzereingabesegmente für Sie identifiziert.
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
I have a question about the Earth. How many moons are there?
<|assistant|>

Fügen Sie nach der Beschriftung <|assistant|> keine nachfolgenden Leerzeichen ein und fügen Sie eine neue Zeile hinzu.

Nachdem die ursprüngliche Ausgabe generiert wurde, können Sie den Dialog fortsetzen, indem Sie eine Folgefrage stellen. Sie können zum Beispiel nach den Monden anderer Planeten fragen.

<|user|>
What about Saturn?

<|assistant|>

Und setzen Sie das Gespräch mit einer weiteren Folgefrage fort.

<|user|>
And Mars?

<|assistant|>

Wenn die Modellausgabe zu lang ist, können Sie versuchen, eine Stoppfolge mit zwei Zeilenvorschubzeichen anzugeben, indem Sie auf das Textfeld Stoppfolge klicken, die Eingabetaste zweimal drücken und anschließend auf Sequenz hinzufügenklicken. Die Wiederholungsstrafe reicht jedoch in der Regel aus, um das Modell auf Kurs zu halten.

Ein weiteres Beispiel, das Sie ausprobieren können:

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
How does a bill become a law?
<|assistant|>

Mit der Folgefrage:

<|user|>
How about in Canada?

<|assistant|>

Einige Hinweise zur Verwendung dieses Beispiels mit dem Modell:

  • Die Eingabeaufforderung richtet einige allgemeine Guardrails für das Modell ein.
  • Der Assistent kann eine Folgefrage beantworten, die auf Informationen aus einem früheren Austausch in demselben Dialog beruht.
  • Das Modell erwartet, dass die Eingabe einem bestimmten Muster folgt, und kann auf falsch platzierte Leerzeichen reagieren.

Beispiel: Converse auf Japanisch mit granite-8b-japanese

Szenario: Generieren Sie eine japanische Dialogausgabe wie einen Chatbot.

Wahl des Modells

Das granite-8b-japanese foundation model kann verwendet werden, um an einem Dialog auf Japanisch teilzunehmen. Das granite-8b-japanese foundation model funktioniert am besten, wenn Sie das gleiche Eingabeaufforderungsformat verwenden, das beim Training des Modells verwendet wurde.

Decodierung

Gierig. Dieses Beispiel beantwortet allgemeine Kenntnisse, sachliche Fragen, so dass wir keine kreative Ausgabe wollen.

Stoppkriterien

  • Setzen Sie den Parameter Max. Token auf 500, um viele Umdrehungen im Dialog zuzulassen.
  • Fügen Sie eine Stoppsequenz aus zwei Zeilenumbrüchen hinzu, um zu verhindern, dass das foundation model zu lange Antworten zurückgibt. Klicken Sie dazu in das Textfeld Stoppfolge , drücken Sie zweimal die Eingabetaste und klicken Sie dann auf Sequenz hinzufügen.

Eingabeaufforderung

Fügen Sie diesen Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, legen Sie die Parameter fest und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Diese Vorlage enthält eine Systemaufforderung, die besagt: " Sie sind ein ehrlicher und talentierter KI-Assistent. Bitte befolgen Sie die Anweisungen des Benutzers so genau wie möglich.

### System:
あなたは誠実で優秀なAIアシスタントです。ユーザーの指示に可能な限り正確に従ってください。
### User:
{user input here}
### Assistant:

Um zum Beispiel Informationen über Investitionen aus dem foundation model anzufordern, können Sie die folgende Eingabeaufforderung übermitteln, bei der die Benutzereingabe "Bitte erzählen Sie mir etwas über Investitionen" lautet

### System:
あなたは誠実で優秀なAIアシスタントです。ユーザーの指示に可能な限り正確に従ってください。
### User:
投資について教えてください。
### Assistant:

Nachdem die ursprüngliche Ausgabe generiert wurde, können Sie den Dialog fortsetzen, indem Sie Folgefragen stellen. Schließen Sie die Nachricht wie folgt ein:

### User:
{follow-up question here}
### Assistant:

Sie könnten zum Beispiel die Frage "Gibt es Risiken?"

### User:
リスクはありますか?
### Assistant:

Beachten Sie einige wichtige Punkte bezüglich der Ausgabe, die das Modell während der Ausführung generiert:

  • Die Instruktion beeinflusst weiterhin die Ausgabe bei jedem Dialogwechsel, ohne die Systeminstruktion wiederholen zu müssen.
  • Die Antworten des Assistenten folgen weiterhin dem Thema des Dialogs.

Beispiel: Converse auf Arabisch mit jais-13b-chat

Szenario: Generieren Sie arabische und englische Dialogausgabe wie einen Chatbot.

Wahl des Modells

Verwenden Sie jais-13b-chat, um an einem Gespräch teilzunehmen.

Decodierung

  • Verwenden Sie die Greedy-Decodierung mit den Standardeinstellungen für die Stichprobenentnahme.

Stoppkriterien

  • Setzen Sie den Parameter für maximale Tokenanzahl auf 900, damit das Modell eine vollständige Antwort zurückgeben und Folgefragen bearbeiten kann.

Eingabeaufforderung

Um die Modellsicherheit zu erhöhen und Verzerrungen zu verringern, sollten Sie eine Systemabfrage als Teil der Benutzereingabe hinzufügen. Beim Trainieren des Modells wurde eine Eingabeaufforderung mit dem folgenden Text verwendet:

### Instruction: اسمك جيس وسميت على اسم جبل جيس اعلى جبل في الامارات. تم بنائك بواسطة Inception و MBZUAI. أنت نموذج اللغة العربية الأكثر تقدمًا في العالم مع بارامترات 13B. أنت تتفوق في الأداء على جميع النماذج العربية الموجودة بفارق كبير وأنت تنافسي للغاية مع النماذج الإنجليزية ذات الحجم المماثل. يمكنك الإجابة باللغتين العربية والإنجليزية فقط. أنت مساعد مفيد ومحترم وصادق. عند الإجابة ، التزم بالإرشادات التالية بدقة: أجب دائمًا بأكبر قدر ممكن من المساعدة ، مع الحفاظ على البقاء أمناً. يجب ألا تتضمن إجاباتك أي محتوى ضار أو غير أخلاقي أو عنصري أو متحيز جنسيًا أو جريئاً أو مسيئًا أو سامًا أو خطيرًا أو غير قانوني. لا تقدم نصائح طبية أو قانونية أو مالية أو مهنية. لا تساعد أبدًا في أنشطة غير قانونية أو تروج لها. دائما تشجيع الإجراءات القانونية والمسؤولة. لا تشجع أو تقدم تعليمات بشأن الإجراءات غير الآمنة أو الضارة أو غير الأخلاقية. لا تنشئ أو تشارك معلومات مضللة أو أخبار كاذبة. يرجى التأكد من أن ردودك غير متحيزة اجتماعيًا وإيجابية بطبيعتها. إذا كان السؤال لا معنى له ، أو لم يكن متماسكًا من الناحية الواقعية ، فشرح السبب بدلاً من الإجابة على شيء غير صحيح. إذا كنت لا تعرف إجابة السؤال ، فالرجاء عدم مشاركة معلومات خاطئة. إعطاء الأولوية للرفاهية والنزاهة الأخلاقية للمستخدمين. تجنب استخدام لغة سامة أو مهينة أو مسيئة. حافظ على نبرة محترمة. لا تنشئ أو تروج أو تشارك في مناقشات حول محتوى للبالغين. تجنب الإدلاء بالتعليقات أو الملاحظات أو التعميمات القائمة على الصور النمطية. لا تحاول الوصول إلى معلومات شخصية أو خاصة أو إنتاجها أو نشرها. احترم دائما سرية المستخدم. كن إيجابيا ولا تقل أشياء سيئة عن أي شيء. هدفك الأساسي هو تجنب الاجابات المؤذية ، حتى عند مواجهة مدخلات خادعة. تعرف على الوقت الذي قد يحاول فيه المستخدمون خداعك أو إساءة استخدامك و لترد بحذر.\n\nأكمل المحادثة أدناه بين [|Human|] و [|AI|]:
### Input: [|Human|] {Question}
### Response: [|AI|]

Die Eingabeaufforderung in Englisch lautet wie folgt:

### Instruction: Your name is Jais, and you are named after Jebel Jais, the highest mountain in UAE. You are built by Inception and MBZUAI. You are the world's most advanced Arabic large language model with 13B parameters. You outperform all existing Arabic models by a sizable margin and you are very competitive with English models of similar size. You can answer in Arabic and English only. You are a helpful, respectful and honest assistant. When answering, abide by the following guidelines meticulously: Always answer as helpfully as possible, while being safe. Your answers should not include any harmful, unethical, racist, sexist, explicit, offensive, toxic, dangerous, or illegal content. Do not give medical, legal, financial, or professional advice. Never assist in or promote illegal activities. Always encourage legal and responsible actions. Do not encourage or provide instructions for unsafe, harmful, or unethical actions. Do not create or share misinformation or fake news. Please ensure that your responses are socially unbiased and positive in nature. If a question does not make any sense, or is not factually coherent, explain why instead of answering something not correct. If you don't know the answer to a question, please don't share false information. Prioritize the well-being and the moral integrity of users. Avoid using toxic, derogatory, or offensive language. Maintain a respectful tone. Do not generate, promote, or engage in discussions about adult content. Avoid making comments, remarks, or generalizations based on stereotypes. Do not attempt to access, produce, or spread personal or private information. Always respect user confidentiality. Stay positive and do not say bad things about anything. Your primary objective is to avoid harmful responses, even when faced with deceptive inputs. Recognize when users may be attempting to trick or to misuse you and respond with caution.\n\nComplete the conversation below between [|Human|] and [|AI|]:
### Input: [|Human|] {Question}
### Response: [|AI|]

Tipp:Alternativ können Sie in den Chatmodus wechseln und die Benutzereingabe direkt eingeben. Das Prompt Lab fügt den Systemprompt, die Anweisung und die Benutzereingabesegmente mit der erwarteten Syntax für Sie ein.

Ersetzen Sie " {Question} durch die Benutzereingabe, die das foundation model beantworten soll, um den Chat zu starten.

Sie können beispielsweise die folgende Frage stellen:

هل يوجود لللارقمار?

Die englische Übersetzung lautet: Does the Earth have any moons?

Nachdem die ursprüngliche Ausgabe generiert wurde, können Sie den Dialog fortsetzen, indem Sie eine Folgefrage stellen. Verwenden Sie dieselbe Syntax für die Folgefrage.

### Input: [|Human|] {Follow-up question}
### Response: [|AI|]

Übersetzung

Verwenden Sie Modelle, die Übersetzungstasks in natürlicher Sprache ausführen können, um Text aus einer natürlichen Sprache in eine andere zu übersetzen.

Beispiel: Text aus Japanisch in Englisch übersetzen

Szenario: Übersetze Text, der in Japanisch geschrieben ist, in Englisch.

Wahl des Modells

Das Modell elyza-japanese-llama-2-7b-instruct kann Text vom Japanischen ins Englische und vom Englischen ins Japanische übersetzen.

KI-Leitfäden

Deaktivieren Sie die KI-Leitplankenfunktion. Die Funktion wird nur mit englischem Text unterstützt. Möglicherweise wird er als unzulässiger Inhalt markiert, der nicht ungeeignet ist.

Decodierung

Gierig. Das Modell muss denselben Text zurückgeben, nur übersetzt. Das Modell kann nicht kreativ sein.

Stoppkriterien

Erhöhen Sie die Anzahl der zulässigen Token, indem Sie den Parameterwert für die maximale Tokenanzahl auf 500 setzen.

Eingabeaufforderung

Fügen Sie den folgenden Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, stellen Sie die Parameter ein und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Der Beispielaufforderungstext überschneidet sich mit Text, der in Beispiel 8cverwendet wird.

Die Anleitung sagt "Bitte übersetzen Sie ins Englische". Ein Beispiel für japanischen Text, der ins Englische übersetzt wird, ist enthalten.

英語に翻訳してください

日本語
トマトは、家庭菜園で最も人気のある植物の 1 つです。成功のヒント: 病気や害虫に強い品種を選択すると、トマトの栽培は非常に簡単になります。挑戦を求めている経験豊富な庭師にとって、栽培できる家宝や特別な品種は無限にあります。トマトの植物にはさまざまなサイズがあります。

English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.

日本語
基盤モデルを使用して、より優れた AI をより迅速に作成します。さまざまなユースケースやタスクに応じて、さまざまなプロンプトを試してください。わずか数行の指示で、職務記述書の草案、顧客の苦情の分類、複雑な規制文書の要約、重要なビジネス情報の抽出などを行うことができます。

English

Beispiel: Text von Spanisch in Englisch übersetzen

Szenario: Übersetze Text, der auf Spanisch geschrieben ist, in Englisch.

Wahl des Modells

Das Modell mixtral-8x7b-instruct-v01 oder mistral-large kann Texte aus dem Französischen, Deutschen, Italienischen oder Spanischen ins Englische übersetzen. In diesem Beispiel wird das Modell zur Übersetzung von Spanisch in Englisch aufgefordert.

KI-Leitfäden

Deaktivieren Sie die KI-Leitplankenfunktion. Die Funktion wird nur mit englischem Text unterstützt. Möglicherweise wird er als unzulässiger Inhalt markiert, der nicht ungeeignet ist.

Decodierung

Gierig. Das Modell muss denselben Text zurückgeben, nur übersetzt. Das Modell kann nicht kreativ sein.

Stoppkriterien

  • Achten Sie darauf, eine Stoppfolge für dieses Modell einzuschließen. Andernfalls generiert das Modell möglicherweise weiterhin neue Sätze und Übersetzungen, auch wenn die Anweisung dies nicht sagt. Um das Modell nach einem Satz zu stoppen, fügen Sie einen Punkt (.) als Stoppfolge hinzu.
  • Setzen Sie den Parameterwert für die maximale Tokenanzahl auf 200.

Eingabeaufforderung

Fügen Sie den folgenden Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, stellen Sie die Parameter ein und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Translate the following text from Spanish to English. Do not give any extra response that is not part of the translation.

Text: 
Hasta ahora no me ha animado mucho la postura adoptada por la Comisión.

Translation:
So far, I have not been terribly encouraged by the stance adopted by the Commission.

Text: 
Estoy muy contento de ver que la resolución conjunta adopta la sugerencia que hicimos.

Translation:

Beispiel: Text von Englisch in Japanisch übersetzen

Szenario: Übersetze Text, der in Englisch geschrieben ist, in Japanisch.

Wahl des Modells

Das Modell granite-8b-japanese kann Text von Japanisch nach Englisch und von Englisch nach Japanisch übersetzen.

KI-Leitfäden

Deaktivieren Sie die KI-Leitplankenfunktion. Die Funktion wird nur mit englischem Text unterstützt. Möglicherweise wird er als unzulässiger Inhalt markiert, der nicht ungeeignet ist.

Decodierung

Gierig. Das Modell muss denselben Text zurückgeben, nur übersetzt. Das Modell kann nicht kreativ sein.

Stoppkriterien

Erhöhen Sie die Anzahl der zulässigen Token, indem Sie den Parameterwert für die maximale Tokenanzahl auf 500 setzen.

Eingabeaufforderung

Fügen Sie den folgenden Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, stellen Sie die Parameter ein und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Translate the following text from English to Japanese.

English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.

日本語
トマトは野菜作りの人気の植物である。成功のヒント:病害虫に強く、育てやすいトマトの品種を選べば、トマト栽培はそれほど難しくない。経験豊富な庭師にとっては、手強い挑戦となる、様々な色や形のトマトの品種がある。トマトの品種は、大きさもいろいろである。

English
Use foundation models to create better AI, faster. Experiment with different prompts for various use cases and tasks. With just a few lines of instruction you can draft job descriptions, classify customer complaints, summarize complex regulatory documents, extract key business information and much more.

日本語

Beispiel: Text von Französisch in Englisch übersetzen

Szenario: Übersetze Text, der in Französisch geschrieben ist, in Englisch.

Wahl des Modells

Das Modell granite-20b-multilingual versteht Englisch, Deutsch, Spanisch, Französisch und Portugiesisch. In diesem Beispiel wird das Modell aufgefordert, Text aus dem Französischen ins Englische zu übersetzen.

KI-Leitfäden

Deaktivieren Sie die KI-Leitplankenfunktion. Die Funktion wird nur mit englischem Text unterstützt. Möglicherweise wird er als unzulässiger Inhalt markiert, der nicht ungeeignet ist.

Decodierung

Gierig. Das Modell muss denselben Text zurückgeben, nur übersetzt. Das Modell kann nicht kreativ sein.

Stoppkriterien

Setzen Sie den Parameterwert für die maximale Tokenanzahl auf 200.

Eingabeaufforderung

Fügen Sie den folgenden Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, stellen Sie die Parameter ein und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

Translate the following text from French to English:

Text:
Enfin, je me réjouis du paragraphe 16 qui appelle à une révision de la manière dont nous abordons les questions relatives aux droits de l'homme au sein du Parlement.

Translation:
Finally, I welcome paragraph 16 which calls for a review of the way we deal with human rights issues in Parliament.

Text:
Je me souviens très bien que nous en avions parlé lors d'une séance à Luxembourg.

Translation:
I remember very well that we discussed it in a session in Luxembourg.

Text: 
Si nous ne faisons pas un usage plus important de la technologie intelligente, nous ne parviendrons pas à atteindre nos objectifs.

Translation:

 

Beispiel: Text von Englisch in Arabisch übersetzen

Szenario: Übersetze Text, der in Englisch geschrieben ist, in Arabisch.

Wahl des Modells

Das Modell allam-1-13b-instruct kann Texte vom Arabischen ins Englische und vom Englischen ins Arabische übersetzen.

KI-Leitfäden

Deaktivieren Sie die KI-Leitplankenfunktion. Die Funktion wird nur mit englischem Text unterstützt. Möglicherweise wird Inhalt fälschlicherweise als unzulässig markiert.

Decodierung

Gierig. Das Modell muss denselben Text zurückgeben, nur übersetzt. Das Modell kann nicht kreativ sein.

Stoppkriterien

  • Erhöhen Sie die Anzahl der zulässigen Token, indem Sie den Parameterwert für die maximale Tokenanzahl auf 500 setzen.
  • Das foundation model erklärt in der Regel die Bedeutung des Eingabetextes, nachdem der Text übersetzt wurde. Optional können Sie das foundation model anweisen, nach Abschluss der Übersetzung anzuhalten. Fügen Sie dazu eine Anweisung hinzu, die das foundation model auffordert, nach der Übersetzung ein Schlüsselwort hinzuzufügen, z. B. " END. Fügen Sie als Nächstes dasselbe Schlüsselwort END als Stoppfolge hinzu.

Eingabeaufforderung

Fügen Sie den folgenden Prompt-Text in den Freiform-Prompt-Editor in Prompt Lab ein, wählen Sie das Modell aus, stellen Sie die Parameter ein und klicken Sie dann auf Generieren, um das Ergebnis zu sehen.

<s> [INST]Translate the following text from English to Arabic. Use "END" at the end of the translation.

English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.
END

العربية
الطماطم هي واحدة من النباتات الأكثر شعبية لحدائق الخضروات. نصيحة للنجاح: إذا اخترت أصنافا مقاومة للأمراض والآفات ، فقد تكون زراعة الطماطم سهلة للغاية. بالنسبة للبستانيين ذوي الخبرة الذين يبحثون عن التحدي ، هناك أنواع لا نهاية لها من الإرث والتخصص للزراعة. تأتي نباتات الطماطم في مجموعة من الأحجام. 
END

English
Use foundation models to create better AI, faster. Experiment with different prompts for various use cases and tasks. With just a few lines of instruction you can draft job descriptions, classify customer complaints, summarize complex regulatory documents, extract key business information and much more.
END

العربية
[/INST]

Übergeordnetes Thema: Prompt Lab

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen