0 / 0
Zurück zur englischen Version der Dokumentation
Förderung des foundation model von IBM
Letzte Aktualisierung: 28. Nov. 2024
Förderung des foundation model von IBM

Experimentieren Sie mit der Inferenz des IBM foundation model in watsonx.ai, um seine Fähigkeiten kennenzulernen und Bereiche zu finden, in denen Sie vielleicht Ihre Fähigkeiten oder Ihr Wissen einbringen möchten.

Das foundation model ist ein großes Sprachmodell mit 7 Milliarden Parametern von IBM.

Wie andere Modelle aus der IBM Granite-Reihe wird das Modell auf unternehmensspezifischen Datensätzen trainiert, was bedeutet, dass das Modell mit der Fachsprache verschiedener Branchen vertraut ist und leichter Inhalte generieren kann, die auf relevantem Branchenwissen beruhen.

Im Gegensatz zu einigen Fundamentmodellen der IBM Granite wurde das foundation model mit Hilfe einer neuartigen Ausrichtungsmethode von IBM Research namens Large-scale Alignment for chatBots (LAB) abgestimmt. Weitere Informationen über die LAB-Abstimmungsmethode finden Sie unter InstructLab.

Erkunden Sie die Taxonomie foundation model

Sie können mehr über die Möglichkeiten des foundation model erfahren, indem Sie die Taxonomie des foundation model erkunden.

Um auf die Taxonomie zuzugreifen, führen Sie die folgenden Schritte aus:

  1. Klicken Sie im watsonx.ai Prompt Lab im Chat-Modus auf das Feld Modell und wählen Sie dann Alle Gründungsmodelle anzeigen.

  2. Suchen Sie die Kachel für das foundation model" granite-7b-lab und klicken Sie darauf.

  3. Klicken Sie auf , um die Registerkarte Trainingstaxonomie der Modellkarte zu öffnen.

    Screenshot der Trainingstaxonomie für das granite-7b-lab foundation model

  4. Erkunden Sie die Kenntnisse und Fähigkeiten in der Taxonomie. Jeder Endknoten des Taxonomiebaums steht für eine Fähigkeit, für die das Modell trainiert wurde. Sie können auf eine Fertigkeit klicken, um die Ausgangsbeispiele zu sehen, die verwendet wurden, um die synthetischen Daten zu generieren, die zum Trainieren des Modells verwendet wurden.

Förderung des foundation model granite-7b-lab

Um die besten Ergebnisse mit dem foundation model zu erzielen, verwenden Sie zunächst die empfohlenen Eingabeaufforderungsstrukturen, wenn Sie das foundation model für verschiedene Aufgaben erstellen. Während Sie mit dem Modell arbeiten, können Sie die Modellparameter und das Eingabeaufforderungsformat anpassen, um die besten Einstellungen für Ihren Anwendungsfall zu finden.

Das foundation model granite-7b-lab ist für die folgenden Verwendungszwecke optimiert:

Klassifikation

Um das foundation model zur Klassifizierung von Informationen zu verwenden, befolgen Sie diese Empfehlungen.

In der folgenden Tabelle sind die empfohlenen Modellparameter für die Eingabeaufforderung des foundation model für eine Klassifizierungsaufgabe aufgeführt.

Tabelle 1. Empfohlene Modellparameter aus der Eingabeaufforderung granite-7b-lab in einer Klassifizierungsaufgabe
Parameter Empfohlener Wert oder Bereich Erläuterung
Decodierung Gierig Bei der gierigen Dekodierung werden nur Token aus den wahrscheinlichsten Optionen ausgewählt, was am besten geeignet ist, wenn Sie Text klassifizieren möchten.
Abwertung bei Wiederholung 1 Verwenden Sie den niedrigsten Wert. Wiederholungen werden erwartet.
Max. Token unterschiedlich Verwenden Sie einen Wert, der die Anzahl der Token in Ihrer längsten Klassenbezeichnung abdeckt, z. B. 3 oder 5. Die Begrenzung der Token veranlasst das Modell dazu, nur das entsprechende Klassenlabel zurückzugeben und nichts anderes.
Stoppkriterien <|endoftext|> Ohne die Stoppsequenz <|endoftext|> könnte das Modell mehr Output als die Klassenbezeichnung erzeugen.

 

Führen Sie die folgenden Schritte aus, um das foundation model für eine Klassifizierungsaufgabe zu veranlassen:

  1. Bestimmen Sie die Klassen oder Klassifizierungsetiketten, die das Modell der Eingabe zuordnen soll. Vergewissern Sie sich, dass Sie diese Klassenbezeichnungen im Anweisungsteil Ihres Prompts aufführen.

    Wenn Sie zum Beispiel die Produktbewertungen von Kunden als positiv oder negativ einstufen wollen, können Sie zwei Klassenetiketten definieren: Postitive und Negative.

  2. Sammeln Sie zwei oder drei repräsentative Beispiele für die Art von Eingabetext, die das Modell klassifizieren soll.

  3. Arbeiten Sie mit dem foundation model aus dem Prompt Lab im Freiform-Modus, damit Sie Ihre Prompts strukturieren können.

  4. Stellen Sie im Bereich Modellparameter die empfohlenen Modellparameter aus Tabelle 1 ein.

  5. Kennzeichnen Sie in Ihrer Eingabeaufforderung eindeutig die Systemaufforderung, die Benutzereingabe und den Ort, an den die Ausgabe des Modells gehen soll.

    Zum Beispiel wurde die folgende Prompt-Struktur verwendet, als das foundation model für die Klassifizierung von Text trainiert wurde:

    <|system|>
    You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    {INSTRUCTION}
    Your response should only include the answer. Do not provide any further explanation.
    Here are some examples, complete the last one:
    {INPUT_LABEL}:
    {ICL_INPUT_1}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_1}
    {INPUT_LABEL}:
    {ICL_INPUT_2}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_2}
    {INPUT_LABEL}:
    {TEST_INPUT}
    {OUTPUT_LABEL}:
    <|assistant|>
    
    

    Sie können eine ähnliche Struktur verwenden, um das Training des Modells zu nutzen. Ersetzen Sie einfach die Platzhaltervariablen in der Prompt-Vorlage.

    Tabelle 3a: Platzhaltervariablen für Klassifizierungsmuster
    Platzhalter-Variable Beschreibung Beispiele
    {INSTRUCTION} Beschreibung der Task. Fügen Sie eine Liste der Klassen ein, die das Modell der Eingabe zuordnen soll. Geben Sie für jede Produktbewertung an, ob sie positiv oder negativ ist.
    {INPUT_LABEL} Kurzbezeichnung für den zu klassifizierenden Text. Input, Customer review, Feedback, Comment
    {OUTPUT_LABEL} Kurze Bezeichnung, die den Klassifizierungswert darstellt. Class
    {ICL_INPUT_N} Optional Beispiele für zu klassifizierenden Eingabetext. Fügen Sie Beispiele hinzu, wenn Sie eine kurze Aufforderung verwenden möchten, um das Lernen im Kontext zu unterstützen. The service representative did not listen to a word I said. It was a waste of my time.
    {ICL_OUTPUT_N} Beispielausgaben mit Klassenbezeichnungen, die den entsprechenden Eingabetextbeispielen zugeordnet sind. Positive, Negative

Beispiel für eine Klassifizierungsaufforderung

Die folgende Aufforderung klassifiziert das Feedback, das Kunden über die Mitarbeiter des Support Centers abgeben. Die folgenden Modellparameter sind festgelegt:

  • Stopp-Sequenz: <|endoftext|>
  • Maximale Anzahl von Spielsteinen: 3
<|system|>
You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
For each feedback, specify whether the content is Positive or Negative. Your response should only include the answer. Do not provide any further explanation.
Here are some examples, complete the last one:
Feedback:
Carol, the service rep was so helpful. She answered all of my questions and explained things beautifully.
Class:
Positive
   
Feedback:
The service representative did not listen to a word I said. It was a waste of my time.
Class:
Negative
   
Feedback:
Carlo was so helpful and pleasant. He was able to solve a problem that I've been having with my software for weeks now.
Class:
<|assistant|>

Die Ausgabe, die vom foundation model erzeugt wird, wenn diese Eingabeaufforderung übermittelt wird, lautet " Positive.

Gespräch mit granite-7b-lab

Um die besten Ergebnisse beim Chatten mit dem foundation model zu erzielen, befolgen Sie zunächst diese Empfehlungen und experimentieren Sie dann, um die von Ihnen gewünschten Ergebnisse zu erzielen.

In der folgenden Tabelle sind die empfohlenen Modellparameter für die Eingabeaufforderung des granite-7b-lab foundation model für eine Konversationsaufgabe aufgeführt.

Tabelle 2. Empfohlene Modellparameter aus der Eingabeaufforderung granite-7b-lab in einer Gesprächsaufgabe
Parameter Empfohlener Wert oder Bereich Erläuterung
Decodierung Stichprobenentnahme Die Sampling-Dekodierung erzeugt einen kreativeren Text, der dazu beiträgt, die Antworten des Chatbots interessanter und persönlicher zu gestalten. Sie kann aber auch zu unvorhersehbaren Ergebnissen führen. Sie können den Grad der Kreativität mit dem nächsten Satz von Modellparametern steuern.
Spitze P: 0,85
Spitze K: 50
Temperatur: 0.7
Diese Sampling-Dekodierungsparameter arbeiten alle zusammen. Das Modell wählt eine Teilmenge von Token aus, aus der es das Token auswählt, das in die Ausgabe aufgenommen werden soll.
Die Teilmenge umfasst die 50 wahrscheinlichsten Token (Top K) oder die Token, die, wenn ihre Wahrscheinlichkeitswerte summiert werden, einen Gesamtwert von 0.85 (Top P) erreichen. Der relativ niedrige Temperaturwert von 0.7 verstärkt den Unterschied in den Token-Werten. Infolgedessen sind die Token, die in die engere Wahl kommen, in der Regel die wahrscheinlichsten Token.
- Um die Kreativität und Vielfalt der Antworten zu steigern, erhöhen Sie den Temperaturwert.
- Wenn das Modell Halluzinationen hat, senken Sie den Temperaturwert.
Abwertung bei Wiederholung 1.05 Setzen Sie die Strafe auf diesen niedrigen Wert, um zu verhindern, dass der Chatbot durch die Wiederholung von Wörtern oder Sätzen roboterhaft klingt.
Seedwert für Zufallszahlen Geben Sie nur dann einen Wert für diese Einstellung an, wenn Sie etwas testen und den Zufallsfaktor aus dem Test entfernen möchten.
Wenn Sie beispielsweise die Temperatur ändern möchten, um zu sehen, wie sich dies auf die Ausgabe auswirkt, übermitteln Sie wiederholt dieselbe Eingabe und ändern jedes Mal nur den Temperaturwert. Geben Sie außerdem jedes Mal eine Zahl, z. B. 5, als Zufallswert an, um zu verhindern, dass die zufällige Auswahl von Token auch die Modellausgabe beeinflusst. Die Nummer selbst spielt keine Rolle, solange Sie jedes Mal die gleiche Nummer angeben.
Sequenz anhalten <|endoftext|> Ohne die Stoppsequenz <|endoftext|> könnte das Modell mehr erklärende Informationen hinzufügen, als notwendig ist.
Max. Token 900 Die maximale Länge des Kontextfensters für das foundation model, das sowohl Eingabe- als auch Ausgabe-Token umfasst, beträgt 8192. Weitere Informationen über Token finden Sie unter Tokens und Tokenisierung.
Bei jeder Folgefrage wird der Gesprächsverlauf als Teil der Musterabfrage einbezogen. Das foundation model kann eine Konversation in der Regel bis zu 5 Runden lang aufrechterhalten oder bis die Eingabe 4.000 Token lang ist.

 

Weitere Informationen über die Modellparameter finden Sie unter Modellparameter für Prompting.

Versuchen Sie die folgenden Schritte, um das foundation model zu einer Chat-Aufgabe aufzufordern:

  1. Wählen Sie im Prompt-Labor im Chat-Modus das foundation model granite-7b-lab.

    Der Chat-Modus verfügt über Standard-Prompt-Parameterwerte, die für den Austausch von Gesprächen optimiert sind, einschließlich eines höheren Max-Token-Wertes.

  2. Wenden Sie im Bereich Modellparameter die empfohlenen Modellparameterwerte aus Tabelle 2 an.

  3. Im Chatmodus können Sie Benutzereingaben übermitteln, ohne den Eingabetext zu formatieren.

    Im Chat-Modus wird der Text der Systemansage für Sie übernommen. Sie können auf das Textsymbol Vollständigen Text der Eingabeaufforderung anzeigen klicken, um zu sehen, wie Ihr Text formatiert ist.

  4. Um die gleiche Eingabeaufforderung im Freiform-Modus zu übermitteln, müssen Sie die System-Eingabeaufforderung einrichten.

    Anweisungen hinzufügen. Der folgende Anleitungstext wurde zum Beispiel zum Trainieren des Modells verwendet und ist dem Modell daher vertraut.

    Sie sind ein KI-Sprachmodell, das von IBM Research entwickelt wurde. Sie sind ein vorsichtiger Assistent. Sie folgen sorgfältig den Anweisungen. Sie sind hilfsbereit und harmlos, befolgen ethische Richtlinien und fördern positives Verhalten.

    Um den empfohlenen Text der Systemeingabeaufforderung zu kopieren, klicken Sie auf das Symbol In die Zwischenablage kopieren im folgenden Codeausschnitt.

    You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    

    Beginnen Sie ein Gespräch.

    Die optimale Struktur für einen Prompt, der für eine Chat-Aufgabe verwendet wird, ist wie folgt. Die Eingabeaufforderung enthält eine Syntax, die die folgenden Segmente der Eingabeaufforderung identifiziert:

    • <|system|>: Kennzeichnet die Anweisung, die auch als Systemprompt für das foundation model bekannt ist.
    • <|user|>: Der zu beantwortende Anfragetext.
    • <|assistant|>: Ein Hinweis am Ende der Aufforderung, der anzeigt, dass eine generierte Antwort erwartet wird.

    Wenn Sie Prompts aus dem Prompt-Labor im Freiform-Modus senden, verwenden Sie das erwartete Prompt-Format.

    <|system|>
    You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    {PROMPT}
    <|assistant|>
    
    

    Beispiel:

    <|system|>
    You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    What is the capital of Massachusetts?
    <|assistant|>
    
    
  5. Stellen Sie Folgefragen, um das Gespräch in Gang zu halten.

    Die optimale Struktur für einen Prompt, der für einen Chat mit mehreren Dialogrunden verwendet wird, ist wie folgt. Wenn Sie Prompts aus dem Prompt-Labor im Freiform-Modus senden, verwenden Sie dieses Prompt-Format.

    <|system|>
    You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    {ROUND1_PROMPT}
    <|assistant|>
    {MODEL_RESPONSE}
    <|user|>
    {ROUND2_PROMPT}
    <|assistant|>
    
    

    Beispiel:

    <|system|>
    You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    What is the capital of Massachusetts?
    <|assistant|>
    The capital of Massachusetts is Boston. Boston is not only the largest city in Massachusetts but also one of the oldest cities in the United States, with a rich history and vibrant culture. It is home to numerous universities, hospitals, and technology companies, making it a significant center for education, biotechnology, finance, and tourism. If you have any specific questions about Boston or Massachusetts, feel free to ask!
    <|user|>
    What US cities are older?
    <|assistant|>
    There are several cities in the United States that are older than Boston and even older than the country itself! Some of these historical gems include:
    
    1. St. Augustine, Florida: Established in 1565, St. Augustine is the oldest continuously inhabited European-established settlement within the borders of the contiguous United States.
    2. Jamestown, Virginia: Founded in 1607, Jamestown was the first permanent English settlement in North America.
    3. Plymouth, Massachusetts: Established in 1620, Plymouth ...
    

Rückgabe von sachlichen Antworten mit dem RAG-Muster

Um das foundation model dazu zu bringen, sachliche Antworten zu liefern, verwenden Sie das Muster der abruferweiterten Generierung. Retrieval-augmented generation begründet die Eingabe, die Sie dem Modell übermitteln, mit faktischen Informationen über das zu diskutierende Thema. Weitere Informationen finden Sie unter Retrieval-augmented generation (RAG).

Wenn Sie sachliche Antworten aus dem foundation model erhalten möchten, beachten Sie diese Empfehlungen.

In der folgenden Tabelle sind die empfohlenen Modellparameter für die Eingabeaufforderung des foundation model für eine abruferweiterte Generierungsaufgabe aufgeführt.

Tabelle 3. Empfohlene Modellparameter aus der Eingabeaufforderung granite-7b-lab in einer RAG-Aufgabe
Parameter Empfohlener Wert oder Bereich Erläuterung
Decodierung Gierig Bei der gierigen Dekodierung werden nur Token aus den wahrscheinlichsten Optionen ausgewählt, was am besten ist, wenn Sie sachliche Antworten wünschen.
Abwertung bei Wiederholung 1 Verwenden Sie den niedrigsten Wert. Wiederholungen sind akzeptabel, wenn das Ziel sachliche Antworten sind.
Max. Token 500 Das Modell kann die Frage so vollständig wie möglich beantworten.
Denken Sie daran, dass die maximale Länge des Kontextfensters für das foundation model, das sowohl Eingabe- als auch Ausgabe-Token umfasst, 8192 beträgt. Halten Sie Ihre Eingaben, einschließlich des Dokuments, das Sie zur Begründung der Aufforderung hinzufügen, innerhalb dieses Rahmens. Weitere Informationen über Token finden Sie unter Tokens und Tokenisierung.
Stoppkriterien <|endoftext|> Ein hilfreiches Merkmal des foundation model ist die Aufnahme eines speziellen Tokens namens <|endoftext|> am Ende jeder Antwort. Wenn einige generative Modelle eine Antwort auf die Eingabe in weniger Token als der maximal zulässigen Anzahl zurückgeben, können sie Muster aus der Eingabe wiederholen. Dieses Modell verhindert solche Wiederholungen, indem es eine verlässliche Stoppsequenz für die Eingabeaufforderung vorsieht.

 

Weitere Informationen über die Modellparameter finden Sie unter Modellparameter für Prompting.

Probieren Sie die folgenden Schritte aus, um das foundation model für eine abruferweiterte Generierungsaufgabe aufzurufen:

  1. Suchen Sie nach zuverlässigen Quellen mit sachlichen Informationen zu dem Thema, das das Modell behandeln soll und für das Sie die Erlaubnis haben, es zu verwenden. Kopieren Sie einen Auszug des Dokuments oder der Dokumente in einen Texteditor oder ein anderes Tool, damit Sie später darauf zugreifen können.

    Bei der Ressource kann es sich beispielsweise um Produktinformationen von Ihrer eigenen Unternehmenswebsite oder um Produktdokumentationen handeln.

  2. Öffnen Sie im Prompt-Labor den Freiform-Modus, damit Sie Ihre Prompts strukturieren können. Wählen Sie das foundation model granite-7b-lab.

  3. Stellen Sie im Bereich Modellparameter die empfohlenen Modellparameter aus Tabelle 3 ein.

  4. Definieren Sie in Ihrer Eingabeaufforderung eindeutig die Systemaufforderung, die Benutzereingabe und den Ort, an den die Ausgabe des Modells gehen soll.

    Beispielsweise kann die folgende Eingabeaufforderung dem foundation model helfen, relevante Informationen zurückzugeben.

    <|system|>
    You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question.
    Answer Length: {ANSWER_LENGTH}
    [Document]
    {DOCUMENT1_TITLE}
    {DOCUMENT1_CONTENT}
    [End]
    [Document]
    {DOCUMENT2_TITLE}
    {DOCUMENT2_CONTENT}
    [End]
    [Document]
    {DOCUMENT3_TITLE}
    {DOCUMENT3_CONTENT}
    [End]
    {QUERY}
    <|assistant|>
    
    

    Hinweis: Der Anfang und das Ende des Dokumentinhalts werden durch die speziellen Tags [Document] und [End] gekennzeichnet. Verwenden Sie eine ähnliche Syntax, wenn Sie spezielle Tags zur Kennzeichnung von Inhaltstypen oder Unterabschnittsüberschriften in Ihre Prompts einfügen möchten. Als das foundation model erstellt wurde, wurde es für die folgenden speziellen Tags trainiert:

    • <|system|>: Kennzeichnet die Anweisung, die auch als Systemprompt für das foundation model bekannt ist.
    • <|user|>: Der zu beantwortende Anfragetext.
    • <|assistant|>: Ein Hinweis am Ende der Aufforderung, der anzeigt, dass eine generierte Antwort erwartet wird.

    Verwenden Sie nicht dieselbe <|tagname|>-Syntax für Ihre benutzerdefinierten Tags, da Sie sonst das Modell verwirren könnten.

  5. Wenn Sie diese Prompt-Vorlage kopieren, fügen Sie sie in den Prompt-Lab-Editor ein und ersetzen Sie die Platzhalter-Variablen.

    Tabelle 4: Platzhaltervariablen der RAG-Vorlage
    Platzhalter-Variable Beschreibung Beispiele
    {ANSWER_LENGTH} Optional Legt die erwartete Antwortlänge für die Antwort fest. Folgende Optionen sind möglich (von der kürzesten bis zur längsten Antwort): single word, concise, narrative
    {DOCUMENTn_TITLE} Titel des Dokuments, dem der Auszug mit den Sachinformationen entnommen ist. Sie können Inhalte aus mehr als einem Dokument einfügen. Produkt-Broschüre
    {DOCUMENTn_CONTENT} Textauszug mit den Sachinformationen, über die das Modell sachkundig sprechen soll. Text aus einer Marketingbroschüre, Produktdokumentation, Unternehmenswebsite oder einer anderen vertrauenswürdigen Quelle.
    {QUERY} Die Frage ist sachlich zu beantworten. Eine Frage zu dem Thema, das in dem Dokument behandelt wird.

     

    Tipp: Alternativ können Sie eine Prompt-Variable für das Dokument definieren und verwenden, so dass der Prompt wiederverwendet werden kann und der Inhalt jedes Mal dynamisch ersetzt werden kann. Weitere Informationen finden Sie unter Erstellung wiederverwendbarer Prompts.

Beispiel einer abruferweiterten Generierungsaufforderung

Die folgende Eingabeaufforderung verwendet das foundation model, um Fragen zur Abstimmung von Eingabeaufforderungen zu beantworten.

Hinweis: Der Inhalt des Dokuments stammt aus dem Thema Methoden zur Abstimmung von Gründungsmodellen.

<|system|>
You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question.
Answer length: concise
[Document]
How prompt-tuning works
Foundation models are sensitive to the input that you give them. Your input, or how you prompt the model, can introduce context that the model will use to tailor its generated output. Prompt engineering to find the right prompt often works well. However, it can be time-consuming, error-prone, and its effectiveness can be restricted by the context window length that is allowed by the underlying model.
Prompt-tuning a model in the Tuning Studio applies machine learning to the task of prompt engineering. Instead of adding words to the input itself, prompt-tuning is a method for finding a sequence of values that, when added as a prefix to the input text, improve the model's ability to generate the output you want. This sequence of values is called a prompt vector.
Normally, words in the prompt are vectorized by the model. Vectorization is the process of converting text to tokens, and then to numbers defined by the model's tokenizer to identify the tokens. Lastly, the token IDs are encoded, meaning they are converted into a vector representation, which is the input format that is expected by the embedding layer of the model. Prompt-tuning bypasses the model's text-vectorization process and instead crafts a prompt vector directly. This changeable prompt vector is concatenated to the vectorized input text and the two are passed as one input to the embedding layer of the model. Values from this crafted prompt vector affect the word embedding weights that are set by the model and influence the words that the model chooses to add to the output.
To find the best values for the prompt vector, you run a tuning experiment. You demonstrate the type of output that you want for a corresponding input by providing the model with input and output example pairs in training data. With each training run of the experiment, the generated output is compared to the training data output. Based on what it learns from differences between the two, the experiment adjusts the values in the prompt vector. After many runs through the training data, the model finds the prompt vector that works best.
[End]
How does prompt tuning work?
<|assistant|>

Das foundation model generiert eine genaue Zusammenfassung der Funktionsweise von Prompt-Tuning, die auf Informationen aus dem Dokumentinhalt basiert, der mit der Eingabe bereitgestellt wurde.

Die Ausgabe sieht in etwa so aus:

Prompt-Tuning ist eine Methode zur Verbesserung der Fähigkeit eines Modells, bestimmte Ergebnisse zu erzeugen, indem eine Folge von Werten, der so genannte Prompt-Vektor, angepasst wird. Anstatt der Eingabe direkt Wörter hinzuzufügen, wird beim Prompt-Tuning ein Prompt-Vektor erstellt, der die vom Modell festgelegten Gewichte für die Worteinbettung direkt beeinflusst. Dies wird durch Vektorisierung des Eingabetextes und Kodierung der Token-IDs in eine Vektordarstellung erreicht, die dann mit dem erstellten Prompt-Vektor verkettet und als eine Eingabe an die Einbettungsschicht des Modells übergeben wird. Bei dem Experiment werden die Werte im Prompt-Vektor auf der Grundlage der Unterschiede zwischen der erzeugten Ausgabe und der gewünschten Ausgabe in den Trainingsdatenbeispielen angepasst. In vielen Durchläufen durch die Trainingsdaten findet das Modell den Prompt-Vektor, der am besten funktioniert.

 

Weitere Informationen

Wenn Sie mehr über das foundation model erfahren möchten, lesen Sie die folgenden Ressourcen:

Übergeordnetes Thema: IBM Gründungsmodelle

Generative KI-Suche und -Antwort
Diese Antworten werden von einem großen Sprachmodell in watsonx.ai basierend auf dem Inhalt der Produktdokumentation generiert. Weitere Informationen