0 / 0
Zurück zur englischen Version der Dokumentation

Das granite-13b-chat-v2 -Stiftungsmodell wurde von IBM

Letzte Aktualisierung: 14. März 2025
Das granite-13b-chat-v2 -Stiftungsmodell wurde von IBM

Experimentieren Sie mit dem Ableiten des IBM granite-13b-chat-v2 -Stiftungsmodells in watsonx.ai, um zu sehen, wie dieses vielseitige Stiftungsmodell Ihnen bei der Erfüllung verschiedener Aufgaben helfen kann.

Das granite-13b-chat-v2 -Stiftungsmodell ist ein 13 Milliarden Parameter großes Sprachmodell, das Geschäftsanwendern bei der Erledigung ihrer Arbeit helfen soll. Die IBM Granite -Reihe von Gründungsmodellen wird auf unternehmensspezifische Datensätze trainiert, was bedeutet, dass die Modelle mit der Fachsprache und dem Jargon aus verschiedenen Branchen vertraut sind und leichter Inhalte generieren können, die auf relevantem Branchenwissen basieren.

Weitere Informationen zum granite-13b-chat-v2 -Stiftungsmodell, wie z. B. Versionsnummer und Details zur Abstimmung der Anweisungen, finden Sie auf der Modellkarte.

Das granite-13b-chat-v2 -Stiftungsmodell ist für die folgenden Anwendungsfälle optimiert:

Da das Modell für verschiedene Anwendungsfälle verwendet werden kann, müssen Sie die Modellparameter und die Eingabeaufforderung anpassen, um die besten Ergebnisse zu erzielen.

Gespräch mit granite-13b-chat-v2

Um beim Chatten mit dem granite-13b-chat-v2 -Stiftungsmodell die besten Ergebnisse zu erzielen, befolgen Sie zunächst diese Empfehlungen und experimentieren Sie dann, um die gewünschten Ergebnisse zu erzielen.

In der folgenden Tabelle sind die empfohlenen Modellparameter für die Aufforderung des granite-13b-chat-v2 -Stiftungsmodells zu einer Konversationsaufgabe aufgeführt.

Tabelle 1. Empfohlene Modellparameter aus Eingabeaufforderung granite-13b-chat-v2 in einer Dialogtask
Parameter Empfohlener Wert oder Bereich Erläuterung
Decodierung Stichprobenentnahme Die Stichprobenentschlüsselung generiert mehr kreativen Text, der dazu beiträgt, den Antworten des Chatbots Interesse und Persönlichkeit zu verleihen. Sie kann jedoch auch zu unvorhersehbarer Ausgabe führen. Sie können den Grad der Kreativität mit dem nächsten Satz von Modellparametern steuern.
Obere P: 0,85
Obere K: 50
Temperatur: 0.7
Diese Stichprobenentschlüsselungsparameter arbeiten alle zusammen. Das Modell wählt ein Subset von Tokens aus, aus denen das Token ausgewählt werden soll, das in die Ausgabe eingeschlossen werden soll.
Das Subset enthält die 50 wahrscheinlichsten Tokens (Top K) oder die Tokens, die, wenn ihre Wahrscheinlichkeitsscores summiert werden, einen Gesamtscore von 0.85 (Top P) erreichen. Der relativ niedrige Temperaturwert von 0.7 verstärkt die Differenz bei den Tokenscores. Daher sind die Token, die den Schnitt ausmachen, normalerweise die wahrscheinlichsten Token.
Um die Kreativität und Vielfalt der Antworten zu steigern, erhöhen Sie den Temperaturwert.
Wenn das Modell halbiert, senken Sie den Temperaturwert.
Abwertung bei Wiederholung 1.05 Setzen Sie die Penalisierung auf diesen niedrigen Wert, um zu verhindern, dass der Chatbot durch sich wiederholende Wörter oder Phrasen einen Roboter klingende.
Seedwert für Zufallszahlen Geben Sie für diese Einstellung nur dann einen Wert ein, wenn Sie etwas testen und die Zufälligkeit als Faktor aus dem Test entfernen möchten.
Wenn Sie beispielsweise die Temperatur ändern möchten, um zu sehen, wie sich dies auf die Ausgabe auswirkt, übergeben Sie dieselbe Eingabe wiederholt und ändern Sie jedes Mal nur den Temperaturwert. Also specify a number, such as 5, as the random seed each time to eliminate random token choices from also affecting the model output. Die Zahl selbst spielt keine Rolle, solange Sie jedes Mal dieselbe Zahl angeben.
Max. Token 900 Die maximale Länge des Kontextfensters für das granite-13b-chat-v2 -Stiftungsmodell, das sowohl Eingabe- als auch Ausgabetoken enthält, beträgt 8192. Weitere Informationen zu Tokens finden Sie unter Tokens and tokenization.
Bei jeder Folgefrage wird der Konversationsverlauf in die Modelleingabeaufforderung aufgenommen. Das granite-13b-chat-v2 -Stiftungsmodell kann in der Regel eine Konversation bis zu 5 Runden lang aufrechterhalten oder bis der Input eine Länge von 4.000 Token erreicht.

 

Weitere Informationen zu den Modellparametern finden Sie unter Modellparameter für Bedienerführung.

Führen Sie die folgenden Schritte aus, um das granite-13b-chat-v2 -Stiftungsmodell für eine Chat-Aufgabe aufzurufen:

  1. Wählen Sie im Chat-Modus von Prompt Lab das granite-13b-chat-v2 -Stiftungsmodell aus.

    Zeigt granite-13b-chat-v2 im Chat-Modus des Prompt Lab

  2. Wenden Sie in der Anzeige Modellparameter die empfohlenen Modellparameterwerte aus Tabelle 1 an.

  3. Im Chatmodus können Sie Benutzereingaben übergeben, ohne den Eingabetext zu formatieren.

    Im Chatmodus wird das empfohlene Format auf den Eingabeaufforderungstext angewendet. Sie können auf das Textsymbol Vollständigen Text der Eingabeaufforderung anzeigen klicken, um zu sehen, wie Ihr Text formatiert wird.

  4. Um dieselbe Eingabeaufforderung im unformatierten Modus zu übergeben, müssen Sie die Eingabeaufforderung konfigurieren.

    Fügen Sie Anweisungen hinzu. Beispielsweise wurde der folgende Anweisungstext verwendet, um das Modell zu trainieren, und ist daher dem Modell vertraut.

    Sie sind Granite Chat, ein von IBMentwickeltes KI-Sprachmodell. Sie sind ein vorsichtiger Assistent. Sie befolgen die Anweisungen sorgfältig. Sie sind hilfreich und harmlos und folgen ethischen Richtlinien und fördern positives Verhalten. Sie antworten immer auf Grüße (zum Beispiel, Hallo, hallo, g'day, Morgen, Nachmittag, Abend, Nacht, was oben ist, nett, Sie zu treffen, sup) mit " Hallo! Ich bin Granite Chat, erstellt von IBM. Wie kann ich Ihnen heute helfen? ". Bitte sagen Sie nichts anderes und beginnen Sie kein Gespräch.

    Klicken Sie im folgenden Code-Snippet auf das Symbol In Zwischenablage kopieren , um den empfohlenen Text für die Eingabeaufforderung zu kopieren.

    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation.
    

    Starten Sie einen Dialog.

    Es folgt die optimale Struktur für eine Eingabeaufforderung, die für eine Chataufgabe verwendet wird. Die Eingabeaufforderung enthält eine Syntax, die die folgenden Segmente der Eingabeaufforderung angibt:

    • <|system|>: Identifiziert die Anweisung, die auch als Systemaufforderung für das Fundamentmodell bekannt ist.
    • <|user|>: Der zu beantwortete Abfragetext.
    • <|assistant|>: Ein Hinweis am Ende der Eingabeaufforderung, der angibt, dass eine generierte Antwort erwartet wird.

    Wenn Sie Eingabeaufforderungen von Prompt Lab im Freiform-Modus senden, verwenden Sie das erwartete Eingabeaufforderungsformat.

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation.
    <|user|>
    {PROMPT}
    <|assistant|>
    
    
  5. Stellen Sie weitere Fragen, um das Gespräch am Gang zu halten.

    Es folgt die optimale Struktur für eine Eingabeaufforderung, die für einen Chat mit mehreren Dialogwechseln verwendet wird. Wenn Sie Eingabeaufforderungen von Prompt Lab im Freiform-Modus senden, verwenden Sie dieses Eingabeaufforderungsformat.

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation.
    <|user|>
    {ROUND1_PROMPT}
    <|assistant|>
    {MODEL_RESPONSE}
    <|user|>
    {ROUND2_PROMPT}
    <|assistant|>
    
    

Eine weitere Beispieleingabeaufforderung, die den Chatanwendungsfall veranschaulicht, finden Sie unter Beispiel: Converse with granite-13b-chat-v2.

Weitere Informationen zur Verwendung des Chat-Modus in Prompt Lab finden Sie unter Prompt Lab.

Tipps für die Bedienerführung granite-13b-chat-v2 für Dialogtasks

  • Vermeiden Sie in Folgefragen Pronomen. Fragen Sie zum Beispiel "Was stellt die Variable dar?" anstelle von "Was stellt es dar?"

  • Wenn Sie möchten, dass das Fundamentmodell eine Antwort in Tabellenform generiert, bitten Sie in der Eingabeaufforderung ausdrücklich darum, dass das Modell eine Tabelle zurückgibt, die in Markdown generiert wird.

Rückgabe von sachlichen Antworten mit dem RAG-Muster

Um das granite-13b-chat-v2 -Stiftungsmodell so zu steuern, dass es sachliche Antworten liefert, verwenden Sie das abrufgestützte Generierungsmuster. Bei der abruferweiterten Generierung wird die Eingabe, die Sie an das Modell übergeben, mit faktischen Informationen zu dem zu erörternden Thema versehen. Weitere Informationen finden Sie unter Retrieval-augmented generation (RAG).

Wenn Sie sachliche Antworten aus dem granite-13b-chat-v2 -Stiftungsmodell zurückgeben möchten, befolgen Sie diese Empfehlungen.

In der folgenden Tabelle sind die empfohlenen Modellparameter für die Aufforderung des granite-13b-chat-v2 -Stiftungsmodells für eine abrufgestützte Generierungsaufgabe aufgeführt.

Tabelle 2. Empfohlene Modellparameter aus der Aufforderung granite-13b-chat-v2 in einer RAG-Aufgabe
Parameter Empfohlener Wert oder Bereich Erläuterung
Decodierung Gierig Die Greedy-Decodierung wählt nur Tokens aus den wahrscheinlichsten Optionen aus, was am besten ist, wenn Sie sachliche Antworten wünschen.
Abwertung bei Wiederholung 1 Verwenden Sie den niedrigsten Wert. Wiederholung ist akzeptabel, wenn das Ziel sachliche Antworten ist.
Max. Token 500 Das Modell kann die Frage so vollständig wie möglich beantworten.
Beachten Sie, dass die maximale Länge des Kontextfensters für das granite-13b-chat-v2 -Grundmodell, das sowohl Eingabe- als auch Ausgabemarker enthält, 8192 beträgt. Behalten Sie Ihre Eingabe, einschließlich des Dokuments, das Sie zum Erden der Eingabeaufforderung hinzufügen, innerhalb dieser Begrenzung. Weitere Informationen zu Tokens finden Sie unter Token und Zerlegung in Tokens.
Stoppkriterien < |endoftext | > Eine hilfreiche Funktion des granite-13b-chat-v2 -Stiftungsmodells ist die Aufnahme eines speziellen Tokens namens "<|endoftext|>" am Ende jeder Antwort. Wenn einige abgeleitete Modelle eine Antwort auf die Eingabe in weniger Tokens als die maximal zulässige Anzahl zurückgeben, können sie Muster aus der Eingabe wiederholen. Dieses Modell verhindert eine solche Wiederholung, indem eine zuverlässige Stoppfolge für die Eingabeaufforderung integriert wird.

 

Weitere Informationen zu den Modellparametern finden Sie unter Modellparameter für Bedienerführung.

Um das granite-13b-chat-v2 -Stiftungsmodell für eine abrufgestützte Generationierungsaufgabe aufzurufen, führen Sie die folgenden Schritte aus:

  1. Suchen Sie zuverlässige Ressourcen mit sachlichen Informationen zu dem Thema, das das Modell besprechen soll und zu dessen Verwendung Sie berechtigt sind. Kopieren Sie einen Auszug des Dokuments oder der Dokumente in einen Texteditor oder ein anderes Tool, auf das Sie später zugreifen können.

    Bei der Ressource kann es sich beispielsweise um Produktinformationen von Ihrer eigenen Unternehmenswebsite oder Produktdokumentation handeln.

  2. Öffnen Sie den Freiform-Modus in Prompt Lab, damit Sie Ihre Eingabeaufforderungen strukturieren können. Wählen Sie das Stiftungsmodell granite-13b-chat-v2.

  3. Legen Sie in der Anzeige Modellparameter die empfohlenen Modellparameter aus Tabelle 2 fest.

  4. Definieren Sie in Ihrer Eingabeaufforderung die Systemeingabeaufforderung, die Benutzereingabe und die Position, an die die Ausgabe des Modells gehen soll.

    Zum Beispiel kann die folgende Eingabeaufforderungsstruktur dem granite-13b-chat-v2 -Stiftungsmodell helfen, relevante Informationen zurückzugeben.

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question.
    Answer Length: {ANSWER_LENGTH}
    [Document]
    {DOCUMENT1_TITLE}
    {DOCUMENT1_CONTENT}
    [End]
    [Document]
    {DOCUMENT2_TITLE}
    {DOCUMENT2_CONTENT}
    [End]
    [Document]
    {DOCUMENT3_TITLE}
    {DOCUMENT3_CONTENT}
    [End]
    {QUERY}
    <|assistant|>
    
    

    Hinweis:Anfang und Ende des Dokumentinhalts werden durch die Sondertags [Document] und [End]gekennzeichnet. Verwenden Sie eine ähnliche Syntax, wenn Sie spezielle Tags hinzufügen möchten, die Inhaltstypen oder Unterabschnittsüberschriften in Ihren Eingabeaufforderungen angeben. Als das granite-13b-chat-v2 -Stiftungsmodell erstellt wurde, wurde es für die folgenden speziellen Tags geschult:

    • <|system|>: Identifiziert die Anweisung, die auch als Systemaufforderung für das Fundamentmodell bekannt ist.
    • <|user|>: Der zu beantwortete Abfragetext.
    • <|assistant|>: Ein Hinweis am Ende der Eingabeaufforderung, der angibt, dass eine generierte Antwort erwartet wird.

    Verwenden Sie nicht dieselbe <|tagname|> -Syntax für Ihre angepassten Tags, da andernfalls das Modell verwirrt werden kann.

  5. Wenn Sie diese Vorlage für Aufforderungen kopieren, ersetzen Sie nach dem Einfügen in den Prompt Lab -Editor die Platzhaltervariablen.

    Tabelle 2a: Platzhaltervariablen für RAG-Vorlagen
    Platzhaltervariable Beschreibung Beispiele
    {ANSWER_LENGTH} Optional. Definiert die erwartete Antwortlänge für die Antwort. Zu den Optionen gehören (von den kürzesten bis zu den längsten Antworten): single word, concise, narrative
    {DOCUMENTn_TITLE} Titel des Dokuments, aus dem der Auszug mit sachlichen Informationen entnommen wird. Sie können Inhalte aus mehreren Dokumenten einschließen. Produktbroschüre
    {DOCUMENTn_CONTENT} Textauszug mit den sachlichen Informationen, die das Modell sachkundig diskutieren soll. Text aus einer Marketingbroschüre, einer Produktdokumentation, einer Unternehmenswebsite oder einer anderen vertrauenswürdigen Ressource.
    {QUERY} Frage, die sachlich beantwortet werden muss Eine Frage zu dem Thema, das im Dokument behandelt wird.

     

    Tipp: Alternativ können Sie eine Eingabeaufforderungsvariable für das Dokument definieren und verwenden, sodass die Eingabeaufforderung wiederverwendet und der Inhalt jedes Mal dynamisch ersetzt werden kann. Weitere Informationen finden Sie unter Wiederverwendbare Eingabeaufforderungen erstellen.

Beispiel für eine Eingabeaufforderung für die erweiterte Generierung eines Abrufs

Die folgende Eingabeaufforderung verwendet das granite-13b-chat-v2 -Grundmodell, um Fragen zur Eingabeaufforderungsabstimmung zu beantworten.

Hinweis: Der Dokumentinhalt stammt aus dem Thema Methoden zur Optimierung von Basismodellen .

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question.
Answer length: concise
[Document]
How prompt-tuning works
Foundation models are sensitive to the input that you give them. Your input, or how you prompt the model, can introduce context that the model will use to tailor its generated output. Prompt engineering to find the right prompt often works well. However, it can be time-consuming, error-prone, and its effectiveness can be restricted by the context window length that is allowed by the underlying model.
Prompt-tuning a model in the Tuning Studio applies machine learning to the task of prompt engineering. Instead of adding words to the input itself, prompt-tuning is a method for finding a sequence of values that, when added as a prefix to the input text, improve the model's ability to generate the output you want. This sequence of values is called a prompt vector.
Normally, words in the prompt are vectorized by the model. Vectorization is the process of converting text to tokens, and then to numbers defined by the model's tokenizer to identify the tokens. Lastly, the token IDs are encoded, meaning they are converted into a vector representation, which is the input format that is expected by the embedding layer of the model. Prompt-tuning bypasses the model's text-vectorization process and instead crafts a prompt vector directly. This changeable prompt vector is concatenated to the vectorized input text and the two are passed as one input to the embedding layer of the model. Values from this crafted prompt vector affect the word embedding weights that are set by the model and influence the words that the model chooses to add to the output.
To find the best values for the prompt vector, you run a tuning experiment. You demonstrate the type of output that you want for a corresponding input by providing the model with input and output example pairs in training data. With each training run of the experiment, the generated output is compared to the training data output. Based on what it learns from differences between the two, the experiment adjusts the values in the prompt vector. After many runs through the training data, the model finds the prompt vector that works best.
[End]
How does prompt tuning work?
<|assistant|>

Das granite-13b-chat-v2 -Stiftungsmodell erstellt eine genaue Zusammenfassung der Funktionsweise von Prompt Tuning, die auf Informationen aus dem Dokumentinhalt basiert, der mit dem Input zur Verfügung gestellt wurde.

Die Ausgabe sieht ungefähr wie folgt aus:

Die Optimierung von Eingabeaufforderungen ist eine Methode zur Verbesserung der Fähigkeit eines Modells, durch Anpassung einer Folge von Werten, die als Eingabeaufforderungsvektor bezeichnet werden, bestimmte Ausgaben zu generieren. Anstatt der Eingabe direkt Wörter hinzuzufügen, wird bei der Eingabeaufforderungsoptimierung ein Eingabeaufforderungsvektor erstellt, der die vom Modell festgelegten Gewichtungen für das Einbetten von Wörtern direkt beeinflusst. Dies wird durch eine Vektorisierung von Eingabetext und Codierungstoken-IDs in eine Vektordarstellung erreicht, die dann mit dem manipulierten Eingabeaufforderungsvektor verknüpft und als eine Eingabe an die Einbettungsschicht des Modells übergeben wird. Das Experiment passt die Werte im Eingabeaufforderungsvektor basierend auf den Unterschieden zwischen der generierten Ausgabe und der gewünschten Ausgabe in Trainingsdatenbeispielen an. Bei vielen Durchläufen durch die Trainingsdaten findet das Modell den am besten geeigneten Eingabeaufforderungsvektor.

 

NLP-Tasks

Sie können das granite-13b-chat-v2 -Stiftungsmodell für Aufgaben der natürlichen Sprachverarbeitung wie Klassifizierung und Extraktion verwenden. Als das granite-13b-chat-v2 -Modell erstellt wurde, wurde es darauf trainiert, diese Art von Aufgaben der natürlichen Sprachverarbeitung auszuführen.

Während des Trainings des Modells folgten die Eingabeaufforderungen, die zum Trainieren des Modells verwendet wurden, einem bestimmten Format pro Tasktyp. Wenn Sie das Modell verwenden, um eine dieser Aufgaben auszuführen, imitieren Sie das festgelegte Format in den Eingabeaufforderungen, die Sie übergeben.

Klassifikation

Befolgen Sie diese Empfehlungen, um das granite-13b-chat-v2 -Stiftungsmodell zur Klassifizierung von Informationen zu verwenden.

In der folgenden Tabelle sind die empfohlenen Modellparameter für die Eingabe des granite-13b-chat-v2 -Stiftungsmodells für eine Klassifizierungsaufgabe aufgeführt.

Tabelle 3. Empfohlene Modellparameter von der Eingabeaufforderung granite-13b-chat-v2 in einer Klassifikationstask
Parameter Empfohlener Wert oder Bereich Erläuterung
Decodierung Gierig Die Greedy-Decodierung wählt nur Tokens aus den wahrscheinlichsten Optionen aus, was am besten ist, wenn Sie Text klassifizieren möchten.
Abwertung bei Wiederholung 1 Verwenden Sie den niedrigsten Wert. Wiederholung wird erwartet.
Max. Token unterschiedlich Verwenden Sie einen Wert, der die Anzahl der Tokens in Ihrer längsten Klassenbezeichnung abdeckt, wie z. B. 5 oder 10. Durch die Begrenzung der Token wird das Modell dazu ermutigt, nur die entsprechende Klassenbezeichnung und nichts anderes zurückzugeben.
Stoppkriterien Fügen Sie jede unterstützte Klassenbezeichnung als Stoppfolge hinzu. Das Hinzufügen der Klassen als Stoppfolgen zwingt das Modell, die Generierung von Text zu stoppen, nachdem der Eingabe eine Klasse zugewiesen wurde.

 

Um das granite-13b-chat-v2 -Stiftungsmodell für eine Klassifizierungsaufgabe aufzurufen, führen Sie die folgenden Schritte aus:

  1. Geben Sie die Klassen oder Klassifikationsbezeichnungen an, die das Modell der Eingabe zuordnen soll. Stellen Sie sicher, dass diese Klassenbezeichnungen im Anweisungssegment der Eingabeaufforderung aufgelistet werden.

    Wenn Sie beispielsweise Kundenproduktbewertungen als positiv oder negativ klassifizieren möchten, können Sie zwei Klassenbezeichnungen definieren: Postitive und Negative.

  2. Erfassen Sie zwei oder drei repräsentative Beispiele für den Typ von Eingabetext, den das Modell klassifizieren soll.

  3. Arbeiten Sie mit dem granite-13b-chat-v2 -Stiftungsmodell von Prompt Lab im Freiform-Modus, damit Sie Ihre Eingabeaufforderungen strukturieren können.

  4. Legen Sie in der Anzeige Modellparameter die empfohlenen Modellparameter aus Tabelle 3 fest.

  5. Geben Sie in Ihrer Eingabeaufforderung die Systemeingabeaufforderung, die Benutzereingabe und die Position an, an die die Modellausgabe ausgegeben werden soll.

    Zum Beispiel wurde die folgende Prompt-Struktur verwendet, als das granite-13b-chat-v2 -Stiftungsmodell für die Klassifizierung von Text trainiert wurde:

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    {INSTRUCTION}
    Your response should only include the answer. Do not provide any further explanation.
    Here are some examples, complete the last one:
    {INPUT_LABEL}:
    {ICL_INPUT_1}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_1}
    {INPUT_LABEL}:
    {ICL_INPUT_2}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_2}
    {INPUT_LABEL}:
    {TEST_INPUT}
    {OUTPUT_LABEL}:
    <|assistant|>
    
    

    Sie können eine ähnliche Struktur verwenden, um das Training des Modells zu nutzen. Ersetzen Sie einfach die Platzhaltervariablen in der Eingabeaufforderungsvorlage.

    Tabelle 3a: Platzhaltervariablen für Klassifikationsvorlage
    Platzhaltervariable Beschreibung Beispiele
    {INSTRUCTION} Beschreibung der Task. Fügen Sie eine Liste der Klassen ein, die das Modell der Eingabe zuordnen soll. Geben Sie für jede Produktbewertung an, ob die Prüfung positiv oder negativ ist.
    {INPUT_LABEL} Kurzbezeichnung für den zu klassifizierenden Text. Input, Customer review, Feedback, Comment
    {OUTPUT_LABEL} Kurzbezeichnung, die den Klassifikationswert darstellt. Class
    {ICL_INPUT_N} Optional. Beispiele für zu klassifizierenden Eingabetext. Fügen Sie Beispiele hinzu, wenn Sie eine Eingabeaufforderung mit wenigen Aufrufen verwenden möchten, um das kontextbezogene Lernen zu unterstützen. The service representative did not listen to a word I said. It was a waste of my time.
    {ICL_OUTPUT_N} Beispielausgaben mit Klassenbezeichnungen, die den entsprechenden Eingabetextbeispielen zugeordnet sind. Positive, Negative

 

Beispiel für Klassifikationseingabeaufforderung

Die folgende Eingabeaufforderung klassifiziert Feedback, das Kunden über Mitarbeiter des Support Centers teilen.

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
For each feedback, specify whether the content is Positive or Negative. Your response should only include the answer. Do not provide any further explanation.
Here are some examples, complete the last one:
Feedback:
Carol, the service rep was so helpful. She answered all of my questions and explained things beautifully.
Class:
Positive
   
Feedback:
The service representative did not listen to a word I said. It was a waste of my time.
Class:
Negative
   
Feedback:
Carlo was so helpful and pleasant. He was able to solve a problem that I've been having with my software for weeks now.
Class:
<|assistant|>

Die Ausgabe, die vom granite-13b-chat-v2 -Stiftungsmodell generiert wird, wenn diese Eingabeaufforderung gesendet wird, lautet Positive.

Extraktion

Befolgen Sie diese Empfehlungen, um das granite-13b-chat-v2 -Stiftungsmodell zur Informationsgewinnung zu nutzen.

In der folgenden Tabelle sind die empfohlenen Modellparameter für die Aufforderung des granite-13b-chat-v2 -Stiftungsmodells für eine Extraktionsaufgabe aufgeführt.

Tabelle 4. Empfohlene Modellparameter aus Eingabeaufforderung granite-13b-chat-v2 in einer Extraktionstask
Parameter Empfohlener Wert oder Bereich Erläuterung
Decodierung Gierig Die Greedy-Decodierung wählt nur Tokens aus den wahrscheinlichsten Optionen aus, was am besten ist, wenn Sie Text extrahieren möchten.
Max. Token unterschiedlich Verwenden Sie einen Wert, der die Anzahl der Token in der längsten Erwähnung des Informationstyps abdeckt, den Sie extrahieren möchten, wie z. B. 5 oder 10. Durch die Begrenzung der Token wird das Modell dazu ermutigt, nur die entsprechende Klassenbezeichnung und nichts anderes zurückzugeben.
Stoppkriterien Fügen Sie jede unterstützte Klassenbezeichnung als Stoppfolge hinzu. Das Hinzufügen der Klassen als Stoppfolgen zwingt das Modell, die Generierung von Text zu stoppen, nachdem der Eingabe eine Klasse zugewiesen wurde.

 

Führen Sie die folgenden Schritte aus, um das granite-13b-chat-v2 -Stiftungsmodell für eine Extraktionsaufgabe aufzurufen:

  1. Geben Sie die Informationstypen an, die das Modell aus der Eingabe extrahieren soll. Stellen Sie sicher, dass diese Informationstypbezeichnungen im Anweisungssegment der Eingabeaufforderung aufgelistet werden.

    Wenn Sie beispielsweise Schlüsselinformationen aus dem 10-K-Formular der US Securities and Exchange Commission eines Unternehmens extrahieren möchten, könnten Sie einen Informationstyp wie Line Of Credit Facility Maximum Borrowing Capacityangeben.

  2. Erfassen Sie 2 oder 3 repräsentative Beispiele für Eingabetext mit dem Informationstyp, den das Modell extrahieren soll.

  3. Arbeiten Sie mit dem granite-13b-chat-v2 -Stiftungsmodell von Prompt Lab im Freiform-Modus, damit Sie Ihre Eingabeaufforderungen strukturieren können.

  4. Legen Sie im Fenster Modellparameter die empfohlenen Modellparameter aus Tabelle 4 fest.

  5. Geben Sie die Eingabeaufforderung des Systems, die Benutzereingabe und die Position an, an die die Ausgabe des Modells gehen soll.

    Zum Beispiel wurde die folgende Prompt-Struktur verwendet, als das granite-13b-chat-v2 -Stiftungsmodell darauf trainiert wurde, Informationen aus Text zu extrahieren:

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    {INSTRUCTION}
    Your response should only include the answer. Do not provide any further explanation.
    Here are some examples, complete the last one:
    {INPUT_LABEL}:
    {ICL_INPUT_1}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_1}
    {INPUT_LABEL}:
    {ICL_INPUT_2}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_2}
    {INPUT_LABEL}:
    {TEST_INPUT}
    {OUTPUT_LABEL}:
    <|assistant|>
    
    

    Sie können eine ähnliche Struktur verwenden, um das Training des Modells zu nutzen. Ersetzen Sie einfach die Platzhaltervariablen in der Eingabeaufforderungsvorlage.

    Tabelle 4a: Platzhaltervariablen für Extraktionsvorlage
    Platzhaltervariable Beschreibung
    {INSTRUCTION} Beschreibung der Task. Fügen Sie eine Liste der Informationstypen ein, die das Modell aus der Eingabe extrahieren soll.
    {INPUT_LABEL} Kurzbezeichnung für den zu klassifizierenden Text.
    {OUTPUT_LABEL} Kurzbezeichnung, die den extrahierten Wert darstellt.
    {ICL_INPUT_N} Optional. Beispiele für Eingabetext mit zu extrahierenden Informationstypen. Fügen Sie Beispiele hinzu, wenn Sie eine Eingabeaufforderung mit wenigen Aufrufen verwenden möchten, um das kontextbezogene Lernen zu unterstützen.
    {ICL_OUTPUT_N} Beispielausgaben mit Informationstypen, die aus den entsprechenden Eingaben extrahiert wurden.

 

Beispiel für Extraktionseingabeaufforderung

Die folgende Eingabeaufforderung extrahiert den Wert der maximalen Kreditfazilität für Kreditaufnahme aus dem SEC-10-K-Formular eines Unternehmens.

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
Extract the Line Of Credit Facility Maximum Borrowing Capacity from the 10K sentences.
Your response should only include the answer. Do not provide any further explanation.
Here are some examples, complete the last one:
10K Sentence:
The credit agreement also provides that up to $500 million in commitments may be used for letters of credit.
Line Of Credit Facility Maximum Borrowing Capacity:
$500M

10K Sentence:
In March 2020, we upsized the Credit Agreement by $100 million, which matures July 2023, to $2.525 billion.
Line Of Credit Facility Maximum Borrowing Capacity:
$2.525B

10K Sentence:
We prepared our impairment test as of October 1, 2022 and determined that the fair values of each of our reporting units exceeded net book value by more than 50%. Among our reporting units, the narrowest difference between the calculated fair value and net book value was in our Principal Markets segment's Canada reporting unit, whose calculated fair value exceeded its net book value by 53%. Future developments related to macroeconomic factors, including increases to the discount rate used, or changes to other inputs and assumptions, including revenue growth, could reduce the fair value of this and/or other reporting units and lead to impairment. There were no goodwill impairment losses recorded for the nine months ended December 31, 2022. Cumulatively, the Company has recorded $469 million in goodwill impairment charges within its former EMEA ($293 million) and current United States ($176 million) reporting units. Revolving Credit Agreement In October 2021, we entered into a $3.15 billion multi-currency revolving credit agreement (the "Revolving Credit Agreement") for our future liquidity needs. The Revolving Credit Agreement expires, unless extended, in October 2026. Interest rates on borrowings under the Revolving Credit Agreement are based on prevailing market interest rates, plus a margin, as further described in the Revolving Credit Agreement. The total expense recorded by the Company for the Revolving Credit Agreement was not material in any of the periods presented. We may voluntarily prepay borrowings under the Revolving Credit Agreement without premium or penalty, subject to customary "breakage" costs. The Revolving Credit Agreement includes certain customary mandatory prepayment provisions. Interest on Debt Interest expense for the three and nine months ended December 31, 2022 was $27 million and $65 million, compared to $18 million and $50 million for the three and nine months ended December 31, 2021. Most of the interest for the pre-Separation period presented in the historical Consolidated Income Statement reflects the allocation of interest expense associated with debt issued by IBM from which a portion of the proceeds benefited Kyndryl.
Line Of Credit Facility Maximum Borrowing Capacity:
<|assistant|>

Die Ausgabe, die vom granite-13b-chat-v2 -Stiftungsmodell generiert wird, wenn diese Eingabeaufforderung gesendet wird, lautet $3.15B.

Weitere Informationen

Um mehr über das Stiftungsmodell von granite-13b-chat-v2 zu erfahren, lesen Sie die folgenden Ressourcen:

Übergeordnetes Thema: IBM -Basismodelle