0 / 0
Torna alla versione inglese della documentazione

Richiesta del modello della fondazione " granite-13b-chat-v2 " da IBM

Ultimo aggiornamento: 14 mar 2025
Richiesta del modello della fondazione " granite-13b-chat-v2 " da IBM

watsonx.ai Sperimenta con l'inferenza del modello di fondazione IBM granite-13b-chat-v2 per vedere come questo versatile modello di fondazione può aiutarti a svolgere vari compiti.

Il modello di base dell' granite-13b-chat-v2, un modello linguistico di 13 miliardi di parametri, è stato progettato per aiutare gli utenti aziendali a svolgere il proprio lavoro. La serie di modelli di base IBM Granite viene addestrata su set di dati specializzati per le aziende, il che significa che i modelli hanno familiarità con il linguaggio e il gergo specializzati di vari settori e possono generare più facilmente contenuti basati su conoscenze settoriali pertinenti.

Per ulteriori informazioni sul modello della fondazione " granite-13b-chat-v2 ", come il numero di versione e i dettagli di messa a punto delle istruzioni, consultare la scheda del modello.

Il modello della fondazione " granite-13b-chat-v2 " è ottimizzato per i seguenti casi d'uso:

Poiché il modello può essere utilizzato per diversi casi di utilizzo, per ottenere i migliori risultati è necessario regolare i parametri del modello e il prompt di sistema.

Conversazione con granite-13b-chat-v2

Per ottenere i migliori risultati quando si chatta con il modello della fondazione " granite-13b-chat-v2 ", seguire prima queste raccomandazioni e poi sperimentare per ottenere i risultati desiderati.

La tabella seguente elenca i parametri del modello consigliati per richiedere al modello di base dell' granite-13b-chat-v2 e un'attività di conversazione.

Tabella 1. Parametri del modello consigliati dalla richiesta granite-13b-chat-v2 in un'attività di conversazione
Parametro Valore o intervallo consigliato Spiegazione
Decodifica Campionamento La decodifica di campionamento genera un testo più creativo, che aiuta ad aggiungere interesse e personalità alle risposte del chatbot. Tuttavia, può anche portare a un output imprevedibile. È possibile controllare il livello di creatività con la serie successiva di parametri di modello.
P superiore:: 0.85
K superiore: 50
Temperatura: 0.7
Questi parametri di decodifica di campionamento funzionano tutti insieme. Il modello seleziona un sottoinsieme di token da cui scegliere il token da includere nell'output.
Il sottoinsieme include i 50 token più probabili (primi K) o i token che, quando vengono sommati i loro punteggi di probabilità, raggiungono un punteggio totale di 0.85 (primi P). Il valore di temperatura relativamente basso di 0.7 amplifica la differenza nei punteggi token. Di conseguenza, i token che effettuano il taglio sono generalmente i token più probabili.
Per aumentare la creatività e la diversità delle risposte, aumentare il valore della temperatura.
Se il modello ha allucinazioni, abbassare il valore della temperatura.
Penalità di ripetizione 1.05 Impostare la penalità su questo valore basso per evitare che il chatbot suoni robotico ripetendo parole o frasi.
Seed casuale Specificare un valore per questa impostazione solo se si sta eseguendo un test e si desidera rimuovere la casualità come fattore dal test.
Ad esempio, se si desidera modificare la temperatura per vedere in che modo ciò influisce sull'output, inoltrare lo stesso input ripetutamente e modificare ogni volta solo il valore della temperatura. Specificare anche un numero, ad esempio 5, come valore di inizializzazione casuale ogni volta per eliminare le scelte di token casuali che influiscono anche sull'output del modello. Il numero stesso non ha importanza, purché si specifichi lo stesso numero ogni volta.
Numero massimo token 900 La lunghezza massima della finestra di contesto per il modello di base dell' granite-13b-chat-v2, che include sia i token di input che quelli di output, è 8192. Per ulteriori informazioni sui token, vedi Token e tokenizzazione.
Con ogni domanda di follow-up, la cronologia delle conversazioni è inclusa come parte del prompt di modello. Il modello della fondazione " granite-13b-chat-v2 " può tipicamente sostenere una conversazione per un massimo di 5 turni o fino a quando l'input raggiunge una lunghezza di 4.000 token.

 

Per ulteriori informazioni sui parametri del modello, consultare Parametri del modello per la richiesta.

Per richiedere al modello di base dell' granite-13b-chat-v2 e un'attività di chat, prova a seguire questi passaggi:

  1. Dall' Prompt Lab, in modalità chat, scegli il modello base dell' granite-13b-chat-v2.

    Mostra l' granite-13b-chat-v2 a in modalità Chat del Prompt Lab

  2. Dal pannello Parametri modello , applicare i valori dei parametri del modello consigliati dalla Tabella 1.

  3. In modalità chat, è possibile inviare l'input utente senza formattare il testo di input.

    La modalità di chat applica il formato consigliato al testo della richiesta. Puoi cliccare sull'icona del testo Visualizza testo del prompt completo per vedere come è formattato il tuo testo.

  4. Per inoltrare la stessa richiesta in modalità a formato libero, è necessario impostare la richiesta di sistema.

    Aggiungere istruzioni. Ad esempio, il seguente testo di istruzioni è stato usato per addestrare il modello e quindi è familiare al modello.

    Sei Granite Chat, un modello di linguaggio AI sviluppato da IBM. Sei un assistente cauto. Si seguono attentamente le istruzioni. Sei utile e innocuo e segui le linee guida etiche e promuovi un comportamento positivo. Si risponde sempre ai saluti (ad esempio, ciao, ciao, g'day, mattina, pomeriggio, sera, notte, che cosa c'è, piacere di conoscerti, sup) con " Ciao! Sono Granite Chat, creato da IBM. Come posso aiutarvi oggi? ". Non dire altro e non iniziare una conversazione.

    Per copiare il testo del prompt di sistema consigliato, fare clic su Copia negli appunti dal seguente frammento di codice.

    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation.
    

    Inizia una conversazione.

    Di seguito è riportata la struttura ottimale per un prompt utilizzato per un'attività di chat. Il prompt include la sintassi che identifica i seguenti segmenti del prompt:

    • <|system|>: Identifica l'istruzione, nota anche come prompt di sistema per il modello base.
    • <|user|>: il testo della query a cui rispondere.
    • <|assistant|>: un segnale alla fine del prompt che indica che è prevista una risposta generata.

    Quando invii i prompt dall' Prompt Lab, in modalità freeform, utilizza il formato di prompt previsto.

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation.
    <|user|>
    {PROMPT}
    <|assistant|>
    
    
  5. Fai domande di follow-up per mantenere la conversazione in corso.

    Segue la struttura ottimale per un prompt utilizzato per una conversazione con più finestre di dialogo. Se invii prompt dall' Prompt Lab, in modalità freeform, utilizza questo formato di prompt.

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. You always respond to greetings (for example, hi, hello, g'day, morning, afternoon, evening, night, what's up, nice to meet you, sup) with "Hello! I am Granite Chat, created by IBM. How can I help you today?". Please do not say anything else and do not start a conversation.
    <|user|>
    {ROUND1_PROMPT}
    <|assistant|>
    {MODEL_RESPONSE}
    <|user|>
    {ROUND2_PROMPT}
    <|assistant|>
    
    

Per un altro prompt di esempio che illustra il caso di utilizzo della chat, vedi Esempio: Converse with granite-13b-chat-v2.

Per ulteriori informazioni sull'utilizzo della modalità chat in Prompt Lab, vedere Prompt Lab.

Suggerimenti per richiedere granite-13b-chat-v2 per le attività di conversazione

  • Nelle domande di follow-up, evitare i pronomi. Ad esempio, chiedere "Cosa rappresenta la variabile?" invece di "Cosa rappresenta ?"

  • Se si desidera che il modello di base generi una risposta in formato tabella, chiedere esplicitamente al prompt che il modello restituisca una tabella generata in markdown.

Restituzione delle risposte fattuali con il modello RAG

Per guidare il modello di base dell' granite-13b-chat-v2 e a restituire risposte concrete, utilizzare il modello di generazione potenziata dal recupero. La generazione aumentata del richiamo basa l'input che si inoltra al modello con informazioni fattuali sull'argomento da discutere. Per ulteriori informazioni, consultare Retrieval - augmented generation (RAG).

Quando si desidera restituire risposte concrete dal modello di fondazione dell' granite-13b-chat-v2, seguire queste raccomandazioni.

La tabella seguente elenca i parametri del modello consigliati per il modello di base dell' granite-13b-chat-v2, per un'attività di generazione potenziata dal recupero.

Tabella 2. Parametri modello consigliati dalla richiesta granite-13b-chat-v2 in un'attività RAG
Parametro Valore o intervallo consigliato Spiegazione
Decodifica Greedy La decodifica greedy sceglie i token solo dalle opzioni più probabili, che è meglio quando si desiderano risposte fattuali.
Penalità di ripetizione 1 Utilizzare il valore più basso. La ripetizione è accettabile quando l'obiettivo è una risposta fattuale.
Numero massimo token 500 Il modello può rispondere alla domanda nel modo più completo possibile.
Ricorda che la lunghezza massima della finestra di contesto per il modello di base dell' granite-13b-chat-v2, che include sia i token di input che di output, è 8192. Mantieni il tuo input, incluso il documento che aggiungi per mettere a terra il prompt, entro tale limite. Per ulteriori informazioni sui token, vedi Token e tokenizzazione.
Criteri di arresto < |testoendof |> Una caratteristica utile del modello di base dell' granite-13b-chat-v2, è l'inclusione di un token speciale chiamato <|endoftext|> alla fine di ogni risposta. Quando alcuni modelli generativi restituiscono una risposta all'input in meno token del numero massimo consentito, possono ripetere i modelli dall'input. Questo modello impedisce tale ripetizione incorporando una sequenza di arresto affidabile per il prompt.

 

Per ulteriori informazioni sui parametri del modello, consultare Parametri del modello per la richiesta.

Per avviare il modello di base dell' granite-13b-chat-v2 e per un'attività di generazione potenziata dal recupero, prova questi passaggi:

  1. Trovare risorse affidabili con informazioni fattuali sull'argomento di cui si desidera discutere il modello e che si dispone dell'autorizzazione ad utilizzare. Copiare un estratto del documento o dei documenti in un editor di testo o in un altro strumento a cui è possibile accedere in un secondo momento.

    Ad esempio, la risorsa potrebbe essere costituita da informazioni sul prodotto dal proprio sito Web aziendale o dalla documentazione del prodotto.

  2. Dall' Prompt Lab, apri la modalità a forma libera in modo da poter strutturare i tuoi prompt. Scegli il modello con fondazione a granite-13b-chat-v2.

  3. Dal pannello Parametri del modello , impostare i parametri del modello consigliati dalla Tabella 2.

  4. Nel prompt, definire chiaramente il prompt di sistema, l'input dell'utente e dove deve andare l'output del modello.

    Ad esempio, la seguente struttura di prompt può aiutare il modello di base dell' granite-13b-chat-v2 e a restituire informazioni pertinenti.

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question.
    Answer Length: {ANSWER_LENGTH}
    [Document]
    {DOCUMENT1_TITLE}
    {DOCUMENT1_CONTENT}
    [End]
    [Document]
    {DOCUMENT2_TITLE}
    {DOCUMENT2_CONTENT}
    [End]
    [Document]
    {DOCUMENT3_TITLE}
    {DOCUMENT3_CONTENT}
    [End]
    {QUERY}
    <|assistant|>
    
    

    Nota: l'inizio e la fine del contenuto del documento sono indicati dalle tag speciali [Document] e [End]. Utilizzare una sintassi simile se si desidera aggiungere tag speciali che identificano i tipi di contenuto o le intestazioni di sottosezione nei prompt. Quando è stato creato il modello di base dell' granite-13b-chat-v2, è stato addestrato a gestire i seguenti tag speciali:

    • <|system|>: Identifica l'istruzione, nota anche come prompt di sistema per il modello base.
    • <|user|>: il testo della query a cui rispondere.
    • <|assistant|>: un segnale alla fine del prompt che indica che è prevista una risposta generata.

    Non utilizzare la stessa sintassi <|tagname|> per le tag personalizzate o si potrebbe confondere il modello.

  5. Se si copia questo modello di prompt, dopo averlo incollato nell'editor di Prompt Lab, sostituire le variabili segnaposto.

    Tabella 2a: Variabili segnaposto modello RAG
    Variabile segnaposto Descrizione Esempi
    {ANSWER_LENGTH} Facoltativo. Definisce la lunghezza di risposta prevista per la risposta. Le opzioni includono (dalle risposte più brevi a quelle più lunghe): single word, concise, narrative
    {DOCUMENTn_TITLE} Titolo del documento da cui è tratto l'estratto con informazioni fattuali. È possibile includere contenuto da più di un documento. Brochure prodotto
    {DOCUMENTn_CONTENT} Estratto di testo con le informazioni fattuali di cui si desidera che il modello sia in grado di discutere in modo consapevole. Testo di una brochure di marketing, della documentazione del prodotto, del sito Web dell'azienda o di altre risorse attendibili.
    {QUERY} Domanda a cui rispondere di fatto. Una domanda relativa all'argomento trattato nel documento.

     

    Suggerimento:in alternativa, è possibile definire e utilizzare una variabile di prompt per il documento, in modo che il prompt possa essere riutilizzato e il contenuto possa essere sostituito dinamicamente ogni volta. Per ulteriori informazioni, consultare Creazione di prompt riutilizzabili.

Richiamo - esempio di prompt di generazione aumentata

Il prompt seguente utilizza il modello di base dell' granite-13b-chat-v2, per rispondere alle domande sulla messa a punto del prompt.

Nota: il contenuto del documento viene preso dall'argomento Metodi per l'ottimizzazione dei modelli di base .

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
You are an AI language model designed to function as a specialized Retrieval Augmented Generation (RAG) assistant. When generating responses, prioritize correctness, i.e., ensure that your response is grounded in context and user query. Always make sure that your response is relevant to the question.
Answer length: concise
[Document]
How prompt-tuning works
Foundation models are sensitive to the input that you give them. Your input, or how you prompt the model, can introduce context that the model will use to tailor its generated output. Prompt engineering to find the right prompt often works well. However, it can be time-consuming, error-prone, and its effectiveness can be restricted by the context window length that is allowed by the underlying model.
Prompt-tuning a model in the Tuning Studio applies machine learning to the task of prompt engineering. Instead of adding words to the input itself, prompt-tuning is a method for finding a sequence of values that, when added as a prefix to the input text, improve the model's ability to generate the output you want. This sequence of values is called a prompt vector.
Normally, words in the prompt are vectorized by the model. Vectorization is the process of converting text to tokens, and then to numbers defined by the model's tokenizer to identify the tokens. Lastly, the token IDs are encoded, meaning they are converted into a vector representation, which is the input format that is expected by the embedding layer of the model. Prompt-tuning bypasses the model's text-vectorization process and instead crafts a prompt vector directly. This changeable prompt vector is concatenated to the vectorized input text and the two are passed as one input to the embedding layer of the model. Values from this crafted prompt vector affect the word embedding weights that are set by the model and influence the words that the model chooses to add to the output.
To find the best values for the prompt vector, you run a tuning experiment. You demonstrate the type of output that you want for a corresponding input by providing the model with input and output example pairs in training data. With each training run of the experiment, the generated output is compared to the training data output. Based on what it learns from differences between the two, the experiment adjusts the values in the prompt vector. After many runs through the training data, the model finds the prompt vector that works best.
[End]
How does prompt tuning work?
<|assistant|>

Il modello della fondazione " granite-13b-chat-v2 " genera un riepilogo accurato di come funziona la messa a punto tempestiva, basato sulle informazioni contenute nel documento fornito con l'input.

L'output è simile al seguente:

L'ottimizzazione dei prompt è un metodo per migliorare la capacità di un modello di generare output specifici regolando una sequenza di valori denominata vettore di prompt. Invece di aggiungere direttamente parole all'input, l'ottimizzazione dei prompt crea un vettore di prompt che influenza direttamente i pesi di inserimento delle parole impostati dal modello. Questo si ottiene vettorizzando il testo di input e codificando gli ID token in una rappresentazione vettoriale, che viene quindi concatenata con il vettore prompt creato e passata come un input al livello di incorporazione del modello. L'esperimento regola i valori nel vettore di prompt in base alle differenze tra l'output generato e l'output desiderato negli esempi di dati di addestramento. In molti casi, il modello trova il vettore di prompt che funziona meglio.

 

Attività NLP

È possibile utilizzare il modello di base dell' granite-13b-chat-v2 e per attività di elaborazione del linguaggio naturale come la classificazione e l'estrazione. Quando è stato creato il modello di apprendimento profondo ( granite-13b-chat-v2 ), è stato addestrato per eseguire questo tipo di attività di elaborazione del linguaggio naturale.

Durante l'addestramento del modello, i prompt utilizzati per addestrare il modello seguivano un formato specifico per tipo di attività. Quando si utilizza un modello per eseguire una di queste attività, imitare il formato stabilito nei prompt inoltrati.

Classificazione

Per utilizzare il modello di base dell' granite-13b-chat-v2 e per classificare le informazioni, seguire queste raccomandazioni.

La tabella seguente elenca i parametri del modello consigliati per avviare il modello di base dell' granite-13b-chat-v2 e per un'attività di classificazione.

Tabella 3. Parametri del modello consigliati da granite-13b-chat-v2 in un'attività di classificazione
Parametro Valore o intervallo consigliato Spiegazione
Decodifica Greedy La decodifica greedy sceglie i token solo dalle opzioni più probabili, che è meglio quando si desidera classificare il testo.
Penalità di ripetizione 1 Utilizzare il valore più basso. È prevista una ripetizione.
Numero massimo token varianze Utilizzare un valore che copra il numero di token nell'etichetta della classe più lunga, ad esempio 5 o 10. La limitazione dei token incoraggia il modello a restituire solo l'etichetta di classe appropriata e nient'altro.
Criteri di arresto Aggiungere ogni etichetta di classe supportata come sequenza di arresto. L'aggiunta delle classi come sequenze di arresto forza il modello a interrompere la generazione del testo dopo che una classe è stata assegnata all'input.

 

Per avviare il modello di base dell' granite-13b-chat-v2 e per un'attività di classificazione, provare a seguire questi passaggi:

  1. Identificare le classi o le etichette di classificazione che si desidera che il modello assegni all'input. Assicurarsi di elencare queste etichette di classe nel segmento di istruzione del prompt.

    Ad esempio, se si desidera classificare le recensioni dei prodotti cliente come positive o negative, è possibile definire due etichette di classe: Postitive e Negative.

  2. Raccogliere due o tre esempi rappresentativi del tipo di testo di input che si desidera classificare con il modello.

  3. Lavora con il modello della fondazione " granite-13b-chat-v2 " dell' Prompt Lab, in modalità a forma libera, in modo da poter strutturare i tuoi suggerimenti.

  4. Dal pannello Parametri modello , impostare i parametri del modello consigliati dalla Tabella 3.

  5. Nel prompt, identificare chiaramente il prompt di sistema, l'input dell'utente e dove deve andare l'output del modello.

    Ad esempio, la seguente struttura di prompt è stata utilizzata quando il modello di base dell' granite-13b-chat-v2 e è stato addestrato per classificare il testo:

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    {INSTRUCTION}
    Your response should only include the answer. Do not provide any further explanation.
    Here are some examples, complete the last one:
    {INPUT_LABEL}:
    {ICL_INPUT_1}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_1}
    {INPUT_LABEL}:
    {ICL_INPUT_2}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_2}
    {INPUT_LABEL}:
    {TEST_INPUT}
    {OUTPUT_LABEL}:
    <|assistant|>
    
    

    Puoi utilizzare una struttura simile per sfruttare l'addestramento del modello. Sostituire semplicemente le variabili segnaposto nel modello di prompt.

    Tabella 3a: Variabili segnaposto del template di classificazione
    Variabile segnaposto Descrizione Esempi
    {INSTRUCTION} Descrizione dell'attività. Includere un elenco di classi che si desidera che il modello assegni all'input. Per ogni revisione del prodotto, indicare se la revisione è positiva o negativa.
    {INPUT_LABEL} Etichetta breve per il testo da classificare. Input, Customer review, Feedback, Comment
    {OUTPUT_LABEL} Etichetta breve che rappresenta il valore di classificazione. Class
    {ICL_INPUT_N} Facoltativo. Esempi di testo di input da classificare. Aggiungere esempi quando si desidera utilizzare un prompt di pochi istantanee per supportare l'apprendimento nel contesto. The service representative did not listen to a word I said. It was a waste of my time.
    {ICL_OUTPUT_N} Output di esempio con etichette di classe assegnate agli esempi di testo di immissione corrispondenti. Positive, Negative

 

Esempio di prompt di classificazione

La seguente richiesta classifica il feedback condiviso dai clienti sul personale del centro di assistenza.

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
For each feedback, specify whether the content is Positive or Negative. Your response should only include the answer. Do not provide any further explanation.
Here are some examples, complete the last one:
Feedback:
Carol, the service rep was so helpful. She answered all of my questions and explained things beautifully.
Class:
Positive
   
Feedback:
The service representative did not listen to a word I said. It was a waste of my time.
Class:
Negative
   
Feedback:
Carlo was so helpful and pleasant. He was able to solve a problem that I've been having with my software for weeks now.
Class:
<|assistant|>

L'output generato dal modello di base di granite-13b-chat-v2 quando viene inviato questo prompt è Positive.

Estrazione

Per utilizzare il modello di base dell' granite-13b-chat-v2, segui queste raccomandazioni.

La tabella seguente elenca i parametri del modello consigliati per avviare il modello di base dell' granite-13b-chat-v2 e per un'operazione di estrazione.

Tabella 4. Parametri del modello consigliati dalla richiesta granite-13b-chat-v2 in un'attività di estrazione
Parametro Valore o intervallo consigliato Spiegazione
Decodifica Greedy La decodifica greedy sceglie i token solo dalle opzioni più probabili, che è meglio quando si desidera estrarre il testo.
Numero massimo token varianze Utilizzare un valore che copra il numero di token nella citazione più lunga del tipo di informazioni che si desidera estrarre, come 5 o 10. La limitazione dei token incoraggia il modello a restituire solo l'etichetta di classe appropriata e nient'altro.
Criteri di arresto Aggiungere ogni etichetta di classe supportata come sequenza di arresto. L'aggiunta delle classi come sequenze di arresto forza il modello a interrompere la generazione del testo dopo che una classe è stata assegnata all'input.

 

Per avviare il modello di fondazione dell' granite-13b-chat-v2 e per un'operazione di estrazione, provare a seguire questi passaggi:

  1. Identificare i tipi di informazioni che si desidera vengano estratti dal modello dall'input. Assicurarsi di elencare queste etichette del tipo di informazioni nel segmento di istruzione della richiesta.

    Ad esempio, se si desidera estrarre informazioni chiave dal modulo 10-K della US Securities and Exchange Commission di una società, è possibile identificare un tipo di informazioni come Line Of Credit Facility Maximum Borrowing Capacity.

  2. Raccogliere 2 o 3 esempi rappresentativi di testo di input con il tipo di informazioni che si desidera estrarre dal modello.

  3. Lavora con il modello della fondazione " granite-13b-chat-v2 " dell' Prompt Lab, in modalità a forma libera, in modo da poter strutturare i tuoi suggerimenti.

  4. Dal pannello Parametri modello , impostare i parametri del modello consigliati dalla tabella 4.

  5. Identificare chiaramente il prompt di sistema, l'input dell'utente e dove deve andare l'output del modello.

    Ad esempio, la seguente struttura di prompt è stata utilizzata quando il modello di base dell' granite-13b-chat-v2 e è stato addestrato per estrarre informazioni dal testo:

    <|system|>
    You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
    <|user|>
    {INSTRUCTION}
    Your response should only include the answer. Do not provide any further explanation.
    Here are some examples, complete the last one:
    {INPUT_LABEL}:
    {ICL_INPUT_1}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_1}
    {INPUT_LABEL}:
    {ICL_INPUT_2}
    {OUTPUT_LABEL}:
    {ICL_OUTPUT_2}
    {INPUT_LABEL}:
    {TEST_INPUT}
    {OUTPUT_LABEL}:
    <|assistant|>
    
    

    Puoi utilizzare una struttura simile per sfruttare l'addestramento del modello. Sostituire semplicemente le variabili segnaposto nel modello di prompt.

    Tabella 4a: Variabili segnaposto del modello di estrazione
    Variabile segnaposto Descrizione
    {INSTRUCTION} Descrizione dell'attività. Includere un elenco dei tipi di informazioni che si desidera vengano estratti dal modello dall'input.
    {INPUT_LABEL} Etichetta breve per il testo da classificare.
    {OUTPUT_LABEL} Etichetta breve che rappresenta il valore estratto.
    {ICL_INPUT_N} Facoltativo. Esempi di testo di immissione con tipi di informazioni da estrarre. Aggiungere esempi quando si desidera utilizzare un prompt di pochi istantanee per supportare l'apprendimento nel contesto.
    {ICL_OUTPUT_N} Output di esempio con tipi di informazioni estratti dagli input corrispondenti.

 

Esempio di prompt di estrazione

La seguente richiesta estrae il valore della capacità massima di prestito della linea di credito dal modulo SEC 10 - K di una società.

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
Extract the Line Of Credit Facility Maximum Borrowing Capacity from the 10K sentences.
Your response should only include the answer. Do not provide any further explanation.
Here are some examples, complete the last one:
10K Sentence:
The credit agreement also provides that up to $500 million in commitments may be used for letters of credit.
Line Of Credit Facility Maximum Borrowing Capacity:
$500M

10K Sentence:
In March 2020, we upsized the Credit Agreement by $100 million, which matures July 2023, to $2.525 billion.
Line Of Credit Facility Maximum Borrowing Capacity:
$2.525B

10K Sentence:
We prepared our impairment test as of October 1, 2022 and determined that the fair values of each of our reporting units exceeded net book value by more than 50%. Among our reporting units, the narrowest difference between the calculated fair value and net book value was in our Principal Markets segment's Canada reporting unit, whose calculated fair value exceeded its net book value by 53%. Future developments related to macroeconomic factors, including increases to the discount rate used, or changes to other inputs and assumptions, including revenue growth, could reduce the fair value of this and/or other reporting units and lead to impairment. There were no goodwill impairment losses recorded for the nine months ended December 31, 2022. Cumulatively, the Company has recorded $469 million in goodwill impairment charges within its former EMEA ($293 million) and current United States ($176 million) reporting units. Revolving Credit Agreement In October 2021, we entered into a $3.15 billion multi-currency revolving credit agreement (the "Revolving Credit Agreement") for our future liquidity needs. The Revolving Credit Agreement expires, unless extended, in October 2026. Interest rates on borrowings under the Revolving Credit Agreement are based on prevailing market interest rates, plus a margin, as further described in the Revolving Credit Agreement. The total expense recorded by the Company for the Revolving Credit Agreement was not material in any of the periods presented. We may voluntarily prepay borrowings under the Revolving Credit Agreement without premium or penalty, subject to customary "breakage" costs. The Revolving Credit Agreement includes certain customary mandatory prepayment provisions. Interest on Debt Interest expense for the three and nine months ended December 31, 2022 was $27 million and $65 million, compared to $18 million and $50 million for the three and nine months ended December 31, 2021. Most of the interest for the pre-Separation period presented in the historical Consolidated Income Statement reflects the allocation of interest expense associated with debt issued by IBM from which a portion of the proceeds benefited Kyndryl.
Line Of Credit Facility Maximum Borrowing Capacity:
<|assistant|>

L'output generato dal modello di base di granite-13b-chat-v2 quando viene inviato questo prompt è $3.15B.

Ulteriori informazioni

Per saperne di più sul modello di fondazione dell' granite-13b-chat-v2, consulta le seguenti risorse:

Argomento principale: IBM foundation models