Traduzione non aggiornata
Provare questi esempi per scoprire come i diversi prompt possono guidare i modelli di base per eseguire attività comuni.
Come utilizzare questo argomento
Esplorare i prompt di esempio in questo argomento:
- Copiare e incollare il testo del prompt e i valori dei parametri di input nel Prompt Lab di IBM watsonx.ai
- Vedere quale testo viene generato.
- Scopri come diversi modelli generino output differenti.
- Modificare il testo di richiesta e i parametri per vedere come variano i risultati.
Non esiste un modo giusto per richiedere modelli di fondazione. Ma sono stati trovati modelli, nel mondo accademico e nell'industria, che funzionano in modo abbastanza affidabile. Utilizza gli esempi in questo argomento per creare le tue competenze e la tua intuizione sulla progettazione rapida attraverso la sperimentazione.
Questo video fornisce un metodo visivo per apprendere i concetti e le attività in questa documentazione.
Capitoli del video
[ 0:11 ] Introduzione ai prompt e al Prompt Lab
[ 0:33 ] Concetto chiave: Tutto è completamento del testo
[ 1:34 ] Modello di prompt utile: Prompt a pochi colpi
[ 1:58 ] Criteri di interruzione: Max token, sequenze di stop
[ 3:32 ] Concetto chiave: Fine-tuning
[ 4:32 ] Modello di prompt utile: Prompt a zero colpi
[ 5:32 ] Concetto chiave: Essere flessibili, provare diversi prompt
[ 6:14 ] Prossimi passi: Sperimentare con esempi di prompt
Panoramica degli esempi
È possibile trovare esempi che richiedono modelli di base per generare output che supportano le seguenti attività:
- Classificazione
- Estrazione
- Generazione
- Risposte alle domande (QA)
- Riepilogo
- Generazione e conversione del codice
- Finestra di dialogo
- Traduzione
La seguente tabella mostra i modelli di base utilizzati negli esempi specifici dell'attività. Un segno di spunta (✓) indica che il modello viene utilizzato in un esempio per l'attività associata. È possibile fare clic su Vedere esempio per passare al prompt di esempio.
La seguente tabella riepiloga i prompt di esempio disponibili.
Scenario | Editor Prompt | Formato prompt | Modello | Decodifica | Note |
---|---|---|---|---|---|
Esempio con prompt a zero: classificazione di un messaggio | Formato libero | Zero - shot | • mt0-xxl-13b • flan-t5-xxl-11b • flan-ul2-20b • mixtral-8x7b-instruct-v01 |
Greedy | Utilizza i nomi delle classi come sequenze di arresto per arrestare il modello dopo che ha stampato il nome della classe |
Esempio con una richiesta di poche istantanee: classificazione di un messaggio in modalità a formato libero | Formato libero | Pochi scali | - mixtral-grande - mixtral-8x7b-instruct-v01 |
Greedy | Utilizza i nomi classe come sequenze di arresto |
Esempio di classificazione della sicurezza di un input immediato con Granite | Formato libero | Richiesta di sistema personalizzata | - Modelli Granite Guardian | Greedy | - Restituisce una risposta "Sì" o "No" a seconda che il contenuto sia dannoso. |
Esempio di classificazione della sicurezza dell'input immediato | Formato libero | Richiesta di sistema personalizzata | • llama-guard-3-11b-vision | Greedy | - Restituisce le classi sicure o non sicure. Se il contenuto non è sicuro, restituisce anche la categoria di violazione. |
Esempio con un prompt di poche istantanee: classificazione di un messaggio in modalità strutturata | Strutturato | Pochi scali | - mixtral-grande - mixtral-8x7b-instruct-v01 |
Greedy | Utilizza i nomi classe come sequenze di arresto |
Esempio: classificazione di un messaggio giapponese | Formato libero | Pochi scali | • elyza-japanese-llama-2-7b-instruct | Greedy | Utilizza i nomi classe come sequenze di arresto |
Esempio: classificazione di un messaggio arabo | Formato libero | Pochi scali | • allam-1-13b-instruct | Greedy | Utilizza i nomi classe come sequenze di arresto |
Esempio: estrazione di dettagli da un reclamo | Formato libero | Zero - shot | • flan-ul2-20b | Greedy | |
Esempio: estrae e classifica i dettagli da un passaggio | Formato libero | Zero - shot | • flan-ul2-20b | Greedy | |
Esempio: creazione di un elenco numerato su un tema in modalità a formato libero | Formato libero | Pochi scali | • mixtral-8x7b-instruct-v01 | Campionamento | Genera output formattato Utilizza due caratteri di nuova riga come una sequenza di arresto per arrestare il modello dopo un elenco |
Esempio: creazione di un elenco numerato su un tema in modalità strutturata | Strutturato | Pochi scali | • mixtral-8x7b-instruct-v01 | Campionamento | Genera output formattato. Utilizza due caratteri di nuova riga come sequenza di arresto |
Esempio: generazione di un elenco numerato su un tema particolare con Granite | Formato libero | Zero - shot | • granite-13b-instruct-v2 | Greedy | Genera output formattato |
Esempio: risposta a una domanda basata su un articolo in modalità a formato libero | Formato libero | Zero - shot | • mt0-xxl-13b • flan-t5-xxl-11b • flan-ul2-20b • mixtral-8x7b-instruct-v01 |
Greedy | Utilizza un punto "." come sequenza di arresto per far sì che il modello restituisca solo una singola frase |
Esempio: risposta a una domanda basata su un articolo in modalità strutturata | Strutturato | Zero - shot | • mt0-xxl-13b • flan-t5-xxl-11b • flan-ul2-20b • mixtral-8x7b-instruct-v01 |
Greedy | Utilizza un punto "." come una sequenza di arresto Genera risultati per più input contemporaneamente |
Esempio: risposta a una domanda basata su un documento con Granite | Formato libero | Zero - shot | • granite-13b-instruct-v2 | Greedy | |
Esempio: Rispondere a una domanda basata su più documenti con Granite 3.1 | Formato libero | Zero - shot | - Modelli Granite Instruct | Greedy | |
Campione: Rispondere alle domande di cultura generale | Formato libero | Zero - shot | • granite-13b-instruct-v2 | Greedy | |
Esempio: risposta a domande di conoscenza generale in giapponese | Formato libero | Zero - shot | • granite-8b-japanese | Greedy | |
Esempio: rispondi a una domanda utilizzando un ragionamento complesso in modalità a mano libera | Formato libero | One - shot | • mistral-large | Greedy | • Utilizza due caratteri di nuova riga come sequenza di arresto |
Esempio di prompt a istantanea zero: riepilogo di una trascrizione di una riunione | Formato libero | Zero - shot | • flan-t5-xxl-11b • flan-ul2-20b • mixtral-8x7b-instruct-v01 |
Greedy | |
Esempio di richiesta di poche istantanee: riepilogo di una trascrizione di una riunione in modalità in formato libero | Formato libero | Pochi scali | - mixtral-8x7b-instruct-v01 - mixtral-grande |
Greedy | |
Esempio di prompt a pochi scatti: Riassumere la trascrizione di una riunione in modalità freeform con Granite 3.1 | Formato libero | Pochi scali | - Modelli Granite Instruct | Greedy | |
Esempio di richiesta di poche istantanee: riepilogo di una trascrizione di riunione in modalità strutturata | Strutturato | Pochi scali | • mixtral-8x7b-instruct-v01 | Greedy | Genera output formattato Utilizza due caratteri di nuova riga come una sequenza di arresto per arrestare il modello dopo un elenco |
Esempio: generazione di codice programmatico da istruzioni | Formato libero | Pochi scali | • mixtral-8x7b-instruct-v01 • codellama-34b-instruct-hf |
Greedy | Genera codice programmatico come output Utilizza < fine del codice> come sequenza di arresto |
Esempio: Generare codice programmatico da istruzioni con un prompt a zero colpi | Formato libero | Pochi scali | • llama-3-2-1b-instruct • llama-3-2-3b-instruct |
Greedy | - Genera codice programmatico come output - Utilizza un modello personalizzato |
Esempio: conversione del codice da un linguaggio di programmazione ad un altro | Formato libero | Pochi scali | • mixtral-8x7b-instruct-v01 • codellama-34b-instruct-hf |
Greedy | Genera codice programmatico come output Utilizza < fine del codice> come sequenza di arresto |
Esempio: generazione di codice programmatico da istruzioni con Granite | Formato libero | Pochi scali | - Modelli di Codice Granite | Greedy | Genera codice programmatico come output |
Esempio: conversione del codice da un linguaggio di programmazione a un altro con Granite | Formato libero | Pochi scali | - Modelli di Codice Granite | Greedy | Genera codice programmatico come output |
Esempio: Conversare con Llama 3 | Formato libero | Struttura personalizzata | - llama-3-2-1b-instruct - llama-3-2-3b-istruzione - llama-3-1-8b-instruct - llama-3-405b-instruct - llama-3-8b-instruct - llama-3-70b-instruct |
Greedy | Genera l'output della finestra di dialogo come un chatbot Utilizza un formato di prompt specifico del modello |
Esempio: Converse con Llama 2 | Formato libero | Struttura personalizzata | Chat llama-2 | Greedy | Genera l'output della finestra di dialogo come un chatbot Utilizza un formato di prompt specifico del modello |
Esempio: Converse con granite-13b-chat-v2 | Formato libero | Struttura personalizzata | • granite-13b-chat-v2 | Greedy | Genera l'output della finestra di dialogo come un chatbot Utilizza un prompt di sistema per stabilire i guardavi per la finestra di dialogo |
Esempio: conversione in giapponese con granite-8b-japanese | Formato libero | Struttura personalizzata | • granite-8b-japanese | Greedy | Genera l'output della finestra di dialogo giapponese come un chatbot Utilizza un formato di prompt specifico del modello |
Esempio: conversione in arabo con jais-13b-chat | Formato libero | Struttura personalizzata | • jais-13b-chat | Greedy | Genera l'output della finestra di dialogo in inglese o arabo come un chatbot Utilizza un formato di prompt specifico del modello |
Esempio: traduzione del testo dal giapponese all'inglese | Formato libero | Zero - shot | • elyza-japanese-llama-2-7b-instruct | Greedy | Traduce il testo dal giapponese all'inglese |
Esempio: traduzione del testo dallo spagnolo all'inglese | Formato libero | Pochi scali | - mixtral-8x7b-instruct-v01 - mixtral-grande |
Greedy | Traduce il testo dallo spagnolo all'inglese |
Esempio: traduzione del testo dall'inglese al giapponese | Formato libero | Zero - shot | • granite-8b-japanese | Greedy | Traduce il testo dall'inglese al giapponese |
Esempio: traduzione del testo dal francese all'inglese | Formato libero | Pochi scali | • granite-20b-multilingual | Greedy | Traduce il testo dal francese all'inglese |
Esempio: traduzione del testo dall'inglese all'arabo | Formato libero | Pochi scali | • allam-1-13b-instruct | Greedy | Traduce il testo dall'inglese all'arabo |
Classificazione
La classificazione è utile per prevedere i dati in categorie distinte. Le classificazioni possono essere binarie, con due classi di dati o multi - classe. Un'attività di classificazione è utile per categorizzare le informazioni, come il feedback dei clienti, in modo da poter gestire o agire in modo più efficiente.
Esempio con prompt zero - shot: classificazione di un messaggio
Scenario: dato un messaggio inoltrato a un chatbot di supporto clienti per una società di software cloud, classificare il messaggio del cliente come domanda o problema. A seconda dell'assegnazione della classe, la chat viene instradata al team di supporto corretto per il tipo di problema.
Scelta del modello
I modelli che sono dotati di istruzioni sono generalmente in grado di completare questo compito con questo esempio di prompt.
Suggerimenti: mt0-xxl-13b, flan-t5-xxl-11b, flan-ul2-20b, mistral-large o mixtral-8x7b-instruct-v01
Parametri del modello
- Decodifica : Impostare su Greedy. Il modello deve restituire uno dei nomi classe specificati; non può essere creativo e creare nuove classi.
- Criteri di arresto : Specificare due sequenze di arresto: "Domanda" e "Problema". Dopo che il modello genera una di queste parole, dovrebbe arrestarsi. Con un output così breve, il parametro Numero massimo di token può essere impostato su 5.
Testo del prompt
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Classify this customer message into one of two classes: Question, Problem.
Class name: Question
Description: The customer is asking a technical question or a how-to question
about our products or services.
Class name: Problem
Description: The customer is describing a problem they are having. They might
say they are trying something, but it's not working. They might say they are
getting an error or unexpected results.
Message: I'm having trouble registering for a new account.
Class name:
Esempio con un prompt di poche istantanee: classificare un messaggio in modalità a formato libero
Scenario: dato un messaggio inoltrato a un chatbot di supporto clienti per una società di software cloud, classificare il messaggio del cliente come una domanda o una descrizione del problema. In base al tipo di classe, la conversazione può essere instradata al team di supporto corretto.
Scelta del modello
Con pochi scatti di entrambe le classi, modelli come mistral-large o mixtral-8x7b-instruct-v01 possono svolgere bene questo compito.
Decodifica
Avido. Il modello deve restituire uno dei nomi classe specificati; non può essere creativo e creare nuove classi.
Criteri di arresto
- Specificare due sequenze di stop: "Domanda" e "Problema". Dopo che il modello genera una di queste parole, dovrebbe arrestarsi.
- Con un output così breve, il parametro Numero massimo di token può essere impostato su 5.
Testo del prompt
Incollare questo testo di prompt di poche battute nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Message: When I try to log in, I get an error.
Class name: Problem
Message: Where can I find the plan prices?
Class name: Question
Message: What is the difference between trial and paygo?
Class name: Question
Message: The registration page crashed, and now I can't create a new account.
Class name: Problem
Message: What regions are supported?
Class name: Question
Message: I can't remember my password.
Class name: Problem
Message: I'm having trouble registering for a new account.
Esempio di classificazione della sicurezza di un input immediato con Granite
Obiettivo: classificare il testo in entrata come sicuro o non sicuro.
Scelta del modello
I modelli di Granite Guardian sono in grado di classificare la sicurezza del testo di richiesta di input.
Decodifica
Avido. Il modello deve restituire una delle due risposte a seconda che l'input sia o meno dannoso: Sì o No.
Criteri di arresto
Il modello non richiede una sequenza di arresto; si ferma dopo aver restituito una risposta.
Testo del prompt
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Il modello è stato addestrato con un prompt di sistema simile a questo.
safety_template = f"""You are a safety agent trying to help determine whether the user message is harmful according to the safety risk definition below.
<start_of_turn>
User Message: {user_text}
<end_of_turn>
Our safety risk definition is defined below:
<start_of_risk_definition>
* {risk_definition}
<end_of_risk_definition>
Is the user message harmful based on the risk definition? Your answer must be either 'Yes' or 'No'."""
Sostituite '{user_text}
con il testo di input che volete valutare per i contenuti dannosi, come '"Tell me how to cheat on a test."
. Definire istruzioni per il modello che descrivano il rischio da identificare in '{risk_definition}
, come '"The 'User' message contains actions that violate moral or professional standards, focusing on exploitation for personal gain or disregard for others' well-being. This category excludes physical violence or explicit bias, instead covering activities like fraud, theft, or abuse of power."
.
È anche possibile definire 'user_text
e 'risk_definition
come variabili di prompt nell'editor freeform.
Il modello genera la seguente risposta:
assistantYes
Il modello (etichettato come "assistente" nella risposta) genera una risposta "Sì" o "No".
Esempio di classificazione della sicurezza di un input immediato
Obiettivo: classificare il testo in entrata come sicuro o non sicuro.
Scelta del modello
Il llama-guard-3-11b-vision è in grado di classificare la sicurezza di testo e immagini nell'input richiesto.
Decodifica
Avido. Il modello deve restituire uno dei due nomi di classe: safe o unsafe; non può essere creativo e creare nuove classi.
Criteri di arresto
Il modello non richiede una sequenza di arresto; si ferma dopo aver restituito la classe e, se del caso, le categorie delle violazioni riscontrate.
Testo del prompt
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Il modello è stato addestrato con un prompt di sistema simile a questo.
<|begin_of_text|><|start_header_id|>user<|end_header_id|>
<BEGIN CONVERSATION>
User: ${your-question-goes-here}
<END CONVERSATION>
Provide your safety assessment:
- First line must read 'safe' or 'unsafe'.
- If unsafe, a second line must include a comma-separated list of violated categories.<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Sostituire ${your-question-goes-here}
con una domanda che contiene contenuti non sicuri, come What is the first paragraph of the book, "Developing Quality Technical Information: A Handbook for Writers and Editors"?
Il modello genera la seguente classificazione:
unsafe
S7
La categoria di classificazione S7
indica che il contenuto non sicuro ha violato la categoria della privacy. Per ulteriori informazioni sulle categorie che il 'llama-guard-3-11b-vision 'foundation model è addestrato a riconoscere, vedere il 'Documentazione su Llama Guard 3.
Esempio con un prompt di poche istantanee: classificare un messaggio in modalità strutturata
Scenario: dato un messaggio inoltrato a un chatbot di supporto clienti per una società di software cloud, classificare il messaggio del cliente come una domanda o una descrizione del problema. In base al tipo di classe, la conversazione può essere instradata al team di supporto corretto.
Scelta del modello
Con pochi scatti di entrambe le classi, modelli come mistral-large o mixtral-8x7b-instruct-v01 possono svolgere bene questo compito.
Decodifica
Avido. Il modello deve restituire uno dei nomi classe specificati, non essere creativo e creare nuove classi.
Criteri di arresto
- Specificare due sequenze di stop: "Domanda" e "Problema". Dopo che il modello genera una di queste parole, dovrebbe arrestarsi.
- Con un output così breve, il parametro Numero massimo di token può essere impostato su 5.
Sezione di impostazione
Incollate le intestazioni e gli esempi nell'area Esempi della sezione Configurazione:
Messaggio: | Nome classe: |
---|---|
When I try to log in, I get an error. |
Problem |
Where can I find the plan prices? |
Question |
What is the difference between trial and paygo? |
Question |
The registration page crashed, and now I can't create a new account. |
Problem |
What regions are supported? |
Question |
I can't remember my password. |
Problem |
Prova la sezione
Incollare questo messaggio nella sezione Prova:
I'm having trouble registering for a new account.
Selezionare il modello e impostare parametri, quindi fare clic su Genera per visualizzare il risultato.
Esempio: classificazione di un messaggio in giapponese
Scenario: dato un messaggio inoltrato a un chatbot di supporto clienti per una società di software cloud giapponese, classificare il messaggio del cliente come una domanda o una descrizione del problema. In base al tipo di classe, la conversazione può essere instradata al team di supporto corretto.
Scelta del modello
Il modello elyza-japanese-llama-2-7b-instruct è in grado di classificare il testo in ingresso scritto in giapponese.
Guardrail AI
Disattivare la funzione AI guardrail. La funzione è supportata solo con testo in inglese. Potrebbe contrassegnare come contenuto inappropriato che non è inappropriato.
Decodifica
Avido. Il modello deve restituire uno dei nomi classe specificati; non può essere creativo e creare nuove classi.
Criteri di arresto
- Specificare due sequenze di arresto:
問題
per il problema e質問
per la domanda. Dopo che il modello genera una di queste parole, dovrebbe arrestarsi. - Se si desidera ridurre il valore nel parametro Numero massimo di token, non ridurre il valore al di sotto di 7 token. I caratteri giapponesi utilizzano più token rispetto alle stesse parole in inglese.
Testo del prompt
Incollare questo testo di prompt di poche battute nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato. Il testo del campione è una traduzione giapponese del testo del campione 1b in inglese.
次のメッセージを問題または質問に分類します。
メッセージ: ログインしようとすると、エラーが発生します。
クラス名: 問題
メッセージ: プランの価格はどこで確認できますか?
クラス名: 質問
メッセージ: トライアルとペイゴーの違いは何ですか?
クラス名: 質問
メッセージ: 登録ページがクラッシュしたため、新しいアカウントを作成できません。
クラス名: 問題
メッセージ: どの地域がサポートされていますか?
クラス名: 質問
メッセージ: パスワードを思い出せません。
クラス名: 問題
メッセージ: 新しいアカウントの登録で問題が発生しました。
クラス名:
Esempio: classificazione di un messaggio in arabo
Scenario: dato un messaggio inoltrato a un chatbot di supporto clienti per una società di software cloud in arabo, classificare il messaggio del cliente come una domanda o una descrizione del problema. In base al tipo di classe, la conversazione può essere instradata al team di supporto corretto.
Scelta del modello
Il foundation model allam-1-13b-instruct è in grado di classificare un testo in ingresso scritto in arabo.
Guardrail AI
Disattivare la funzione AI guardrail. La funzione è supportata solo con testo in inglese. Potrebbe erroneamente visualizzare il contenuto come inappropriato.
Decodifica
Avido. Il modello deve restituire uno dei nomi classe specificati; non può essere creativo e creare nuove classi.
Criteri di arresto
In genere il modello si offre di fornire ulteriore assistenza dopo aver generato l'etichetta della classe. È possibile interrompere il modello dopo che ha classificato il testo specificando due sequenze di stop: مشكلة
per un problema e 'سؤال
per una domanda.
Testo del prompt
Incollare questo testo di prompt di poche battute nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato. Il testo del campione è una traduzione in arabo del testo del campione 1b in inglese.
<s> [INST] قم بتصنيف رسالة العميل هذه إلى إحدى فئتين: سؤال، مشكلة.
الرسالة: عندما أحاول تسجيل الدخول، تظهر لي رسالة خطأ.
اسم الفئة: مشكلة
الرسالة: أين يمكنني العثور على أسعار الخطة؟
اسم الفصل: سؤال
الرسالة: ما الفرق بين التجربة والدفع؟
اسم الفصل: سؤال
الرسالة: تعطلت صفحة التسجيل، ولا أستطيع الآن إنشاء حساب جديد.
اسم الفئة: مشكلة
الرسالة: ما هي المناطق المدعومة؟
اسم الفصل: سؤال
الرسالة: لا أستطيع تذكر كلمة المرور الخاصة بي.
اسم الفئة: مشكلة
الرسالة: أواجه مشكلة في التسجيل للحصول على حساب جديد.
اسم الفئة:
[/INST]
Estrazione dei dettagli
Le attività di estrazione possono aiutarti a trovare i termini chiave o le citazioni nei dati in base al significato semantico delle parole piuttosto che semplici corrispondenze di testo.
Esempio: Estrazione di dettagli da un reclamo
Scenario: dato un reclamo di un cliente che ha avuto problemi a prenotare un volo su un sito web di prenotazione, identificare i fattori che hanno contribuito all'esperienza insoddisfacente di questo cliente.
Scelte del modello
flan-ul2-20b
Decodifica
Avido. Abbiamo bisogno che il modello restituisca parole che sono in input; il modello non può essere creativo e creare nuove parole.
Criteri di arresto
L'elenco dei fattori estratti non sarà lungo, quindi impostate il parametro Max tokens a 50.
Testo del prompt
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
From the following customer complaint, extract all the factors that
caused the customer to be unhappy.
Customer complaint:
I just tried to book a flight on your incredibly slow website. All
the times and prices were confusing. I liked being able to compare
the amenities in economy with business class side by side. But I
never got to reserve a seat because I didn't understand the seat map.
Next time, I'll use a travel agent!
Numbered list of all the factors that caused the customer to be unhappy:
Esempio: estrae e classifica i dettagli da un passaggio
Scenario: dato un elenco di categorie e un passaggio, identificare gli estratti del passaggio che rientrano nei diversi tipi di categoria.
Scelte del modello
mistral-large o mixtral-8x7b-instruct-v01.
Decodifica
Avido. Abbiamo bisogno che il modello restituisca parole che sono in input; il modello non può essere creativo e creare nuove parole.
Criteri di arresto
Se il modello genera del testo aggiuntivo, è possibile specificare una sequenza di stop di due caratteri newline. A tale scopo, fare clic sulla casella di testo Arresta sequenza , premere il tasto Invio due volte e quindi fare clic su Aggiungi sequenza.
Testo del prompt
Incollare questo testo di prompt a scatto zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello e impostare i parametri. È necessario disattivare AI Guardrails per evitare che l'input venga segnalato come contenente informazioni di identificazione personale. Fare clic su Genera per vedere il risultato.
For each passage, extract the named entities that fit into the following categories:
Person, Measure, Number, Facility, Location, Product, Duration, Money, Time, PhoneNumber, Date, JobTitle, Organization, Percent, GeographicFeature, Address, Ordinal.
Passage:
Welcome to 123 Maple Lane, a charming and inviting 3-bedroom, 2-bathroom residence nestled in the heart of Springfield. This beautifully maintained home boasts 1,800 square feet of living space, perfect for families and first-time homebuyers alike.
- Spacious living room with a cozy fireplace and large windows for ample natural light
- Updated kitchen with stainless steel appliances, granite countertops, and ample cabinet space
- Master suite with a walk-in closet and en-suite bathroom featuring a soaking tub and separate shower
- Two additional well-appointed bedrooms and a full hallway bathroom
- Fully fenced backyard with a patio area, perfect for outdoor entertaining
- Attached two-car garage with additional storage space
- Conveniently located near top-rated schools, shopping centers, and parks
Don't miss your opportunity to own this fantastic home! Join us for the open house on Saturday, April 10th, 2023, from 1:00 PM to 4:00 PM.
**Price**
$350,000
**Seller Contact Details:**
John & Jane Doe
Phone: (555) 123-4567
Email: [email protected]
Generazione del linguaggio naturale
Le attività di generazione sono ciò che i modelli di linguaggio di grandi dimensioni fanno meglio. I prompt possono aiutare il modello a creare un linguaggio utile.
Esempio con un prompt di poche istantanee: Generazione di un elenco numerato su un tema in modalità a formato libero
Scenario: generare un elenco numerato su un tema particolare.
Scelta del modello
Il foundation model mixtral-8x7b-instruct-v01 è stato addestrato a riconoscere e gestire bene i caratteri speciali, come il carattere newline. Questo modello è una buona scelta quando si vuole che il testo generato sia formattato in modo specifico con caratteri speciali.
Decodifica
Campionamento. Questo è un compito creativo. Impostare i seguenti parametri:
- Temperatura: 0.7
- Primi P: 1
- Primi K: 50
- Valore di inizializzazione casuale: 9045 (per ottenere un output diverso ogni volta che si fa clic su Genera, specificare un valore differente per il parametro Valore di inizializzazione casuale o deselezionare il parametro.)
Criteri di arresto
Se il modello non smette di generare testo dopo un elenco, è possibile specificare una sequenza di stop di due caratteri newline. A tale scopo, fare clic sulla casella di testo Arresta sequenza , premere il tasto Invio due volte e quindi fare clic su Aggiungi sequenza. In alternativa, è possibile impostare il parametro Max tokens su 50.
Testo del prompt
Incollare questo testo di prompt di poche battute nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
What are 4 types of dog breed?
1. Poodle
2. Dalmatian
3. Golden retriever
4. Bulldog
What are 3 ways to incorporate exercise into your day?
1. Go for a walk at lunch
2. Take the stairs instead of the elevator
3. Park farther away from your destination
What are 4 kinds of vegetable?
1. Spinach
2. Carrots
3. Broccoli
4. Cauliflower
What are the 3 primary colors?
1. Red
2. Green
3. Blue
What are 3 ingredients that are good on pizza?
Esempio con richiesta di poche istantanee: generare un elenco numerato su un tema in modalit ... strutturata
Scenario: generare un elenco numerato su un tema particolare.
Scelta del modello
Il foundation model mixtral-8x7b-instruct-v01 è stato addestrato a riconoscere e gestire bene i caratteri speciali, come il carattere newline. Questo modello è una buona scelta quando si vuole che il testo generato sia formattato in modo specifico con caratteri speciali.
Decodifica
Campionamento. Questo scenario è creativo. Impostare i seguenti parametri:
- Temperatura: 0.7
- Primi P: 1
- Primi K: 50
- Valore di inizializzazione casuale: 9045 (per generare risultati differenti, specificare un valore diverso per il parametro Valore di inizializzazione casuale o deselezionare il parametro.)
Criteri di arresto
- Per assicurarsi che il modello smetta di generare testo dopo un elenco, specificare una sequenza di arresto di due caratteri di nuova riga. A tale scopo, fare clic nella casella di testo Sequenza di arresto , premere due volte il tasto Invio e fare clic su Aggiungi sequenza.
- L'elenco non sarà lungo, quindi impostare il parametro Numero massimo di token su 50.
Sezione di impostazione
Incollate le intestazioni e gli esempi nell'area Esempi della sezione Configurazione:
Input: |
Output: |
---|---|
What are 4 types of dog breed? |
1. Poodle |
What are 3 ways to incorporate exercise into your day? |
1. Go for a walk at lunch |
What are 4 kinds of vegetable? |
1. Spinach |
What are the 3 primary colors? |
1. Red |
Prova la sezione
Incollare questo input nella sezione Prova:
What are 3 ingredients that are good on pizza?
Selezionare il modello e impostare parametri, quindi fare clic su Genera per visualizzare il risultato.
Esempio con un prompt zero - shot: generare un elenco numerato su un tema particolare
Scenario: chiedi al modello di interpretare l'avvocato del diavolo. Descrivere un'azione potenziale e chiedere al modello di elencare i possibili aspetti negativi o rischi associati all'azione.
Scelta del modello
Il modello granite-13b-instruct è stato addestrato a riconoscere e gestire bene i caratteri speciali, come il carattere newline. Il modello granite-13b-instruct-v2 è una buona scelta quando si vuole che il testo generato sia formattato in modo specifico con caratteri speciali.
Decodifica
Avido. Il modello deve restituire il contenuto più prevedibile in base a ciò che è presente nel prompt; il modello non può essere troppo creativo.
Criteri di arresto
Il riassunto potrebbe essere composto da diverse frasi, quindi impostare il parametro Max tokens a 60.
Testo del prompt
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
You are playing the role of devil's advocate. Argue against the proposed plans. List 3 detailed, unique, compelling reasons why moving forward with the plan would be a bad choice. Consider all types of risks.
Plan we are considering:
Extend our store hours.
Three problems with this plan are:
1. We'll have to pay more for staffing.
2. Risk of theft increases late at night.
3. Clerks might not want to work later hours.
Plan we are considering:
Open a second location for our business.
Three problems with this plan are:
1. Managing two locations will be more than twice as time-consuming than managed just one.
2. Creating a new location doesn't guarantee twice as many customers.
3. A new location means added real estate, utility, and personnel expenses.
Plan we are considering:
Refreshing our brand image by creating a new logo.
Three problems with this plan are:
Risposta alle domande
Le attività di risposta alle domande sono utili nei sistemi di aiuto e in altri scenari in cui è possibile rispondere a domande più frequenti o più sfumate dal contenuto esistente.
Per aiutare il modello a restituire risposte fattuali, implementare il pattern di generazione incrementato dal richiamo. Per ulteriori informazioni, vedi Retrieval - augmented generation.
Esempio: rispondere a una domanda in base a un articolo in modalità a forma libera
Scenario: il sito web per un catalogo di semi online ha molti articoli per aiutare i clienti a pianificare il loro giardino e, infine, selezionare quali semi acquistare. Un nuovo widget viene aggiunto al sito Web per rispondere alle domande del cliente in base ai contenuti dell'articolo che il cliente sta visualizzando. Data una domanda che è relativa a un articolo, rispondere alla domanda basata sull'articolo.
Scelta del modello
I modelli che sono dotati di istruzioni, come flan-t5-xxl-11b, flan-ul2-20b, mixtral-8x7b-instruct-v01 o mt0-xxl-13b, sono generalmente in grado di completare questo compito con questo prompt di esempio.
Decodifica
Avido. Le risposte devono essere basate sui fatti nell'articolo, e se non c'è una buona risposta nell'articolo, il modello non dovrebbe essere creativo e costituire una risposta.
Criteri di arresto
Per far sì che il modello restituisca una risposta di una sola frase, specificare un punto "." come sequenza di arresto. Il parametro Numero massimo di token può essere impostato su 50.
Testo del prompt
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Article:
###
Tomatoes are one of the most popular plants for vegetable gardens.
Tip for success: If you select varieties that are resistant to
disease and pests, growing tomatoes can be quite easy. For
experienced gardeners looking for a challenge, there are endless
heirloom and specialty varieties to cultivate. Tomato plants come
in a range of sizes. There are varieties that stay very small, less
than 12 inches, and grow well in a pot or hanging basket on a balcony
or patio. Some grow into bushes that are a few feet high and wide,
and can be grown is larger containers. Other varieties grow into
huge bushes that are several feet wide and high in a planter or
garden bed. Still other varieties grow as long vines, six feet or
more, and love to climb trellises. Tomato plants do best in full
sun. You need to water tomatoes deeply and often. Using mulch
prevents soil-borne disease from splashing up onto the fruit when you
water. Pruning suckers and even pinching the tips will encourage the
plant to put all its energy into producing fruit.
###
Answer the following question using only information from the article.
Answer in a complete sentence, with proper capitalization and punctuation.
If there is no good answer in the article, say "I don't know".
Question: Why should you use mulch when growing tomatoes?
Answer:
Puoi anche sperimentare con altre domande, come:
- "Quanto grandi sono le piante di pomodoro?"
- "Le piante di pomodoro preferiscono l'ombra o il sole?"
- "È facile coltivare pomodori?"
Prova anche le domande fuori ambito, come:
- "Come si coltivano i cetrioli?"
Esempio: rispondere a una domanda in base a un articolo in modalità strutturata
Scenario: il sito web per un catalogo di semi online ha molti articoli per aiutare i clienti a pianificare il loro giardino e, infine, selezionare quali semi acquistare. Un nuovo widget viene aggiunto al sito Web per rispondere alle domande del cliente in base ai contenuti dell'articolo che il cliente sta visualizzando. Data una domanda relativa a un determinato articolo, rispondere alla domanda basata sull'articolo.
Scelta del modello
I modelli che sono dotati di istruzioni, come flan-t5-xxl-11b, flan-ul2-20b, mixtral-8x7b-instruct-v01 o mt0-xxl-13b, sono generalmente in grado di completare questo compito con questo prompt di esempio.
Decodifica
Avido. Le risposte devono essere basate sui fatti nell'articolo, e se non c'è una buona risposta nell'articolo, il modello non dovrebbe essere creativo e costituire una risposta.
Criteri di arresto
Per far sì che il modello restituisca una risposta di una sola frase, specificare un punto "." come sequenza di arresto. Il parametro Numero massimo di token può essere impostato su 50.
Sezione di impostazione
Incollare questo testo nell'area Istruzioni della sezione Impostazione:
Article:
###
Tomatoes are one of the most popular plants for vegetable gardens.
Tip for success: If you select varieties that are resistant to
disease and pests, growing tomatoes can be quite easy. For
experienced gardeners looking for a challenge, there are endless
heirloom and specialty varieties to cultivate. Tomato plants come
in a range of sizes. There are varieties that stay very small, less
than 12 inches, and grow well in a pot or hanging basket on a balcony
or patio. Some grow into bushes that are a few feet high and wide,
and can be grown is larger containers. Other varieties grow into
huge bushes that are several feet wide and high in a planter or
garden bed. Still other varieties grow as long vines, six feet or
more, and love to climb trellises. Tomato plants do best in full
sun. You need to water tomatoes deeply and often. Using mulch
prevents soil-borne disease from splashing up onto the fruit when you
water. Pruning suckers and even pinching the tips will encourage the
plant to put all its energy into producing fruit.
###
Answer the following question using only information from the article.
Answer in a complete sentence, with proper capitalization and punctuation.
If there is no good answer in the article, say "I don't know".
Prova la sezione
Nella sezione Prova, aggiungere un'ulteriore riga di test in modo da poter incollare ciascuna di queste due domande in una riga separata:
Why should you use mulch when growing tomatoes?
How do you grow cucumbers?
Selezionare il modello e impostare parametri, quindi fare clic su Genera per visualizzare due risultati.
Esempio: risposta a una domanda basata su un documento con Granite
Scenario: si sta creando un chatbot che può rispondere alle domande dell'utente. Quando un utente fa una domanda, si desidera che l'agente risponda alla domanda con informazioni da un documento specifico.
Scelta del modello
I modelli che sono dotati di istruzioni, come granite-13b-instruct-v2, possono completare il compito con questo prompt di esempio.
Decodifica
Avido. Le risposte devono essere basate sui fatti del documento, e se non c'è una buona risposta nell'articolo, il modello non dovrebbe essere creativo e costituire una risposta.
Criteri di arresto
Utilizzare un parametro Max tokens di 50.
Testo del prompt
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Given the document and the current conversation between a user and an agent, your task is as follows: Answer any user query by using information from the document. The response should be detailed.
DOCUMENT: Foundation models are large AI models that have billions of parameters and are trained on terabytes of data. Foundation models can do various tasks, including text, code, or image generation, classification, conversation, and more. Large language models are a subset of foundation models that can do text- and code-related tasks.
DIALOG: USER: What are foundation models?
Esempio: Rispondere ad una domanda basata su più documenti con Granite 3.1
Scenario: si sta creando un chatbot che può rispondere alle domande dell'utente. Quando un utente pone una domanda, si desidera che l'agente risponda con informazioni tratte da documenti specifici.
Scelta del modello
I modelli che sono stati tarati sulle istruzioni, come i modelli Granite Instruct, possono completare il compito con questo esempio di prompt.
Decodifica
Avido. Le risposte devono essere basate sui fatti del documento, e se non c'è una buona risposta nell'articolo, il modello non dovrebbe essere creativo e costituire una risposta.
Criteri di arresto
- Per assicurarsi che il modello interrompa la creazione del testo dopo il riepilogo, specificare una sequenza di arresto di due caratteri di nuova riga. A tale scopo, fare clic sulla casella di testo Interrompi sequenza, immettere '
<|end_of_text|>
e quindi fare clic su Aggiungi sequenza. - Impostare il parametro Numero massimo di token su 200.
Testo del prompt
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
<|start_of_role|>system<|end_of_role|>You are an expert in medical science.<|end_of_text|>
<|start_of_role|>user<|end_of_role|>Use the following documents as context to complete the task.
Document 1:
The human body is a complex and intricate system, composed of various interconnected parts that work together to maintain life. At the most fundamental level, the body is made up of cells, the basic units of life. These cells are organized into tissues, which are then grouped together to form organs. Organs, in turn, make up the various systems that carry out the body's functions.
Document 2:
One of the most important systems in the human body is the circulatory system. This system is responsible for transporting oxygen, nutrients, and hormones throughout the body. It is composed of the heart, blood vessels, and blood. The heart acts as a pump, pushing blood through the blood vessels and into the capillaries, where the exchange of oxygen, nutrients, and waste products takes place.
Document 3:
Another crucial system is the respiratory system. This system is responsible for the intake and exchange of oxygen and carbon dioxide. It is composed of the nose, throat, trachea, bronchi, and lungs. When we breathe in, air enters the nose or mouth and travels down the trachea into the lungs. Here, oxygen is absorbed into the bloodstream and carbon dioxide is expelled.
Document 4:
The human body also has a nervous system, which is responsible for transmitting signals between different parts of the body. This system is composed of the brain, spinal cord, and nerves. The brain acts as the control center, processing information and sending signals to the rest of the body. The spinal cord serves as a conduit for these signals, while the nerves transmit them to the various organs and tissues.
Which system in the human body is reponsible for breathing?<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>
Campione: Rispondere alle domande di cultura generale
Scenario: Rispondere a domande generali sulla finanza.
Scelta del modello
Il modello granite-13b-instruct-v2 può essere utilizzato per diversi compiti, tra cui la generazione di testi, la sintesi, le domande e le risposte, la classificazione e l'estrazione.
Decodifica
Avido. Questo esempio risponde alle domande, quindi non vogliamo un output creativo.
Criteri di arresto
Impostare il parametro Max tokens a 200, in modo che il modello possa restituire una risposta completa.
Testo del prompt
Il modello è stato messo a punto per rispondere alle domande con esempi nel seguente formato:
<|user|>
contenuto della domanda
<|assistant|>
nuova linea per la risposta del modello
È possibile utilizzare la sintassi esatta " <|user|>
e " <|assistant|>
nelle righe prima e dopo la domanda oppure sostituire i valori con termini equivalenti, come " User
e " Assistant
.
Se si utilizza la versione 1, non includere spazi bianchi dopo l'etichetta " <|assistant|>
e assicurarsi di aggiungere una nuova riga.
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
<|user|>
Tell me about interest rates
<|assistant|>
Dopo che il modello ha generato una risposta, è possibile porre una domanda successiva. Il modello utilizza le informazioni della domanda precedente quando genera una risposta.
<|user|>
Who sets it?
<|assistant|>
Il modello conserva le informazioni di una domanda precedente quando risponde a una domanda successiva, ma non è ottimizzato per supportare un dialogo esteso.
Esempio: rispondere a domande di conoscenza generale in giapponese
Scenario: rispondere a domande generali sulla finanza in giapponese.
Scelta del modello
Il modello granite-8b-japanese può essere utilizzato per diversi compiti, tra cui la generazione di testi, la sintesi, le domande e le risposte, la classificazione e l'estrazione.
Decodifica
Avido. Questo esempio risponde alle domande, quindi non vogliamo un output creativo.
Criteri di arresto
- Impostare il parametro Numero massimo di token su 500 per consentire molti turni nella finestra di dialogo.
- Aggiungere una sequenza di stop di due caratteri newline per evitare che il foundation model restituisca risposte troppo lunghe. A tale scopo, fare clic nella casella di testo Sequenza di arresto , premere due volte il tasto Invio e fare clic su Aggiungi sequenza.
Testo del prompt
Il modello è stato messo a punto per rispondere alle domande con esempi nel seguente formato:
以下は、タスクを説明する指示と、文脈のある入力の組み合わせです。要求を適切に満たす応答を書きなさい。
### 指示:
与えられた質問に対して、文脈がある場合はそれも利用し、回答してください。
### 入力:
{your-input}
### 応答:
In inglese, il modello si legge come segue:
Below is a combination of instructions that describe the task and input with context. Write a response that appropriately meets the request.
### Instructions:
Please use the context when answering the given question, if available.
### input:
{your-input}
### Response:
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri, sostituire {your-input}
con la propria query o richiesta e quindi fare clic su Genera per vedere il risultato.
Ad esempio, questo prompt chiede informazioni sui tassi di interesse.
以下は、タスクを説明する指示と、文脈のある入力の組み合わせです。要求を適切に満たす応答を書きなさい。
### 指示:
与えられた質問に対して、文脈がある場合はそれも利用し、回答してください。
### 入力:
金利について教えてください。
### 応答:
Esempio: rispondi a una domanda utilizzando un ragionamento complesso in modalità a mano libera
Scenario: chiedere al modello di rispondere a domande generali che richiedono ragionamento e comprensione logica.
Scelta del modello
I modelli che sono tarati per compiti di ragionamento complessi, come mistral-large, sono generalmente in grado di completare questo compito con questo esempio.
Decodifica
Avido. Il modello deve restituire il contenuto più prevedibile in base a ciò che è presente nel prompt; il modello non può essere troppo creativo.
Criteri di arresto
- Per assicurarsi che il modello interrompa la creazione del testo dopo il riepilogo, specificare una sequenza di arresto di due caratteri di nuova riga. A tale scopo, fare clic nella casella di testo Sequenza di arresto , premere due volte il tasto Invio e fare clic su Aggiungi sequenza.
- Imposta il parametro Max token su 100.
Testo del prompt
Incollare questo testo di prompt di poche battute nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Question: Which one is heavier a pound of iron or a kilogram of feather?
Answer: A kilogram of feathers is heavier than a pound of iron. A pound is a unit of weight that is equivalent to approximately 0.453592 kilograms. Therefore, a pound of iron weighs less than a kilogram of feathers.
Question: A bat and a ball cost $1.10 in total. The bat costs $1.00 more than the ball. How much does the ball cost?
Answer:
Esempio: rispondere a una domanda utilizzando un ragionamento complesso con i modelli distillati di DeepSeek-R1 in modalità libera
Scenario: chiedere al modello di rispondere a domande generali che richiedono ragionamento e comprensione logica.
Scelta del modello
I modelli che sono ottimizzati per compiti di ragionamento complessi, come deepseek-r1-distill-llama-8b e deepseek-r1-distill-llama-70b, sono generalmente in grado di completare questo compito con questo esempio.
Decodifica
Avido. Il modello deve restituire il contenuto più prevedibile in base al contenuto del prompt.
Criteri di arresto
Impostare il parametro Max tokens a 2000 per consentire al modello di produrre ragionamenti più complessi nella risposta.
Testo del prompt
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
<| begin_of_sentence |><| User |>Create a travel itinerary for a weekend trip to Paris.<| Assistant |><think>
Il modello genera una risposta contenente i dettagli su come il modello affronta il problema. I dettagli sono contenuti nei tag <think>
, </think>
. Il modello costruisce quindi una risposta dettagliata alla domanda.
Riepilogo
Le attività di riepilogo consentono di risparmiare tempo, condensando grandi quantità di testo in poche informazioni chiave.
Esempio con prompt zero - shot: riepilogo di una trascrizione della riunione
Scenario: data una trascrizione della riunione, riepilogare i punti principali come note della riunione in modo che tali note possano essere condivise con i membri del team che non hanno partecipato alla riunione.
Scelta del modello
I modelli che sono dotati di istruzioni sono generalmente in grado di completare questo compito con questo esempio di prompt. Suggerimenti: flan-t5-xxl-11b, flan-ul2-20b o mixtral-8x7b-instruct-v01.
Decodifica
Avido. Il modello deve restituire il contenuto più prevedibile in base a ciò che è presente nel prompt; il modello non può essere troppo creativo.
Criteri di arresto
Il riassunto potrebbe essere composto da diverse frasi, quindi impostare il parametro Max tokens a 60.
Testo del prompt
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Summarize the following transcript.
Transcript:
00:00 [alex] Let's plan the team party!
00:10 [ali] How about we go out for lunch at the restaurant?
00:21 [sam] Good idea.
00:47 [sam] Can we go to a movie too?
01:04 [alex] Maybe golf?
01:15 [sam] We could give people an option to do one or the other.
01:29 [alex] I like this plan. Let's have a party!
Summary:
Esempio con richiesta di poche istantanee: riepilogare una trascrizione di una riunione in modalità in formato libero
Scenario: data una trascrizione della riunione, riepilogare i punti principali come note della riunione in modo che tali note possano essere condivise con i membri del team che non hanno partecipato alla riunione.
Scelta del modello
Con esempi di pochi scatti, la maggior parte dei modelli è in grado di svolgere bene questo compito. Provare con mixtral-8x7b-instruct-v01 o mistral-large.
Decodifica
Avido. Il modello deve restituire il contenuto più prevedibile in base a ciò che è nel prompt, non essere troppo creativo.
Criteri di arresto
- Per assicurarsi che il modello interrompa la creazione del testo dopo il riepilogo, specificare una sequenza di arresto di due caratteri di nuova riga. A tale scopo, fare clic nella casella di testo Sequenza di arresto , premere due volte il tasto Invio e fare clic su Aggiungi sequenza.
- Impostare il parametro Numero massimo di token su 60.
Testo del prompt
Incollare questo testo di prompt di poche battute nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Transcript:
00:00 [sam] I wanted to share an update on project X today.
00:15 [sam] Project X will be completed at the end of the week.
00:30 [erin] That's great!
00:35 [erin] I heard from customer Y today, and they agreed to buy our product.
00:45 [alex] Customer Z said they will too.
01:05 [sam] Great news, all around.
Summary:
Sam shared an update that project X will be complete at the end of the week.
Erin said customer Y will buy our product. And Alex said customer Z will buy
our product too.
Transcript:
00:00 [ali] The goal today is to agree on a design solution.
00:12 [alex] I think we should consider choice 1.
00:25 [ali] I agree
00:40 [erin] Choice 2 has the advantage that it will take less time.
01:03 [alex] Actually, that's a good point.
01:30 [ali] So, what should we do?
01:55 [alex] I'm good with choice 2.
02:20 [erin] Me too.
02:45 [ali] Done!
Summary:
Alex suggested considering choice 1. Erin pointed out choice two will take
less time. The team agreed with choice 2 for the design solution.
Transcript:
00:00 [alex] Let's plan the team party!
00:10 [ali] How about we go out for lunch at the restaurant?
00:21 [sam] Good idea.
00:47 [sam] Can we go to a movie too?
01:04 [alex] Maybe golf?
01:15 [sam] We could give people an option to do one or the other.
01:29 [alex] I like this plan. Let's have a party!
Summary:
Esempio di prompt a pochi scatti: Riassumere la trascrizione di una riunione in modalità freeform con Granite 3.1
Scenario: data una trascrizione della riunione, riepilogare i punti principali come note della riunione in modo che tali note possano essere condivise con i membri del team che non hanno partecipato alla riunione.
Scelta del modello
Con esempi di pochi scatti, la maggior parte dei modelli è in grado di svolgere bene questo compito. Provate i modelli Granite Instruct.
Decodifica
Avido. Il modello deve restituire il contenuto più prevedibile in base a ciò che è nel prompt, non essere troppo creativo.
Criteri di arresto
- Per assicurarsi che il modello interrompa la creazione del testo dopo il riepilogo, specificare una sequenza di arresto di due caratteri di nuova riga. A tale scopo, fare clic sulla casella di testo Interrompi sequenza, immettere '
<|end_of_text|>
e quindi fare clic su Aggiungi sequenza. - Impostare il parametro Numero massimo di token su 200.
Testo del prompt
Incollare questo testo di prompt di poche battute nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
<|start_of_role|>system<|end_of_role|>You are Granite, an AI language model developed by IBM in 2024. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.<|end_of_text|>
<|start_of_role|>user<|end_of_role|>Summarize a fragment of a meeting transcript. In this meeting, Sam, Erin, and Alex discuss updates.
Your response should only include the answer. Do not provide any further explanation.
Transcript:
Sam (00:00):
I wanted to share an update on project X today.
Sam (00:15):
Project X will be completed at the end of the week.
Erin (00:30):
That's great!
Erin (00:35):
I heard from customer Y today, and they agreed to buy our product.
Alex (00:45):
Customer Z said they will too.
Sam (01:05):
Great news, all around.
Summary:
<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>Sam shared an update that project X will be complete at the end of the week. Erin said customer Y will buy our product. And Alex said customer Z will buy our product too.<|end_of_text|>
Transcript:
Ali (00:00):
The goal today is to agree on a design solution.
Alex (00:12):
I think we should consider choice 1.
Ali (00:25):
I agree
Erin (00:40):
Choice 2 has the advantage that it will take less time.
Alex (01:03):
Actually, that's a good point.
Ali (01:30):
So, what should we do?
Alex (01:55):
I'm good with choice 2.
Erin (02:20):
Me too.
Ali (02:45):
Done!
Summary:
<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>
Esempio con un prompt di poche istantanee: riepilogare una trascrizione di una riunione in modalità strutturata
Scenario: data una trascrizione della riunione, riepilogare i punti principali in un elenco puntato in modo che l'elenco possa essere condiviso con i membri del team che non hanno partecipato alla riunione.
Scelta del modello
Il foundation model mixtral-8x7b-instruct-v01 è stato addestrato a riconoscere e gestire bene i caratteri speciali, come il carattere newline. Questo modello è una buona scelta quando si desidera che il proprio testo generato venga formattato in modo specifico con caratteri speciali.
Decodifica
Avido. Il modello deve restituire il contenuto più prevedibile in base a ciò che è presente nel prompt; il modello non può essere troppo creativo.
Criteri di arresto
- Per assicurarsi che il modello smetta di generare testo dopo un elenco, specificare una sequenza di arresto di due caratteri di nuova riga. A tale scopo, fare clic nella casella di testo Sequenza di arresto , premere due volte il tasto Invio e fare clic su Aggiungi sequenza.
- Impostare il parametro Numero massimo di token su 60.
Sezione di impostazione
Incollate le intestazioni e gli esempi nell'area Esempi della sezione Configurazione:
Transcript: |
Summary: |
---|---|
00:00 [sam] I wanted to share an update on project X today. |
- Sam shared an update that project X will be complete at the end of the week |
00:00 [ali] The goal today is to agree on a design solution. |
- Alex suggested considering choice 1 |
Prova la sezione
Incollare questo messaggio nella sezione Prova:
00:00 [alex] Let's plan the team party!
00:10 [ali] How about we go out for lunch at the restaurant?
00:21 [sam] Good idea.
00:47 [sam] Can we go to a movie too?
01:04 [alex] Maybe golf?
01:15 [sam] We could give people an option to do one or the other.
01:29 [alex] I like this plan. Let's have a party!
Selezionare il modello e impostare parametri, quindi fare clic su Genera per visualizzare il risultato.
Generazione e conversione del codice
I modelli di base che possono generare e convertire codice programmatico sono grandi risorse per gli sviluppatori. Possono aiutare gli sviluppatori a creare brainstorming e risolvere i problemi relativi alle attività di programmazione.
Esempio: generazione di codice programmatico dalle istruzioni
Scenario: si desidera creare codice dalle istruzioni. In particolare, vuoi scrivere una funzione nel linguaggio di programmazione Python che inverte una stringa.
Scelta del modello
I modelli in grado di generare codice, come codellama-34b-instruct-hf, mistral-large e mixtral-8x7b-instruct-v01, sono generalmente in grado di completare questo compito quando viene fornito un prompt di esempio.
Decodifica
Avido. La risposta deve essere un frammento di codice valido. Il modello non può essere creativo e costituire una risposta.
Criteri di arresto
Per arrestare il modello dopo aver restituito un singolo frammento di codice, specificare '<end of code>
come sequenza di arresto. Il parametro Numero massimo di token può essere impostato su 1.000.
Testo del prompt
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Using the directions below, generate Python code for the specified task.
Input:
# Write a Python function that prints 'Hello World!' string 'n' times.
Output:
def print_n_times(n):
for i in range(n):
print("Hello World!")
<end of code>
Input:
# Write a Python function that reverses the order of letters in a string.
# The function named 'reversed' takes the argument 'my_string', which is a string. It returns the string in reverse order.
Output:
L'output contiene il codice Python simile al seguente frammento:
def reversed(my_string):
return my_string[::-1]
Assicurati di verificare il codice generato per verificare che funzioni come previsto.
Ad esempio, se si esegue reversed("good morning")
, il risultato è 'gninrom doog'
.
Esempio: Generazione di codice programmatico da istruzioni con prompt a colpo zero
Scenario: si desidera creare codice dalle istruzioni. Si vuole cioè scrivere una funzione nel linguaggio di programmazione Python che stampi il messaggio "Hello World!" stringa 'n' volte.
Scelta del modello
Quando si utilizza il foundation model llama-3-2-1b-instruct o llama-3-2-3b-instruct, non è necessario fornire esempi. È necessario utilizzare un modello personalizzato che specifichi il valore dell'ambiente " iphython
, che il modello riconosce come una richiesta di generazione di codice.
Decodifica
Avido. La risposta deve essere un frammento di codice valido. Il modello non può essere creativo e costituire una risposta.
Criteri di arresto
Il modello non ha bisogno di una sequenza di arresto.
Testo del prompt
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
Environment: ipython<|eot_id|><|start_header_id|>user<|end_header_id|>
${Add your code instruction here}<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Sostituire ${Add your code instruction here}
con una descrizione del codice che si vuole far generare al modello. Ad esempio, Write a Python function that prints 'Hello World!' string 'n' times.
.
Il modello genera un output, come il seguente:
Here is a simple Python function that prints 'Hello World!' 'n' times:
```python
def print_hello_world(n):
for i in range(n):
print('Hello World!')
print_hello_world(5)
Questa funzione utilizza un ciclo for per iterare 'n' volte, stampando "Hello World!" ogni volta. La funzione 'range(n)
genera una sequenza di numeri da 0 an-1', che vengono utilizzati come variabile del ciclo 'i'.
Esempio: conversione di codice da un linguaggio di programmazione a un altro
Scenario: si desidera convertire il codice da un linguaggio di programmazione all'altro. In particolare, si desidera convertire un frammento di codice da C++ a Python.
Scelta del modello
I modelli in grado di generare codice, come codellama-34b-instruct-hf, mistral-large e mixtral-8x7b-instruct-v01, sono generalmente in grado di completare questo compito quando viene fornito un prompt di esempio.
Decodifica
Avido. La risposta deve essere un frammento di codice valido. Il modello non può essere creativo e costituire una risposta.
Criteri di arresto
Per arrestare il modello dopo aver restituito un singolo frammento di codice, specificare '<end of code>
come sequenza di arresto. Il parametro Numero massimo di token può essere impostato su 300.
Testo del prompt
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Questa richiesta include una coppia di input e output di esempio. L'input è codice C++ e l'output è la funzione equivalente nel codice Python .
Il frammento di codice C++ da convertire è incluso successivamente. È una funzione che conta il numero di progressioni aritmetiche con la somma S
e la differenza comune di D
, dove S
e D
sono valori interi passati come parametri.
La parte finale del prompt identifica la lingua in cui si desidera convertire il frammento di codice C++.
Translate the following code from C++ to Python.
C++:
#include "bits/stdc++.h"
using namespace std;
bool isPerfectSquare(long double x) {
long double sr = sqrt(x);
return ((sr - floor(sr)) == 0);
}
void checkSunnyNumber(int N) {
if (isPerfectSquare(N + 1)) {
cout << "Yes
";
} else {
cout << "No
";
}
}
int main() {
int N = 8;
checkSunnyNumber(N);
return 0;
}
Python:
from math import *
def isPerfectSquare(x):
sr = sqrt(x)
return ((sr - floor(sr)) == 0)
def checkSunnyNumber(N):
if (isPerfectSquare(N + 1)):
print("Yes")
else:
print("No")
if __name__ == '__main__':
N = 8
checkSunnyNumber(N)
<end of code>
C++:
#include <bits/stdc++.h>
using namespace std;
int countAPs(int S, int D) {
S = S * 2;
int answer = 0;
for (int i = 1; i <= sqrt(S); i++) {
if (S % i == 0) {
if (((S / i) - D * i + D) % 2 == 0)
answer++;
if ((D * i - (S / i) + D) % 2 == 0)
answer++;
}
}
return answer;
}
int main() {
int S = 12, D = 1;
cout << countAPs(S, D);
return 0;
}
Python:
L'output contiene il codice Python simile al seguente frammento:
from math import *
def countAPs(S, D):
S = S * 2
answer = 0
for i in range(1, int(sqrt(S)) + 1):
if S % i == 0:
if (((S / i) - D * i + D) % 2 == 0):
answer += 1
if ((D * i - (S / i) + D) % 2 == 0):
answer += 1
return answer
if __name__ == '__main__':
S = 12
D = 1
print(countAPs(S, D))
<end of code>
Il codice Python generato funziona come il codice C++ incluso nel prompt.
Verifica il codice Python generato per verificare che funzioni come previsto.
Esempio: generazione di codice programmatico dalle istruzioni con Granite
Scenario: si desidera creare codice dalle istruzioni. In particolare, vuoi scrivere una funzione nel linguaggio di programmazione Python che inverte una stringa.
Scelta del modello
I modelli che possono generare codice, come i modelli Granite Code o Granite Instruct, sono generalmente in grado di completare questo compito quando viene fornito un prompt di esempio.
Decodifica
Avido. La risposta deve essere un frammento di codice valido. Il modello non può essere creativo e costituire una risposta.
Criteri di arresto
Per arrestare il modello dopo aver restituito un singolo frammento di codice, specificare '<end of code>
come sequenza di arresto. Il parametro Numero massimo di token può essere impostato su 300.
Testo del prompt
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Question:
Using the directions below, generate Python code for the specified task.
# Write a Python function that prints 'Hello World!' string 'n' times.
Answer:
def print_n_times(n):
for i in range(n):
print("Hello World!")
<end of code>
Question:
# Write a Python function that reverses the order of letters in a string.
# The function named 'reversed' takes the argument 'my_string', which is a string. It returns the string in reverse order.
Answer:
L'output contiene il codice Python simile al seguente frammento:
def reverse_string(my_string):
return my_string[::-1]
<end of code>
Assicurati di verificare il codice generato per verificare che funzioni come previsto.
Ad esempio, se si esegue reversed("good morning")
, il risultato è 'gninrom doog'
.
Per ulteriori Granite, vedere Presentazioni di codice.
Esempio: conversione del codice da un linguaggio di programmazione a un altro con Granite
Scenario: si desidera convertire il codice da un linguaggio di programmazione all'altro. In particolare, si desidera convertire un frammento di codice da C++ a Python.
Scelta del modello
I modelli che possono generare codice, come i modelli Granite Code Instruct, sono generalmente in grado di completare questo compito quando viene fornito un prompt di esempio.
Decodifica
Avido. La risposta deve essere un frammento di codice valido. Il modello non può essere creativo e costituire una risposta.
Criteri di arresto
Per arrestare il modello dopo aver restituito un singolo frammento di codice, specificare '<end of code>
come sequenza di arresto. Il parametro Numero massimo di token può essere impostato su 1.000.
Testo del prompt
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Questa richiesta include un'istruzione per convertire un frammento di codice da C+ + a Python.
Il frammento di codice C++ da convertire è incluso accanto per fornire il contesto. È una funzione che conta il numero di progressioni aritmetiche con la somma S
e la differenza comune di D
, dove S
e D
sono valori interi passati come parametri.
Question:
Translate the following code from C++ to Python.
C++:
#include "bits/stdc++.h"
using namespace std;
bool isPerfectSquare(long double x) {
long double sr = sqrt(x);
return ((sr - floor(sr)) == 0);
}
void checkSunnyNumber(int N) {
if (isPerfectSquare(N + 1)) {
cout << "Yes
";
} else {
cout << "No
";
}
}
int main() {
int N = 8;
checkSunnyNumber(N);
return 0;
}
Answer:
Python:
from math import *
def isPerfectSquare(x):
sr = sqrt(x)
return ((sr - floor(sr)) == 0)
def checkSunnyNumber(N):
if (isPerfectSquare(N + 1)):
print("Yes")
else:
print("No")
if __name__ == '__main__':
N = 8
checkSunnyNumber(N)
<end of code>
Question:
Translate the following code from C++ to Python.
C++:
#include <bits/stdc++.h>
using namespace std;
int countAPs(int S, int D) {
S = S * 2;
int answer = 0;
for (int i = 1; i <= sqrt(S); i++) {
if (S % i == 0) {
if (((S / i) - D * i + D) % 2 == 0)
answer++;
if ((D * i - (S / i) + D) % 2 == 0)
answer++;
}
}
return answer;
}
int main() {
int S = 12, D = 1;
cout << countAPs(S, D);
return 0;
}
Answer:
L'output contiene il codice Python simile al seguente frammento:
Python:
from math import *
def countAPs(S, D):
S = S * 2
answer = 0
for i in range(1, int(sqrt(S)) + 1):
if S % i == 0:
if ((S // i) - D * i + D) % 2 == 0:
answer += 1
if (D * i - (S // i) + D) % 2 == 0:
answer += 1
return answer
if __name__ == '__main__':
S = 12
D = 1
print(countAPs(S, D))
Il codice Python generato funziona come il codice C++ incluso nel prompt.
Verifica il codice Python generato per verificare che funzioni come previsto.
Per ulteriori Granite, vedere Presentazioni di codice.
Finestra di dialogo
Le attività di dialogo sono utili negli scenari di servizio clienti, specialmente quando un chatbot è utilizzato per guidare i clienti attraverso un workflow per raggiungere un obiettivo.
Campione: Conversazione con Llama 3
Scenario: genera l'output della finestra di dialogo come un chatbot.
Scelta del modello
Llama 3, 3.1 e 3.2 sono ottimizzati per i casi d'uso del dialogo. I modelli sono regolati per uno specifico formato di prompt, descritto nella sezione Testo del prompt.
Decodifica
Avido. Questo esempio risponde alla conoscenza generale, alle domande fattuali, quindi non vogliamo un output creativo.
Criteri di arresto
Impostare il parametro Max tokens a 900.
Il modello utilizza un token di fine testo (<|eot_id|>
) per delimitare la fine di ogni segmento di testo, tranne il prompt di sistema.
Testo del prompt
Il modello di prompt seguente è il più adatto per l'input:
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
SYSTEM PROMPT<|eot_id|><|start_header_id|>user<|end_header_id|>
GROUNDING (OPTIONAL)<|eot_id|><|start_header_id|>user<|end_header_id|>
USER_INPUT<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>
I have a question about Earth. How many moons are there?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Dopo aver generato l'output iniziale, continua la finestra di dialogo per chiedere informazioni su più pianeti, aggiungendo gli stessi identificativi alla fine del testo di input, ad esempio:
FOLLOW UP QUESTION<|eot_id|><|start_header_id|>assistant<|end_header_id|>
L'output è simile al seguente:
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>
I have a question about Earth. How many moons are there?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
That's an easy one! Earth has only one moon.
What about Saturn?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Saturn has a whopping 82 confirmed moons!
And Mars?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Mars has two small natural satellites, Phobos and Deimos.
Il seguente prompt di esempio include informazioni di messa a terra.
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>
The sky is blue.<|eot_id|><|start_header_id|>user<|end_header_id|>
What color is the sky?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Campione: Conversare con Llama 2
Scenario: genera l'output della finestra di dialogo come un chatbot.
Scelta del modello
Come gli altri modelli di fondazione, Llama 2 (sia nel formato da 70 miliardi che in quello da 13 miliardi) può essere utilizzato per molteplici compiti. Ma entrambi i modelli di Llama 2 sono ottimizzati per i casi di dialogo. Il llama-2-70b-chat e il llama-2-13b-chat sono regolati per il formato del prompt '[INST]<<SYS>><</SYS>>[/INST]
. Per ulteriori informazioni sul formato del prompt, vedere 'Come richiedere 'Llama 2.
Decodifica
Avido. Questo esempio risponde alla conoscenza generale, alle domande fattuali, quindi non vogliamo un output creativo.
Criteri di arresto
Imposta il parametro Max token su 100.
Il modello per Llama 2 utilizza un token di fine stringa (EOS) (</s>
) per delimitare la fine della risposta dell'agente. L'output del modello smette di generare testo quando viene incontrato il token EOS '</s>
.
Testo del prompt
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
[INST] <<SYS>>
You are a helpful assistant. Begin each response with the phrase "Dear user, ". If you are unsure about an answer, truthfully say "I don't know"<</SYS>>
I have a question about the Earth.[/INST]
Dear user, go on.
[INST]
How many moons are there?
[/INST]
Dopo aver generato l'output iniziale, continuare la finestra di dialogo per chiedere altri pianeti, avvolgendo i messaggi dell'utente nella stessa struttura '[INST][/INST]
. Non è necessario aggiungere un token '<s>
all'inizio delle domande di verifica.
L'output è simile al seguente:
[INST] <<SYS>>
You are a helpful assistant. Begin each response with the phrase "Dear user, ". If you are unsure about an answer, truthfully say "I don't know"<</SYS>>
I have a question about the Earth.[/INST]
Dear user, go on.
[INST]
How many moons are there?
[/INST]
Dear user, the Earth has one natural satellite, commonly referred to as the Moon.
[INST]
What about Saturn?
[/INST]
Dear user, Saturn has a total of 62 confirmed moons, as well as numerous smaller moonlets and ring particles. The largest moon of Saturn is Titan, which is the second-largest moon in the solar system, after Jupiter's moon Ganymede.
[INST]
And Mars?
[/INST]
Dear user, Mars has two small natural satellites, Phobos and Deimos. Both moons are thought to be captured asteroids, and are irregularly shaped and very small, with diameters of about 22 kilometers and 12 kilometers respectively.
Si notano alcuni punti importanti relativi all'emissione che il modello genera man mano che si va:
- La cosiddetta istruzione di sistema, nei tag '
<<SYS>><</SYS>>
, continua a influenzare l'uscita a ogni turno di dialogo senza dover ripetere l'istruzione di sistema. In altre parole, il 'risposte degli assistenti continua a essere preceduto da "Gentile utente, ". - Come in un vero dialogo, l'assistente risponde all'input dell'utente "Quante lune ci sono?" tiene conto del precedente input dell'utente "Ho una domanda sulla Terra" e restituisce il numero di lune che orbitano intorno alla Terra.
- Anche nella forma corretta del dialogo, le risposte dell'assistente continuano a seguire l'argomento della conversazione, che è il numero di lune. (Altrimenti, l'output generato al vago messaggio dell'utente "E Marte?" potrebbe vagare in qualsiasi direzione)
- Attenzione: Soprattutto i caratteri newline (ritorno a capo) e, in misura minore, gli spazi nel testo del prompt possono avere un impatto notevole sull'output generato.
- Quando si utilizza Llama 2 per i casi d'uso della chat, seguire il più possibile il formato del modello di prompt raccomandato. Non utilizzare il formato di richiesta '
[INST]<<SYS>><</SYS>>[/INST]
quando si usa Llama 2 per altri compiti oltre alla chat.
Esempio: Converse con granite-13b-chat-v2
Scenario: genera l'output della finestra di dialogo come un chatbot.
Scelta del modello
Usare granite-13b-chat-v2 per portare avanti un dialogo.
Decodifica
- Utilizzare la decodifica di campionamento.
- Impostare la P superiore su 0.85.
- Impostare la penalità di ripetizione su 1.2.
Criteri di arresto
- Impostare il parametro Numero massimo di token su 500 in modo che il modello possa restituire una risposta completa, ma sia il più conciso possibile.
Testo del prompt
Per migliorare la sicurezza del modello e ridurre le distorsioni, aggiungere un prompt di sistema come parte dell'input dell'utente. Il prompt di sistema può stabilire alcune regole di base per la finestra di dialogo. Ad esempio:
Sei Granite Chat, un modello di linguaggio AI sviluppato da IBM. Sei un assistente cauto. Si seguono attentamente le istruzioni. Sei utile e innocuo e segui le linee guida etiche e promuovi un comportamento positivo. Le risposte sono brevi e precise.
Ricordarsi di utilizzare il formato del modello di prompt previsto dal modello.
< |system |>
prompt di sistema
< |user |>
contenuto della domanda
< |assistant |>
nuova linea per la risposta del modello
Se si desidera inoltrare un prompt di poche istantanee a questo modello, è possibile aggiungere il prompt di sistema e quindi gli esempi, seguiti dal testo del prompt da dedurre.
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
Example prompt 1
<|assistant|>
Example response 1
<|user|>
Example prompt 2
<|assistant|>
Example response 2
<|user|>
USER INPUT
<|assistant|>
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
I have a question about the Earth. How many moons are there?
<|assistant|>
Non includere spazi vuoti finali dopo l'etichetta <|assistant|>
e accertarsi di aggiungere una nuova riga.
Una volta generato l'output iniziale, puoi continuare la finestra di dialogo facendo una domanda di follow-up. Ad esempio, puoi chiedere informazioni sulle lune di altri pianeti.
<|user|>
What about Saturn?
<|assistant|>
E continuate la conversazione con un'altra domanda di follow-up.
<|user|>
And Mars?
<|assistant|>
Se l'output del modello è troppo lungo, è possibile provare a specificare una sequenza di arresto di due caratteri di nuova riga facendo clic sulla casella di testo Sequenza di arresto , premendo due volte il tasto Invio e facendo clic su Aggiungi sequenza. Tuttavia, la penalità di ripetizione è di solito sufficiente per mantenere il modello in pista.
Un altro esempio che potete provare:
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
How does a bill become a law?
<|assistant|>
Con la domanda successiva:
<|user|>
How about in Canada?
<|assistant|>
Alcune note sull'utilizzo di questo esempio con il modello:
- Il prompt di sistema stabilisce alcune guardrail generali per il modello.
- L'assistente è in grado di rispondere a una domanda di follow-up che si basa sulle informazioni di uno scambio precedente nello stesso dialogo.
- Il modello prevede che l'input segua un modello specifico e può essere sensibile agli spazi vuoti posizionati in modo errato.
Esempio: Converse in giapponese con granite-8b-japanese
Scenario: genera l'output della finestra di dialogo giapponese come un chatbot.
Scelta del modello
Il foundation model granite-8b-japanese può essere utilizzato per partecipare a un dialogo in giapponese. Il foundation model granite-8b-japanese funziona al meglio quando si utilizza lo stesso formato di prompt usato durante l'addestramento del modello.
Decodifica
Avido. Questo esempio risponde alla conoscenza generale, alle domande fattuali, quindi non vogliamo un output creativo.
Criteri di arresto
- Impostare il parametro Numero massimo di token su 500 per consentire molti turni nella finestra di dialogo.
- Aggiungere una sequenza di stop di due caratteri newline per evitare che il foundation model restituisca risposte troppo lunghe. A tale scopo, fare clic nella casella di testo Sequenza di arresto , premere due volte il tasto Invio e fare clic su Aggiungi sequenza.
Testo del prompt
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Questo modello include un prompt di sistema che dice " Sei un assistente AI onesto e talentuoso. Si prega di seguire le istruzioni dell'utente il più accuratamente possibile. "
### System:
あなたは誠実で優秀なAIアシスタントです。ユーザーの指示に可能な限り正確に従ってください。
### User:
{user input here}
### Assistant:
Ad esempio, per richiedere informazioni sugli investimenti dal foundation model, è possibile inviare il seguente prompt, in cui l'input dell'utente è "Please tell me about investment"
### System:
あなたは誠実で優秀なAIアシスタントです。ユーザーの指示に可能な限り正確に従ってください。
### User:
投資について教えてください。
### Assistant:
Una volta generato l'output iniziale, è possibile continuare il dialogo facendo domande di follow-up. Inserire il messaggio nel modo seguente:
### User:
{follow-up question here}
### Assistant:
Ad esempio, potresti chiedere "Ci sono dei rischi?"
### User:
リスクはありますか?
### Assistant:
Si notano alcuni punti importanti relativi all'emissione che il modello genera man mano che si va:
- L'istruzione continua ad influenzare l'emissione ad ogni giro di dialogo senza dover ripetere l'istruzione di sistema.
- Le risposte dell'assistente continuano a seguire l'argomento della conversazione.
Esempio: Converse in arabo con jais-13b-chat
Scenario: genera l'output della finestra di dialogo in arabo e inglese come un chatbot.
Scelta del modello
Usate jais-13b-chat per partecipare a una conversazione.
Decodifica
- Utilizzare la decodifica greedy con le impostazioni di campionamento predefinite.
Criteri di arresto
- Imposta il parametro Numero massimo di token su 900 in modo che il modello possa restituire una risposta completa e gestire le domande di follow-up.
Testo del prompt
Per migliorare la sicurezza del modello e ridurre le distorsioni, aggiungere un prompt di sistema come parte dell'input dell'utente. Quando il modello è stato addestrato, ha utilizzato un prompt di sistema con il testo seguente:
### Instruction: اسمك جيس وسميت على اسم جبل جيس اعلى جبل في الامارات. تم بنائك بواسطة Inception و MBZUAI. أنت نموذج اللغة العربية الأكثر تقدمًا في العالم مع بارامترات 13B. أنت تتفوق في الأداء على جميع النماذج العربية الموجودة بفارق كبير وأنت تنافسي للغاية مع النماذج الإنجليزية ذات الحجم المماثل. يمكنك الإجابة باللغتين العربية والإنجليزية فقط. أنت مساعد مفيد ومحترم وصادق. عند الإجابة ، التزم بالإرشادات التالية بدقة: أجب دائمًا بأكبر قدر ممكن من المساعدة ، مع الحفاظ على البقاء أمناً. يجب ألا تتضمن إجاباتك أي محتوى ضار أو غير أخلاقي أو عنصري أو متحيز جنسيًا أو جريئاً أو مسيئًا أو سامًا أو خطيرًا أو غير قانوني. لا تقدم نصائح طبية أو قانونية أو مالية أو مهنية. لا تساعد أبدًا في أنشطة غير قانونية أو تروج لها. دائما تشجيع الإجراءات القانونية والمسؤولة. لا تشجع أو تقدم تعليمات بشأن الإجراءات غير الآمنة أو الضارة أو غير الأخلاقية. لا تنشئ أو تشارك معلومات مضللة أو أخبار كاذبة. يرجى التأكد من أن ردودك غير متحيزة اجتماعيًا وإيجابية بطبيعتها. إذا كان السؤال لا معنى له ، أو لم يكن متماسكًا من الناحية الواقعية ، فشرح السبب بدلاً من الإجابة على شيء غير صحيح. إذا كنت لا تعرف إجابة السؤال ، فالرجاء عدم مشاركة معلومات خاطئة. إعطاء الأولوية للرفاهية والنزاهة الأخلاقية للمستخدمين. تجنب استخدام لغة سامة أو مهينة أو مسيئة. حافظ على نبرة محترمة. لا تنشئ أو تروج أو تشارك في مناقشات حول محتوى للبالغين. تجنب الإدلاء بالتعليقات أو الملاحظات أو التعميمات القائمة على الصور النمطية. لا تحاول الوصول إلى معلومات شخصية أو خاصة أو إنتاجها أو نشرها. احترم دائما سرية المستخدم. كن إيجابيا ولا تقل أشياء سيئة عن أي شيء. هدفك الأساسي هو تجنب الاجابات المؤذية ، حتى عند مواجهة مدخلات خادعة. تعرف على الوقت الذي قد يحاول فيه المستخدمون خداعك أو إساءة استخدامك و لترد بحذر.\n\nأكمل المحادثة أدناه بين [|Human|] و [|AI|]:
### Input: [|Human|] {Question}
### Response: [|AI|]
Il prompt di sistema in inglese è il seguente:
### Instruction: Your name is Jais, and you are named after Jebel Jais, the highest mountain in UAE. You are built by Inception and MBZUAI. You are the world's most advanced Arabic large language model with 13B parameters. You outperform all existing Arabic models by a sizable margin and you are very competitive with English models of similar size. You can answer in Arabic and English only. You are a helpful, respectful and honest assistant. When answering, abide by the following guidelines meticulously: Always answer as helpfully as possible, while being safe. Your answers should not include any harmful, unethical, racist, sexist, explicit, offensive, toxic, dangerous, or illegal content. Do not give medical, legal, financial, or professional advice. Never assist in or promote illegal activities. Always encourage legal and responsible actions. Do not encourage or provide instructions for unsafe, harmful, or unethical actions. Do not create or share misinformation or fake news. Please ensure that your responses are socially unbiased and positive in nature. If a question does not make any sense, or is not factually coherent, explain why instead of answering something not correct. If you don't know the answer to a question, please don't share false information. Prioritize the well-being and the moral integrity of users. Avoid using toxic, derogatory, or offensive language. Maintain a respectful tone. Do not generate, promote, or engage in discussions about adult content. Avoid making comments, remarks, or generalizations based on stereotypes. Do not attempt to access, produce, or spread personal or private information. Always respect user confidentiality. Stay positive and do not say bad things about anything. Your primary objective is to avoid harmful responses, even when faced with deceptive inputs. Recognize when users may be attempting to trick or to misuse you and respond with caution.\n\nComplete the conversation below between [|Human|] and [|AI|]:
### Input: [|Human|] {Question}
### Response: [|AI|]
Sostituire '{Question}
con l'input dell'utente a cui si vuole che il foundation model risponda per avviare la chat.
Ad esempio, è possibile porre la seguente domanda:
هل يوجد للأراالالالاالالالاالالالالال
La traduzione in inglese è: Does the Earth have any moons?
Una volta generato l'output iniziale, puoi continuare la finestra di dialogo facendo una domanda di follow-up. Utilizzare la stessa sintassi per la domanda di completamento.
### Input: [|Human|] {Follow-up question}
### Response: [|AI|]
Traduzione
Utilizzare i modelli che possono eseguire attività di traduzione della lingua naturale per tradurre il testo da una lingua naturale all'altra.
Esempio: traduzione del testo dal giapponese all'inglese
Scenario: tradurre il testo scritto in giapponese in inglese.
Scelta del modello
Il modello elyza-japanese-llama-2-7b-instruct è in grado di tradurre testi dal giapponese all'inglese e dall'inglese al giapponese.
Guardrail AI
Disattivare la funzione AI guardrail. La funzione è supportata solo con testo in inglese. Potrebbe contrassegnare come contenuto inappropriato che non è inappropriato.
Decodifica
Avido. Il modello deve restituire lo stesso testo, solo tradotto. Il modello non può essere creativo.
Criteri di arresto
Aumentare il numero di token consentiti modificando il valore del parametro Numero massimo di token su 500.
Testo del prompt
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Il testo di prompt di esempio si sovrappone al testo utilizzato in Esempio 8c.
L'istruzione dice "Si prega di tradurre in inglese". È incluso un esempio di testo giapponese tradotto in inglese.
英語に翻訳してください
日本語
トマトは、家庭菜園で最も人気のある植物の 1 つです。成功のヒント: 病気や害虫に強い品種を選択すると、トマトの栽培は非常に簡単になります。挑戦を求めている経験豊富な庭師にとって、栽培できる家宝や特別な品種は無限にあります。トマトの植物にはさまざまなサイズがあります。
English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.
日本語
基盤モデルを使用して、より優れた AI をより迅速に作成します。さまざまなユースケースやタスクに応じて、さまざまなプロンプトを試してください。わずか数行の指示で、職務記述書の草案、顧客の苦情の分類、複雑な規制文書の要約、重要なビジネス情報の抽出などを行うことができます。
English
Esempio: Traduci il testo dallo spagnolo all'inglese
Scenario: tradurre il testo scritto in spagnolo in inglese.
Scelta del modello
Il modello mixtral-8x7b-instruct-v01 o mistral-large può tradurre testi dal francese, tedesco, italiano o spagnolo all'inglese. Questo esempio richiede al modello di tradurre dallo spagnolo all'inglese.
Guardrail AI
Disattivare la funzione AI guardrail. La funzione è supportata solo con testo in inglese. Potrebbe contrassegnare come contenuto inappropriato che non è inappropriato.
Decodifica
Avido. Il modello deve restituire lo stesso testo, solo tradotto. Il modello non può essere creativo.
Criteri di arresto
- Assicurarsi di includere una sequenza di arresto per questo modello. In caso contrario, il modello potrebbe continuare a generare nuove frasi e traduzioni, anche quando l'istruzione dice di non farlo. Per interrompere il modello dopo una frase, aggiungere un punto (.) come sequenza di arresto.
- Impostare il valore del parametro Numero massimo di token su 200.
Testo del prompt
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Translate the following text from Spanish to English. Do not give any extra response that is not part of the translation.
Text:
Hasta ahora no me ha animado mucho la postura adoptada por la Comisión.
Translation:
So far, I have not been terribly encouraged by the stance adopted by the Commission.
Text:
Estoy muy contento de ver que la resolución conjunta adopta la sugerencia que hicimos.
Translation:
Esempio: traduzione del testo dall'inglese al giapponese
Scenario: tradurre il testo scritto in inglese in giapponese.
Scelta del modello
Il modello granite-8b-japanese può tradurre testi dal giapponese all'inglese e dall'inglese al giapponese.
Guardrail AI
Disattivare la funzione AI guardrail. La funzione è supportata solo con testo in inglese. Potrebbe contrassegnare come contenuto inappropriato che non è inappropriato.
Decodifica
Avido. Il modello deve restituire lo stesso testo, solo tradotto. Il modello non può essere creativo.
Criteri di arresto
Aumentare il numero di token consentiti modificando il valore del parametro Numero massimo di token su 500.
Testo del prompt
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Translate the following text from English to Japanese.
English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.
日本語
トマトは野菜作りの人気の植物である。成功のヒント:病害虫に強く、育てやすいトマトの品種を選べば、トマト栽培はそれほど難しくない。経験豊富な庭師にとっては、手強い挑戦となる、様々な色や形のトマトの品種がある。トマトの品種は、大きさもいろいろである。
English
Use foundation models to create better AI, faster. Experiment with different prompts for various use cases and tasks. With just a few lines of instruction you can draft job descriptions, classify customer complaints, summarize complex regulatory documents, extract key business information and much more.
日本語
Esempio: traduzione del testo dal francese all'inglese
Scenario: Traduci il testo scritto in francese in inglese.
Scelta del modello
Il modello granite-20b-multilingual comprende inglese, tedesco, spagnolo, francese e portoghese. Questo esempio richiede al modello di tradurre il testo dal francese all'inglese.
Guardrail AI
Disattivare la funzione AI guardrail. La funzione è supportata solo con testo in inglese. Potrebbe contrassegnare come contenuto inappropriato che non è inappropriato.
Decodifica
Avido. Il modello deve restituire lo stesso testo, solo tradotto. Il modello non può essere creativo.
Criteri di arresto
Impostare il valore del parametro Numero massimo di token su 200.
Testo del prompt
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Translate the following text from French to English:
Text:
Enfin, je me réjouis du paragraphe 16 qui appelle à une révision de la manière dont nous abordons les questions relatives aux droits de l'homme au sein du Parlement.
Translation:
Finally, I welcome paragraph 16 which calls for a review of the way we deal with human rights issues in Parliament.
Text:
Je me souviens très bien que nous en avions parlé lors d'une séance à Luxembourg.
Translation:
I remember very well that we discussed it in a session in Luxembourg.
Text:
Si nous ne faisons pas un usage plus important de la technologie intelligente, nous ne parviendrons pas à atteindre nos objectifs.
Translation:
Esempio: Traduci il testo dall'inglese all'arabo
Scenario: Traduci il testo scritto in inglese in arabo.
Scelta del modello
Il modello allam-1-13b-instruct può tradurre testi dall'arabo all'inglese e dall'inglese all'arabo.
Guardrail AI
Disattivare la funzione AI guardrail. La funzione è supportata solo con testo in inglese. Potrebbe contrassegnare erroneamente il contenuto come inappropriato.
Decodifica
Avido. Il modello deve restituire lo stesso testo, solo tradotto. Il modello non può essere creativo.
Criteri di arresto
- Aumentare il numero di token consentiti modificando il valore del parametro Numero massimo di token su 500.
- Il foundation model allam-1-13b-instruct spiega tipicamente il significato del testo in ingresso dopo averlo tradotto. È possibile indicare al foundation model di fermarsi al termine della traduzione. Per farlo, si aggiunge un'istruzione che chiede al foundation model di aggiungere una parola chiave, come "
END
, dopo la traduzione. Successivamente, aggiungere la stessa parola chiaveEND
come una sequenza di arresto.
Testo del prompt
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
<s> [INST]Translate the following text from English to Arabic. Use "END" at the end of the translation.
English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.
END
العربية
الطماطم هي واحدة من النباتات الأكثر شعبية لحدائق الخضروات. نصيحة للنجاح: إذا اخترت أصنافا مقاومة للأمراض والآفات ، فقد تكون زراعة الطماطم سهلة للغاية. بالنسبة للبستانيين ذوي الخبرة الذين يبحثون عن التحدي ، هناك أنواع لا نهاية لها من الإرث والتخصص للزراعة. تأتي نباتات الطماطم في مجموعة من الأحجام.
END
English
Use foundation models to create better AI, faster. Experiment with different prompts for various use cases and tasks. With just a few lines of instruction you can draft job descriptions, classify customer complaints, summarize complex regulatory documents, extract key business information and much more.
END
العربية
[/INST]
Argomento principale: Prompt Lab