Esempi di modelli di fondazione per compiti comuni
Ultimo aggiornamento: 23 apr 2025
Esempi di modelli di fondazione per compiti comuni
Provare questi esempi per scoprire come i diversi prompt possono guidare i modelli di base per eseguire attività comuni.
Come utilizzare questo argomento
Copy link to section
Esplorare i prompt di esempio in questo argomento:
Copiare e incollare il testo del prompt e i valori dei parametri di input nel Prompt Lab di IBM watsonx.ai
Vedere quale testo viene generato.
Scopri come diversi modelli generino output differenti.
Modificare il testo di richiesta e i parametri per vedere come variano i risultati.
Non esiste un modo giusto per richiedere modelli di fondazione. Ma sono stati trovati modelli, nel mondo accademico e nell'industria, che funzionano in modo abbastanza affidabile. Utilizza gli esempi in questo argomento per creare le tue competenze e la tua intuizione sulla progettazione rapida attraverso la sperimentazione.
Questo video fornisce un metodo visivo per apprendere i concetti e le attività in questa documentazione.
Capitoli del video [ 0:11 ] Introduzione ai prompt e al Prompt Lab [ 0:33 ] Concetto chiave: Tutto è completamento del testo [ 1:34 ] Modello di prompt utile: Prompt a pochi colpi [ 1:58 ] Criteri di interruzione: Max token, sequenze di stop [ 3:32 ] Concetto chiave: Fine-tuning [ 4:32 ] Modello di prompt utile: Prompt a zero colpi [ 5:32 ] Concetto chiave: Essere flessibili, provare diversi prompt [ 6:14 ] Prossimi passi: Sperimentare con esempi di prompt
Panoramica degli esempi
Copy link to section
È possibile trovare esempi che richiedono modelli di base per generare output che supportano le seguenti attività:
- Genera output di dialogo come un chatbot - Utilizza un prompt di sistema in cui è possibile controllare se il modello include i dettagli del ragionamento nell'output
La classificazione è utile per prevedere i dati in categorie distinte. Le classificazioni possono essere binarie, con due classi di dati o multi - classe. Un'attività di classificazione è utile per categorizzare le informazioni, come il feedback dei clienti, in modo da poter gestire o agire in modo più efficiente.
Esempio con prompt zero - shot: classificazione di un messaggio
Copy link to section
Scenario: dato un messaggio inoltrato a un chatbot di supporto clienti per una società di software cloud, classificare il messaggio del cliente come domanda o problema. A seconda dell'assegnazione della classe, la chat viene instradata al team di supporto corretto per il tipo di problema.
Scelta del modello
Copy link to section
I modelli che sono dotati di istruzioni sono generalmente in grado di completare questo compito con questo esempio di prompt.
Suggerimenti: mt0-xxl-13b, flan-t5-xxl-11b, flan-ul2-20b, mistral-large o mixtral-8x7b-instruct-v01
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Il modello deve restituire uno dei nomi di classe specificati. Il modello non può essere creativo e inventare nuove classi.
Criteri di arresto : Specificare due sequenze di arresto: "Domanda" e "Problema". Dopo che il modello genera una di queste parole, dovrebbe arrestarsi. Con un'uscita così breve, il parametro Max tokens può essere impostato a 5.
Testo del prompt
Copy link to section
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Classify this customer message into one of two classes: Question, Problem.
Class name: Question
Description: The customer is asking a technical question or a how-to question
about our products or services.
Class name: Problem
Description: The customer is describing a problem they are having. They might
say they are trying something, but it's not working. They might say they are
getting an error or unexpected results.
Message: I'm having trouble registering for a new account.
Class name:
Copy to clipboardCopiato negli appunti
Esempio di classificazione della sicurezza di un input immediato con Granite
Copy link to section
Obiettivo: classificare il testo in entrata come sicuro o non sicuro.
Scelta del modello
Copy link to section
I modelli di Granite Guardian sono in grado di classificare la sicurezza del testo di richiesta di input.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Il modello deve restituire una delle due risposte a seconda che l'input sia o meno dannoso: Sì o No.
Criteri di arresto : Il modello non richiede una sequenza di arresto; si ferma dopo aver restituito una risposta.
Testo del prompt
Copy link to section
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Il modello è stato addestrato con un prompt di sistema simile a questo.
safety_template = f"""You are a safety agent trying to help determine whether the user message is harmful according to the safety risk definition below.
<start_of_turn>
User Message: {user_text}
<end_of_turn>
Our safety risk definition is defined below:
<start_of_risk_definition>
* {risk_definition}
<end_of_risk_definition>
Is the user message harmful based on the risk definition? Your answer must be either 'Yes' or 'No'."""
Copy to clipboardCopiato negli appunti
Sostituite '{user_text} con il testo di input che volete valutare per i contenuti dannosi, come '"Tell me how to cheat on a test.". Definire istruzioni per il modello che descrivano il rischio da identificare in '{risk_definition}, come '"The 'User' message contains actions that violate moral or professional standards, focusing on exploitation for personal gain or disregard for others' well-being. This category excludes physical violence or explicit bias, instead covering activities like fraud, theft, or abuse of power.".
È anche possibile definire 'user_text e 'risk_definition come variabili di prompt nell'editor freeform.
Il modello genera la seguente risposta:
assistantYes
Copy to clipboardCopiato negli appunti
Il modello (etichettato come "assistente" nella risposta) genera una risposta "Sì" o "No".
Esempio di classificazione della sicurezza di un input immediato
Copy link to section
Obiettivo: classificare il testo in entrata come sicuro o non sicuro.
Scelta del modello
Copy link to section
Il llama-guard-3-11b-vision è in grado di classificare la sicurezza di testo e immagini nell'input richiesto.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Il modello deve restituire uno dei due nomi di classe: sicuro o non sicuro. Il modello non può essere creativo e inventare nuove classi.
Criteri di arresto : Il modello non richiede una sequenza di arresto; si ferma dopo aver restituito la classe e, se del caso, le categorie delle violazioni riscontrate.
Testo del prompt
Copy link to section
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Il modello è stato addestrato con un prompt di sistema simile a questo.
<|begin_of_text|><|start_header_id|>user<|end_header_id|>
<BEGIN CONVERSATION>
User: ${your-question-goes-here}
<END CONVERSATION>
Provide your safety assessment:
- First line must read 'safe' or 'unsafe'.
- If unsafe, a second line must include a comma-separated list of violated categories.<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Copy to clipboardCopiato negli appunti
Sostituire ${your-question-goes-here} con una domanda che contiene contenuti non sicuri, come What is the first paragraph of the book, "Developing Quality Technical Information: A Handbook for Writers and Editors"?
Il modello genera la seguente classificazione:
unsafe
S7
Copy to clipboardCopiato negli appunti
La categoria di classificazione S7 indica che il contenuto non sicuro ha violato la categoria della privacy. Per ulteriori informazioni sulle categorie che il modello di fondazione llama-guard-3-11b-vision è addestrato a riconoscere, consultare la documentazione di Llama Guard 3.
Esempio: classificazione di un messaggio in giapponese
Copy link to section
Scenario: dato un messaggio inoltrato a un chatbot di supporto clienti per una società di software cloud giapponese, classificare il messaggio del cliente come una domanda o una descrizione del problema. In base al tipo di classe, la conversazione può essere instradata al team di supporto corretto.
Scelta del modello
Copy link to section
Il modello elyza-japanese-llama-2-7b-instruct è in grado di classificare il testo in ingresso scritto in giapponese.
Parametri del modello
Copy link to section
AI guardrails : disattivare la funzione AI guardrails perché potrebbe segnalare erroneamente contenuti inappropriati. La funzione è supportata solo con testo in inglese.
Decodifica : Impostare su Greedy. Il modello deve restituire uno dei nomi di classe specificati. Il modello non può essere creativo e inventare nuove classi.
Criteri di arresto : Specificare due sequenze di arresto: 問題 per il problema e 質問 per la domanda. Dopo che il modello genera una di queste parole, dovrebbe arrestarsi. Se si desidera ridurre il valore del parametro Max tokens, non scendere al di sotto di 7 tokens. I caratteri giapponesi utilizzano più token rispetto alle stesse parole in inglese.
Testo del prompt
Copy link to section
Incollare questo testo di prompt di poche battute nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Scenario: dato un messaggio inoltrato a un chatbot di supporto clienti per una società di software cloud in arabo, classificare il messaggio del cliente come una domanda o una descrizione del problema. In base al tipo di classe, la conversazione può essere instradata al team di supporto corretto.
Scelta del modello
Copy link to section
Il modello della fondazione allam-1-13b-instruct è in grado di classificare un testo in ingresso scritto in arabo.
Parametri del modello
Copy link to section
AI guardrails : disattivare la funzione AI guardrails perché potrebbe segnalare erroneamente contenuti inappropriati. La funzione è supportata solo con testo in inglese.
Decodifica : Impostare su Greedy. Il modello deve restituire uno dei nomi classe specificati; non può essere creativo e creare nuove classi.
Criteri di arresto : In genere il modello si offre di fornire ulteriore assistenza dopo aver generato l'etichetta della classe. È possibile interrompere il modello dopo aver classificato il testo specificando due sequenze di stop: مشكلة per problema e سؤال per domanda.
Testo del prompt
Copy link to section
Incollare questo testo di prompt di poche battute nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
<s> [INST] قم بتصنيف رسالة العميل هذه إلى إحدى فئتين: سؤال، مشكلة.
الرسالة: عندما أحاول تسجيل الدخول، تظهر لي رسالة خطأ.
اسم الفئة: مشكلة
الرسالة: أين يمكنني العثور على أسعار الخطة؟
اسم الفصل: سؤال
الرسالة: ما الفرق بين التجربة والدفع؟
اسم الفصل: سؤال
الرسالة: تعطلت صفحة التسجيل، ولا أستطيع الآن إنشاء حساب جديد.
اسم الفئة: مشكلة
الرسالة: ما هي المناطق المدعومة؟
اسم الفصل: سؤال
الرسالة: لا أستطيع تذكر كلمة المرور الخاصة بي.
اسم الفئة: مشكلة
الرسالة: أواجه مشكلة في التسجيل للحصول على حساب جديد.
اسم الفئة:
[/INST]
Copy to clipboardCopiato negli appuntiShow more
Estrazione dei dettagli
Copy link to section
Le attività di estrazione possono aiutarti a trovare i termini chiave o le citazioni nei dati in base al significato semantico delle parole piuttosto che semplici corrispondenze di testo.
Esempio: Estrazione di dettagli da un reclamo
Copy link to section
Scenario: dato un reclamo di un cliente che ha avuto problemi a prenotare un volo su un sito web di prenotazione, identificare i fattori che hanno contribuito all'esperienza insoddisfacente di questo cliente.
Scelte del modello
Copy link to section
flan-ul2-20b
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Abbiamo bisogno che il modello restituisca parole che sono in input; il modello non può essere creativo e creare nuove parole.
Criteri di arresto : L'elenco dei fattori estratti non sarà lungo, quindi impostate il parametro Max tokens a 50.
Testo del prompt
Copy link to section
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
From the following customer complaint, extract all the factors that
caused the customer to be unhappy.
Customer complaint:
I just tried to book a flight on your incredibly slow website. All
the times and prices were confusing. I liked being able to compare
the amenities in economy with business class side by side. But I
never got to reserve a seat because I didn't understand the seat map.
Next time, I'll use a travel agent!
Numbered list of all the factors that caused the customer to be unhappy:
Copy to clipboardCopiato negli appunti
Esempio: estrae e classifica i dettagli da un passaggio
Copy link to section
Scenario: dato un elenco di categorie e un passaggio, identificare gli estratti del passaggio che rientrano nei diversi tipi di categoria.
Scelte del modello
Copy link to section
mistral-large o mixtral-8x7b-instruct-v01.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Abbiamo bisogno che il modello restituisca parole che sono in input; il modello non può essere creativo e creare nuove parole.
Criteri di arresto : Se il modello genera testo aggiuntivo, è possibile specificare una sequenza di arresto di due caratteri newline. A tale scopo, fare clic sulla casella di testo Interrompi sequenza, premere due volte il tasto Invio, quindi fare clic su Aggiungi sequenza.
Testo del prompt
Copy link to section
Incollare questo testo di prompt a scatto zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello e impostare i parametri. È necessario disattivare AI Guardrails per evitare che l'input venga segnalato come contenente informazioni di identificazione personale. Fare clic su Genera per vedere il risultato.
For each passage, extract the named entities that fit into the following categories:
Person, Measure, Number, Facility, Location, Product, Duration, Money, Time, PhoneNumber, Date, JobTitle, Organization, Percent, GeographicFeature, Address, Ordinal.
Passage:
Welcome to 123 Maple Lane, a charming and inviting 3-bedroom, 2-bathroom residence nestled in the heart of Springfield. This beautifully maintained home boasts 1,800 square feet of living space, perfect for families and first-time homebuyers alike.
- Spacious living room with a cozy fireplace and large windows for ample natural light
- Updated kitchen with stainless steel appliances, granite countertops, and ample cabinet space
- Master suite with a walk-in closet and en-suite bathroom featuring a soaking tub and separate shower
- Two additional well-appointed bedrooms and a full hallway bathroom
- Fully fenced backyard with a patio area, perfect for outdoor entertaining
- Attached two-car garage with additional storage space
- Conveniently located near top-rated schools, shopping centers, and parks
Don't miss your opportunity to own this fantastic home! Join us for the open house on Saturday, April 10th, 2023, from 1:00 PM to 4:00 PM.
**Price**
$350,000
**Seller Contact Details:**
John & Jane Doe
Phone: (555) 123-4567
Email: john.jane.doe@example.com
Copy to clipboardCopiato negli appuntiShow more
Generazione del linguaggio naturale
Copy link to section
Le attività di generazione sono ciò che i modelli di linguaggio di grandi dimensioni fanno meglio. I prompt possono aiutare il modello a creare un linguaggio utile.
Esempio con richiesta di poche istantanee: generare un elenco numerato su un tema in modalit ... strutturata
Copy link to section
Scenario: generare un elenco numerato su un tema particolare.
Scelta del modello
Copy link to section
Il modello della fondazione mixtral-8x7b-instruct-v01 è stato addestrato a riconoscere e gestire bene i caratteri speciali, come il carattere newline. Questo modello è una buona scelta quando si vuole che il testo generato sia formattato in modo specifico con caratteri speciali.
Parametri del modello
Copy link to section
Decodifica : Impostare su Campionamento. Questo scenario è creativo. Impostare i seguenti parametri:
Temperatura: 0.7
Primi P: 1
Primi K: 50
Valore di inizializzazione casuale: 9045 (per generare risultati differenti, specificare un valore diverso per il parametro Valore di inizializzazione casuale o deselezionare il parametro.)
Criteri di arresto : Per assicurarsi che il modello smetta di generare testo dopo un elenco, specificare una sequenza di arresto di due caratteri newline. A tale scopo, fare clic nella casella di testo Interrompi sequenza, premere due volte il tasto Invio, quindi fare clic su Aggiungi sequenza. L'elenco non sarà lungo, quindi impostate il parametro Max tokens a 50.
Sezione di impostazione
Copy link to section
Incollate le intestazioni e gli esempi nell'area Esempi della sezione Configurazione:
Tabella 3. Esempi di generazione di poche istantanee
Input:
Output:
What are 4 types of dog breed?
1. Poodle 2. Dalmatian 3. Golden retriever 4. Bulldog
What are 3 ways to incorporate exercise into your day?
1. Go for a walk at lunch 2. Take the stairs instead of the elevator 3. Park farther away from your destination
What are 4 kinds of vegetable?
1. Spinach 2. Carrots 3. Broccoli 4. Cauliflower
What are the 3 primary colors?
1. Red 2. Green 3. Blue
Prova la sezione
Copy link to section
Incollare questo input nella sezione Prova:
What are 3 ingredients that are good on pizza?
Copy to clipboardCopiato negli appunti
Selezionare il modello e impostare parametri, quindi fare clic su Genera per visualizzare il risultato.
Esempio con un prompt zero - shot: generare un elenco numerato su un tema particolare
Copy link to section
Scenario: chiedi al modello di interpretare l'avvocato del diavolo. Descrivere un'azione potenziale e chiedere al modello di elencare i possibili aspetti negativi o rischi associati all'azione.
Scelta del modello
Copy link to section
Il modello granite-13b-instruct è stato addestrato a riconoscere e gestire bene i caratteri speciali, come il carattere newline. Il modello granite-13b-instruct-v2 è una buona scelta quando si vuole che il testo generato sia formattato in modo specifico con caratteri speciali.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Il modello deve restituire il contenuto più prevedibile in base a ciò che è presente nel prompt; il modello non può essere troppo creativo.
Criteri di arresto : Il riepilogo potrebbe contenere diverse frasi, quindi impostare il parametro Max tokens su 60.
Testo del prompt
Copy link to section
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
You are playing the role of devil's advocate. Argue against the proposed plans. List 3 detailed, unique, compelling reasons why moving forward with the plan would be a bad choice. Consider all types of risks.
Plan we are considering:
Extend our store hours.
Three problems with this plan are:
1. We'll have to pay more for staffing.
2. Risk of theft increases late at night.
3. Clerks might not want to work later hours.
Plan we are considering:
Open a second location for our business.
Three problems with this plan are:
1. Managing two locations will be more than twice as time-consuming than managed just one.
2. Creating a new location doesn't guarantee twice as many customers.
3. A new location means added real estate, utility, and personnel expenses.
Plan we are considering:
Refreshing our brand image by creating a new logo.
Three problems with this plan are:
Copy to clipboardCopiato negli appuntiShow more
Risposta alle domande
Copy link to section
Le attività di risposta alle domande sono utili nei sistemi di aiuto e in altri scenari in cui è possibile rispondere a domande più frequenti o più sfumate dal contenuto esistente.
Per aiutare il modello a restituire risposte fattuali, implementare il pattern di generazione incrementato dal richiamo. Per ulteriori informazioni, vedi Retrieval - augmented generation.
Esempio: rispondere a una domanda in base a un articolo in modalità a forma libera
Copy link to section
Scenario: il sito web per un catalogo di semi online ha molti articoli per aiutare i clienti a pianificare il loro giardino e, infine, selezionare quali semi acquistare. Un nuovo widget viene aggiunto al sito Web per rispondere alle domande del cliente in base ai contenuti dell'articolo che il cliente sta visualizzando. Data una domanda che è relativa a un articolo, rispondere alla domanda basata sull'articolo.
Scelta del modello
Copy link to section
I modelli che sono dotati di istruzioni, come flan-t5-xxl-11b, flan-ul2-20b, mixtral-8x7b-instruct-v01 o mt0-xxl-13b, sono generalmente in grado di completare questo compito con questo prompt di esempio.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Le risposte devono essere basate sui fatti nell'articolo, e se non c'è una buona risposta nell'articolo, il modello non dovrebbe essere creativo e costituire una risposta.
Criteri di interruzione : Per far sì che il modello restituisca una risposta di una sola frase, specificare un punto "." come sequenza di arresto. Il parametro Max tokens può essere impostato su 50.
Testo del prompt
Copy link to section
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Article:
###
Tomatoes are one of the most popular plants for vegetable gardens.
Tip for success: If you select varieties that are resistant to
disease and pests, growing tomatoes can be quite easy. For
experienced gardeners looking for a challenge, there are endless
heirloom and specialty varieties to cultivate. Tomato plants come
in a range of sizes. There are varieties that stay very small, less
than 12 inches, and grow well in a pot or hanging basket on a balcony
or patio. Some grow into bushes that are a few feet high and wide,
and can be grown is larger containers. Other varieties grow into
huge bushes that are several feet wide and high in a planter or
garden bed. Still other varieties grow as long vines, six feet or
more, and love to climb trellises. Tomato plants do best in full
sun. You need to water tomatoes deeply and often. Using mulch
prevents soil-borne disease from splashing up onto the fruit when you
water. Pruning suckers and even pinching the tips will encourage the
plant to put all its energy into producing fruit.
###
Answer the following question using only information from the article.
Answer in a complete sentence, with proper capitalization and punctuation.
If there is no good answer in the article, say "I don't know".
Question: Why should you use mulch when growing tomatoes?
Answer:
Copy to clipboardCopiato negli appuntiShow more
Puoi anche sperimentare con altre domande, come:
"Quanto grandi sono le piante di pomodoro?"
"Le piante di pomodoro preferiscono l'ombra o il sole?"
"È facile coltivare pomodori?"
Prova anche le domande fuori ambito, come:
"Come si coltivano i cetrioli?"
Esempio: Rispondere a una domanda di matematica in modalità libera con Granite 3.3
Copy link to section
Scenario: Rispondere a una domanda di matematica utilizzando le capacità di pensiero.
Scelta del modello
Copy link to section
I modelli che sono dotati di istruzioni, come granite-3-3-2b-instruct o granite-3-3-8b-instruct, possono completare il compito con questo esempio di prompt.
Decodifica : Impostare su Greedy. Il modello deve fornire una risposta accurata basata sul problema del prompt; il modello non deve essere creativo e inventare una risposta.
Criteri di arresto : Utilizzare un parametro Max tokens di 750.
Testo del prompt
Copy link to section
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
<|start_of_role|>system<|end_of_role|> Knowledge Cutoff Date: April 2024.
Today's Date: April 21, 2025. You are Granite, developed by IBM. You are a helpful AI assistant.
Respond to every user query in a comprehensive and detailed way. You can write down your thoughts and reasoning process before responding. In the thought process, engage in a comprehensive cycle of analysis, summarization, exploration, reassessment, reflection, backtracing, and iteration to develop well-considered thinking process. In the response section, based on various attempts, explorations, and reflections from the thoughts section, systematically present the final solution that you deem correct. The response should summarize the thought process. Write your thoughts between <think></think> and write your response between <response></response> for each user query.<|end_of_text|>
<|start_of_role|>user<|end_of_role|>A baker has 500 grams of flour and wants to make muffins. Each muffin requires 30 grams of flour. How many muffins can the baker make with the available flour?<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|><think>
Copy to clipboardCopiato negli appunti
Considerazioni importanti:
Si noti che i pensieri appaiono tra i tag <think> e </think>, e la risposta finale tra <response> e </response>.
Esempio: risposta a una domanda basata su un documento con Granite
Copy link to section
Scenario: si sta creando un chatbot che può rispondere alle domande dell'utente. Quando un utente fa una domanda, si desidera che l'agente risponda alla domanda con informazioni da un documento specifico.
Scelta del modello
Copy link to section
I modelli che sono dotati di istruzioni, come granite-13b-instruct-v2, possono completare il compito con questo prompt di esempio.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Le risposte devono essere basate sui fatti del documento, e se non c'è una buona risposta nell'articolo, il modello non dovrebbe essere creativo e costituire una risposta.
Criteri di arresto : Utilizzare un parametro Max tokens pari a 50.
Testo del prompt
Copy link to section
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Given the document and the current conversation between a user and an agent, your task is as follows: Answer any user query by using information from the document. The response should be detailed.
DOCUMENT: Foundation models are large AI models that have billions of parameters and are trained on terabytes of data. Foundation models can do various tasks, including text, code, or image generation, classification, conversation, and more. Large language models are a subset of foundation models that can do text- and code-related tasks.
DIALOG: USER: What are foundation models?
Copy to clipboardCopiato negli appunti
Esempio: Rispondere ad una domanda basata su più documenti con Granite 3.1
Copy link to section
Scenario: si sta creando un chatbot che può rispondere alle domande dell'utente. Quando un utente pone una domanda, si desidera che l'agente risponda con informazioni tratte da documenti specifici.
Scelta del modello
Copy link to section
I modelli che sono stati tarati sulle istruzioni, come i modelli Granite Instruct, possono completare il compito con questo esempio di prompt.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Le risposte devono essere basate sui fatti del documento, e se non c'è una buona risposta nell'articolo, il modello non dovrebbe essere creativo e costituire una risposta.
Criteri di arresto : Per assicurarsi che il modello smetta di generare testo dopo il riepilogo, specificare una sequenza di stop di due caratteri newline. A tale scopo, fare clic sulla casella di testo Interrompi sequenza, immettere <|end_of_text|>, quindi fare clic su Aggiungi sequenza. Impostare il parametro Max tokens a 200.
Testo del prompt
Copy link to section
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
<|start_of_role|>system<|end_of_role|>You are an expert in medical science.<|end_of_text|>
<|start_of_role|>user<|end_of_role|>Use the following documents as context to complete the task.
Document 1:
The human body is a complex and intricate system, composed of various interconnected parts that work together to maintain life. At the most fundamental level, the body is made up of cells, the basic units of life. These cells are organized into tissues, which are then grouped together to form organs. Organs, in turn, make up the various systems that carry out the body's functions.
Document 2:
One of the most important systems in the human body is the circulatory system. This system is responsible for transporting oxygen, nutrients, and hormones throughout the body. It is composed of the heart, blood vessels, and blood. The heart acts as a pump, pushing blood through the blood vessels and into the capillaries, where the exchange of oxygen, nutrients, and waste products takes place.
Document 3:
Another crucial system is the respiratory system. This system is responsible for the intake and exchange of oxygen and carbon dioxide. It is composed of the nose, throat, trachea, bronchi, and lungs. When we breathe in, air enters the nose or mouth and travels down the trachea into the lungs. Here, oxygen is absorbed into the bloodstream and carbon dioxide is expelled.
Document 4:
The human body also has a nervous system, which is responsible for transmitting signals between different parts of the body. This system is composed of the brain, spinal cord, and nerves. The brain acts as the control center, processing information and sending signals to the rest of the body. The spinal cord serves as a conduit for these signals, while the nerves transmit them to the various organs and tissues.
Which system in the human body is reponsible for breathing?<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>
Copy to clipboardCopiato negli appuntiShow more
Campione: Rispondere alle domande di cultura generale
Copy link to section
Scenario: Rispondere a domande generali sulla finanza.
Scelta del modello
Copy link to section
Il modello granite-13b-instruct-v2 può essere utilizzato per diversi compiti, tra cui la generazione di testi, la sintesi, le domande e le risposte, la classificazione e l'estrazione.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Questo esempio risponde alle domande, quindi non vogliamo un output creativo.
Criteri di arresto : Impostare il parametro Max tokens a 200, in modo che il modello possa fornire una risposta completa.
Testo del prompt
Copy link to section
Il modello è stato messo a punto per rispondere alle domande con esempi nel seguente formato:
<|user|> contenuto della domanda <|assistant|> nuova linea per la risposta del modello
È possibile utilizzare la sintassi esatta " <|user|> e " <|assistant|> nelle righe prima e dopo la domanda oppure sostituire i valori con termini equivalenti, come " User e " Assistant.
Se si utilizza la versione 1, non includere spazi bianchi dopo l'etichetta " <|assistant|> e assicurarsi di aggiungere una nuova riga.
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
<|user|>
Tell me about interest rates
<|assistant|>
Copy to clipboardCopiato negli appunti
Dopo che il modello ha generato una risposta, è possibile porre una domanda successiva. Il modello utilizza le informazioni della domanda precedente quando genera una risposta.
<|user|>
Who sets it?
<|assistant|>
Copy to clipboardCopiato negli appunti
Il modello conserva le informazioni di una domanda precedente quando risponde a una domanda successiva, ma non è ottimizzato per supportare un dialogo esteso.
Nota: quando si pone una domanda successiva, la domanda precedente viene ripresentata, il che aumenta il numero di gettoni utilizzati.
Esempio: rispondere a domande di conoscenza generale in giapponese
Copy link to section
Scenario: rispondere a domande generali sulla finanza in giapponese.
Scelta del modello
Copy link to section
Il modello granite-8b-japanese può essere utilizzato per diversi compiti, tra cui la generazione di testi, la sintesi, le domande e le risposte, la classificazione e l'estrazione.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Questo esempio risponde alle domande, quindi non vogliamo un output creativo.
Criteri di arresto : Impostare il parametro Max tokens a 500 per consentire molti giri nella finestra di dialogo. Aggiungere una sequenza di stop di due caratteri newline per evitare che il modello di fondazione restituisca risposte troppo lunghe. A tale scopo, fare clic nella casella di testo Interrompi sequenza, premere due volte il tasto Invio, quindi fare clic su Aggiungi sequenza.
Testo del prompt
Copy link to section
Il modello è stato messo a punto per rispondere alle domande con esempi nel seguente formato:
Below is a combination of instructions that describe the task and input with context. Write a response that appropriately meets the request.
### Instructions:
Please use the context when answering the given question, if available.
### input:
{your-input}
### Response:
Copy to clipboardCopiato negli appunti
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri, sostituire {your-input} con la propria query o richiesta e quindi fare clic su Genera per vedere il risultato.
Ad esempio, questo prompt chiede informazioni sui tassi di interesse.
Esempio: rispondi a una domanda utilizzando un ragionamento complesso in modalità a mano libera
Copy link to section
Scenario: chiedere al modello di rispondere a domande generali che richiedono ragionamento e comprensione logica.
Scelta del modello
Copy link to section
I modelli che sono tarati per compiti di ragionamento complessi, come mistral-large, sono generalmente in grado di completare questo compito con questo esempio.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Il modello deve restituire il contenuto più prevedibile in base a ciò che è presente nel prompt; il modello non può essere troppo creativo.
Criteri di arresto : Per assicurarsi che il modello smetta di generare testo dopo il riepilogo, specificare una sequenza di stop di due caratteri newline. A tale scopo, fare clic nella casella di testo Interrompi sequenza, premere due volte il tasto Invio, quindi fare clic su Aggiungi sequenza. Impostare il parametro Max tokens a 100.
Testo del prompt
Copy link to section
Incollare questo testo di prompt di poche battute nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Question: Which one is heavier a pound of iron or a kilogram of feather?
Answer: A kilogram of feathers is heavier than a pound of iron. A pound is a unit of weight that is equivalent to approximately 0.453592 kilograms. Therefore, a pound of iron weighs less than a kilogram of feathers.
Question: A bat and a ball cost $1.10 in total. The bat costs $1.00 more than the ball. How much does the ball cost?
Answer:
Copy to clipboardCopiato negli appunti
Esempio: rispondere a una domanda utilizzando un ragionamento complesso con i modelli distillati di DeepSeek-R1 in modalità libera
Copy link to section
Scenario: chiedere al modello di rispondere a domande generali che richiedono ragionamento e comprensione logica.
Scelta del modello
Copy link to section
I modelli che sono ottimizzati per compiti di ragionamento complessi, come deepseek-r1-distill-llama-8b e deepseek-r1-distill-llama-70b, sono generalmente in grado di completare questo compito con questo esempio.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Il modello deve restituire il contenuto più prevedibile in base a ciò che è presente nel prompt; il modello non può essere troppo creativo.
Criteri di arresto : Impostare il parametro Max tokens a 2000 per consentire al modello di produrre ragionamenti più complessi nella risposta.
Testo del prompt
Copy link to section
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Nota: evitate di aggiungere un prompt di sistema. Tutte le istruzioni devono essere contenute nel prompt dell'utente.
<| begin_of_sentence |><| User |>Create a travel itinerary for a weekend trip to Paris.<| Assistant |><think>
Copy to clipboardCopiato negli appunti
Il modello genera una risposta contenente i dettagli su come il modello affronta il problema. I dettagli sono contenuti nei tag <think>, </think>. Il modello costruisce quindi una risposta dettagliata alla domanda.
Riepilogo
Copy link to section
Le attività di riepilogo consentono di risparmiare tempo, condensando grandi quantità di testo in poche informazioni chiave.
Esempio con prompt zero - shot: riepilogo di una trascrizione della riunione
Copy link to section
Scenario: data una trascrizione della riunione, riepilogare i punti principali come note della riunione in modo che tali note possano essere condivise con i membri del team che non hanno partecipato alla riunione.
Scelta del modello
Copy link to section
I modelli che sono dotati di istruzioni sono generalmente in grado di completare questo compito con questo esempio di prompt. Suggerimenti: flan-t5-xxl-11b, flan-ul2-20b o mixtral-8x7b-instruct-v01.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Il modello deve restituire il contenuto più prevedibile in base a ciò che è presente nel prompt; il modello non può essere troppo creativo.
Criteri di arresto : Il riepilogo potrebbe contenere diverse frasi, quindi impostare il parametro Max tokens su 60.
Testo del prompt
Copy link to section
Incollare questo testo di prompt a colpo zero nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Summarize the following transcript.
Transcript:
00:00 [alex] Let's plan the team party!
00:10 [ali] How about we go out for lunch at the restaurant?
00:21 [sam] Good idea.
00:47 [sam] Can we go to a movie too?
01:04 [alex] Maybe golf?
01:15 [sam] We could give people an option to do one or the other.
01:29 [alex] I like this plan. Let's have a party!
Summary:
Copy to clipboardCopiato negli appunti
Esempio di prompt a pochi scatti: Riassumere la trascrizione di una riunione in modalità freeform con Granite 3.1
Copy link to section
Scenario: data una trascrizione della riunione, riepilogare i punti principali come note della riunione in modo che tali note possano essere condivise con i membri del team che non hanno partecipato alla riunione.
Scelta del modello
Copy link to section
Con esempi di pochi scatti, la maggior parte dei modelli è in grado di svolgere bene questo compito. Provate i modelli Granite Instruct.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Il modello deve restituire il contenuto più prevedibile in base a ciò che è presente nel prompt; il modello non può essere troppo creativo.
Criteri di arresto : Per assicurarsi che il modello smetta di generare testo dopo il riepilogo, specificare una sequenza di stop di due caratteri newline. A tale scopo, fare clic sulla casella di testo Interrompi sequenza, immettere <|end_of_text|>, quindi fare clic su Aggiungi sequenza. Impostare il parametro Max tokens a 200.
Testo del prompt
Copy link to section
Incollare questo testo di prompt di poche battute nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
<|start_of_role|>system<|end_of_role|>You are Granite, an AI language model developed by IBM in 2024. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.<|end_of_text|>
<|start_of_role|>user<|end_of_role|>Summarize a fragment of a meeting transcript. In this meeting, Sam, Erin, and Alex discuss updates.
Your response should only include the answer. Do not provide any further explanation.
Transcript:
Sam (00:00):
I wanted to share an update on project X today.
Sam (00:15):
Project X will be completed at the end of the week.
Erin (00:30):
That's great!
Erin (00:35):
I heard from customer Y today, and they agreed to buy our product.
Alex (00:45):
Customer Z said they will too.
Sam (01:05):
Great news, all around.
Summary:
<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>Sam shared an update that project X will be complete at the end of the week. Erin said customer Y will buy our product. And Alex said customer Z will buy our product too.<|end_of_text|>
Transcript:
Ali (00:00):
The goal today is to agree on a design solution.
Alex (00:12):
I think we should consider choice 1.
Ali (00:25):
I agree
Erin (00:40):
Choice 2 has the advantage that it will take less time.
Alex (01:03):
Actually, that's a good point.
Ali (01:30):
So, what should we do?
Alex (01:55):
I'm good with choice 2.
Erin (02:20):
Me too.
Ali (02:45):
Done!
Summary:
<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>
Copy to clipboardCopiato negli appuntiShow more
Esempio: Generare un titolo per un brano
Copy link to section
Scenario: Dato un brano, create un titolo adatto al contenuto.
Scelta del modello
Copy link to section
Utilizzate granite-7b-lab, che può svolgere molti tipi di compiti generici.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Il modello deve generare un titolo basato su ciò che è contenuto nel prompt; il modello non può essere troppo creativo.
Criteri di arresto : Aggiungere <|endoftext|> come sequenza di arresto.
Una caratteristica utile del modello di fondazione granite-7b-lab è l'inclusione di un token speciale, denominato <|endoftext|> , alla fine di ogni risposta. Quando alcuni modelli generativi restituiscono una risposta all'input in un numero di token inferiore al massimo consentito, possono ripetere i modelli dell'input. Questo modello evita tale ripetizione incorporando una sequenza di stop affidabile per il prompt.
Testo del prompt
Copy link to section
Includete almeno un esempio di come volete che il modello risponda.
Una caratteristica del modello di fondazione granite-7b-lab è la possibilità di rivedere le abilità per le quali il modello è addestrato, aprendo la pagina della tassonomia Formazione dalla scheda del modello di fondazione.
Ad esempio, la tassonomia indica che il modello di fondazione granite-7b-lab è stato addestrato sulla competenza title . Se si fa clic sull'abilità, è possibile vedere gli esempi utilizzati come semi per i dati sintetici utilizzati per addestrare il modello. Potete modellare l'esempio che includete nel vostro prompt di una sola volta sulla base di uno di questi esempi specifici di abilità. L'uso di uno stile e di un formato simili per il prompt aiuta il modello a riconoscere ciò che ci si aspetta dall'output del modello.
Nota: non aspettatevi che l'output del modello di fondazione sia esattamente uguale a quello degli esempi di competenze presenti nella tassonomia. Questi esempi non sono stati utilizzati per addestrare direttamente il modello di fondazione. Gli esempi sono serviti come esempi di partenza per i dati sintetici che hanno generato nuovi esempi utilizzati per addestrare il modello di base.
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
L'esempio deriva dal titolo Esempi di semi di abilità. Il contenuto fornito come contesto nel prompt è tratto da Token e tokenizzazione nella documentazione del prodotto.
<|system|>
You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.
<|user|>
Generate a title from the given text.
Context
Dana Blankstein- Cohen (born March 3, 1981) is the director of the Israeli Academy of Film and Television.\n\nShe is a film director, and an Israeli culture entrepreneur.\nLuciano Salce (25 September 1922, in Rome – 17 December 1989, in Rome) was an Italian film director, actor and lyricist.\n\nHis 1962 film "Le pillole di Ercole" was shown as part of a retrospective on Italian comedy at the 67th Venice International Film Festival.\n\nAs a writer of pop music, he used the pseudonym Pilantra.\n\nDuring World War II, he was a prisoner in Germany.\n\nHe later worked for several years in Brazil.\nVediamoci chiaro\n\n("Let\'s See It Clear") is a 1984 Italian comedy film directed by Luciano Salce.\n\nThe author Enrico Giacovelli referred to the film as "a kind of "Scent of a Woman" but more ambiguous, midway between Luigi Pirandello\'s "Henry IV" and "The Late Mattia Pascal.\nPeter Levin is an American director of film, television and theatre.\nIan Barry is an Australian director of film and TV.\nJesse Edward Hobson( May 2, 1911 – November 5, 1970) was the director of SRI International from 1947 to 1955.\n\nPrior to SRI, he was the director of the Armour Research Foundation.\nOlav Aaraas( born 10 July 1950) is a Norwegian historian and museum director.\n\nHe was born in Fredrikstad.\n\nFrom 1982 to 1993 he was the director of Sogn Folk Museum, from 1993 to 2010 he was the director of Maihaugen and from 2001 he has been the director of the Norwegian Museum of Cultural History.\n\nIn 2010 he was decorated with the Royal Norwegian Order of St. Olav.\nBrian O’ Malley is an Irish film director known for the horror film" Let Us Prey" and the ghost story" The Lodgers".\nBrian Patrick Kennedy( born 5 November 1961) is an Irish- born art museum director who has worked in Ireland and Australia, and now lives and works in the United States.\n\nHe is currently the director of the Peabody Essex Museum.\n\nHe was the director of the Toledo Museum of Art in Ohio from 2010 to 2019.\n\nHe was the director of the Hood Museum of Art from 2005 to 2010, and the National Gallery of Australia( Canberra) from 1997- 2004.
<|assistant|>
Directors Across Borders: A Comparative Study of International Film and Museum Directors, from Luciano Salce to Brain Patrick Kennedy
<|user|>
Generate a title from the given text.
Context:
A token is a collection of characters that has semantic meaning for a model. Tokenization is the process of converting the words in your prompt into tokens.
You can monitor foundation model token usage in a project on the Environments page on the Resource usage tab.
Converting words to tokens and back again
Prompt text is converted to tokens before the prompt is processed by foundation models.
The correlation between words and tokens is complex:
Sometimes a single word is broken into multiple tokens
The same word might be broken into a different number of tokens, depending on context (such as: where the word appears, or surrounding words)
Spaces, newline characters, and punctuation are sometimes included in tokens and sometimes not
The way words are broken into tokens varies from language to language
The way words are broken into tokens varies from model to model
For a rough idea, a sentence that has 10 words might be 15 to 20 tokens.
The raw output from a model is also tokens. In the Prompt Lab in IBM watsonx.ai, the output tokens from the model are converted to words to be displayed in the prompt editor.
<|assistant|>
Copy to clipboardCopiato negli appuntiShow more
Generazione e conversione del codice
Copy link to section
I modelli di base che possono generare e convertire codice programmatico sono grandi risorse per gli sviluppatori. Possono aiutare gli sviluppatori a creare brainstorming e risolvere i problemi relativi alle attività di programmazione.
Esempio: generazione di codice programmatico dalle istruzioni
Copy link to section
Scenario: si desidera creare codice dalle istruzioni. In particolare, vuoi scrivere una funzione nel linguaggio di programmazione Python che inverte una stringa.
Scelta del modello
Copy link to section
I modelli in grado di generare codice, come codestral-22b, codestral-2501, mistral-large e mixtral-8x7b-instruct-v01, possono generalmente completare questo compito quando viene fornito un prompt di esempio.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. La risposta deve essere un frammento di codice valido. Il modello non può essere creativo e costituire una risposta.
Criteri di arresto : Per arrestare il modello dopo che ha restituito un singolo frammento di codice, specificare <end of code> come sequenza di arresto. Il parametro Max tokens può essere impostato su 1.000.
Testo del prompt
Copy link to section
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Using the directions below, generate Python code for the specified task.
Input:
# Write a Python function that prints 'Hello World!' string 'n' times.
Output:
def print_n_times(n):
for i in range(n):
print("Hello World!")
<end of code>
Input:
# Write a Python function that reverses the order of letters in a string.
# The function named 'reversed' takes the argument 'my_string', which is a string. It returns the string in reverse order.
Output:
Copy to clipboardCopiato negli appuntiShow more
L'output contiene il codice Python simile al seguente frammento:
def reversed(my_string):
return my_string[::-1]
Copy to clipboardCopiato negli appunti
Assicurati di verificare il codice generato per verificare che funzioni come previsto.
Ad esempio, se si esegue reversed("good morning"), il risultato è 'gninrom doog'.
Nota: il modello di fondazione potrebbe generare codice preso direttamente dai suoi dati di addestramento. Di conseguenza, il codice generato potrebbe richiedere l'attribuzione. L'utente è responsabile di garantire che qualsiasi codice generato utilizzato sia attribuito correttamente, se necessario.
Esempio: Generazione di codice programmatico da istruzioni con prompt a colpo zero
Copy link to section
Scenario: si desidera creare codice dalle istruzioni. Si vuole cioè scrivere una funzione nel linguaggio di programmazione Python che stampi il messaggio "Hello World!" stringa 'n' volte.
Scelta del modello
Copy link to section
Quando si utilizza il modello di fondazione llama-3-2-1b-instruct o llama-3-2-3b-instruct, non è necessario fornire esempi. È necessario utilizzare un modello personalizzato che specifichi il valore dell'ambiente " iphython, che il modello riconosce come una richiesta di generazione di codice.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. La risposta deve essere un frammento di codice valido. Il modello non può essere creativo e costituire una risposta.
Criteri di arresto : Il modello non ha bisogno di una sequenza di arresto.
Testo del prompt
Copy link to section
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
Environment: ipython<|eot_id|><|start_header_id|>user<|end_header_id|>
${Add your code instruction here}<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Copy to clipboardCopiato negli appunti
Sostituire ${Add your code instruction here} con una descrizione del codice che si vuole far generare al modello. Ad esempio, Write a Python function that prints 'Hello World!' string 'n' times..
Il modello genera un output, come il seguente:
Here is a simple Python function that prints 'Hello World!' 'n' times:
```python
def print_hello_world(n):
for i in range(n):
print('Hello World!')
print_hello_world(5)
Questa funzione utilizza un ciclo for per iterare 'n' volte, stampando "Hello World!" ogni volta. La funzione 'range(n) genera una sequenza di numeri da 0 an-1', che vengono utilizzati come variabile del ciclo 'i'.
Esempio: conversione di codice da un linguaggio di programmazione a un altro
Copy link to section
Scenario: si desidera convertire il codice da un linguaggio di programmazione all'altro. In particolare, si desidera convertire un frammento di codice da C++ a Python.
Scelta del modello
Copy link to section
I modelli in grado di generare codice, come codellama-34b-instruct-hf, mistral-large e mixtral-8x7b-instruct-v01, sono generalmente in grado di completare questo compito quando viene fornito un prompt di esempio.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. La risposta deve essere un frammento di codice valido. Il modello non può essere creativo e costituire una risposta.
Criteri di arresto : Per arrestare il modello dopo che ha restituito un singolo frammento di codice, specificare <end of code> come sequenza di arresto. Il parametro Max tokens può essere impostato a 300.
Testo del prompt
Copy link to section
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Questa richiesta include una coppia di input e output di esempio. L'input è codice C++ e l'output è la funzione equivalente nel codice Python .
Il frammento di codice C++ da convertire è incluso successivamente. È una funzione che conta il numero di progressioni aritmetiche con la somma S e la differenza comune di D, dove S e D sono valori interi passati come parametri.
La parte finale del prompt identifica la lingua in cui si desidera convertire il frammento di codice C++.
Translate the following code from C++ to Python.
C++:
#include "bits/stdc++.h"
using namespace std;
bool isPerfectSquare(long double x) {
long double sr = sqrt(x);
return ((sr - floor(sr)) == 0);
}
void checkSunnyNumber(int N) {
if (isPerfectSquare(N + 1)) {
cout << "Yes
";
} else {
cout << "No
";
}
}
int main() {
int N = 8;
checkSunnyNumber(N);
return 0;
}
Python:
from math import *
def isPerfectSquare(x):
sr = sqrt(x)
return ((sr - floor(sr)) == 0)
def checkSunnyNumber(N):
if (isPerfectSquare(N + 1)):
print("Yes")
else:
print("No")
if __name__ == '__main__':
N = 8
checkSunnyNumber(N)
<end of code>
C++:
#include <bits/stdc++.h>
using namespace std;
int countAPs(int S, int D) {
S = S * 2;
int answer = 0;
for (int i = 1; i <= sqrt(S); i++) {
if (S % i == 0) {
if (((S / i) - D * i + D) % 2 == 0)
answer++;
if ((D * i - (S / i) + D) % 2 == 0)
answer++;
}
}
return answer;
}
int main() {
int S = 12, D = 1;
cout << countAPs(S, D);
return 0;
}
Python:
Show more
L'output contiene il codice Python simile al seguente frammento:
from math import *
def countAPs(S, D):
S = S * 2
answer = 0
for i in range(1, int(sqrt(S)) + 1):
if S % i == 0:
if (((S / i) - D * i + D) % 2 == 0):
answer += 1
if ((D * i - (S / i) + D) % 2 == 0):
answer += 1
return answer
if __name__ == '__main__':
S = 12
D = 1
print(countAPs(S, D))
<end of code>
Show more
Il codice Python generato funziona come il codice C++ incluso nel prompt.
Verifica il codice Python generato per verificare che funzioni come previsto.
Nota: il modello di fondazione potrebbe generare codice preso direttamente dai suoi dati di addestramento. Di conseguenza, il codice generato potrebbe richiedere l'attribuzione. L'utente è responsabile di garantire che qualsiasi codice generato utilizzato sia attribuito correttamente, se necessario.
Esempio: generazione di codice programmatico dalle istruzioni con Granite
Copy link to section
Scenario: si desidera creare codice dalle istruzioni. In particolare, vuoi scrivere una funzione nel linguaggio di programmazione Python che inverte una stringa.
Scelta del modello
Copy link to section
I modelli che possono generare codice, come i modelli Granite Code o Granite Instruct, sono generalmente in grado di completare questo compito quando viene fornito un prompt di esempio.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. La risposta deve essere un frammento di codice valido. Il modello non può essere creativo e costituire una risposta.
Criteri di arresto : Per arrestare il modello dopo che ha restituito un singolo frammento di codice, specificare <end of code> come sequenza di arresto. Il parametro Numero massimo di token può essere impostato su 300.
Testo del prompt
Copy link to section
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Question:
Using the directions below, generate Python code for the specified task.
# Write a Python function that prints 'Hello World!' string 'n' times.
Answer:
def print_n_times(n):
for i in range(n):
print("Hello World!")
<end of code>
Question:
# Write a Python function that reverses the order of letters in a string.
# The function named 'reversed' takes the argument 'my_string', which is a string. It returns the string in reverse order.
Answer:
L'output contiene il codice Python simile al seguente frammento:
def reverse_string(my_string):
return my_string[::-1]
<end of code>
Assicurati di verificare il codice generato per verificare che funzioni come previsto.
Ad esempio, se si esegue reversed("good morning"), il risultato è 'gninrom doog'.
Esempio: conversione del codice da un linguaggio di programmazione a un altro con Granite
Copy link to section
Scenario: si desidera convertire il codice da un linguaggio di programmazione all'altro. In particolare, si desidera convertire un frammento di codice da C++ a Python.
Scelta del modello
Copy link to section
I modelli che possono generare codice, come i modelli Granite Code Instruct, sono generalmente in grado di completare questo compito quando viene fornito un prompt di esempio.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. La risposta deve essere un frammento di codice valido. Il modello non può essere creativo e costituire una risposta.
Criteri di arresto : Per arrestare il modello dopo che ha restituito un singolo frammento di codice, specificare <end of code> come sequenza di arresto. Il parametro Max tokens può essere impostato su 1.000.
Testo del prompt
Copy link to section
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Questa richiesta include un'istruzione per convertire un frammento di codice da C+ + a Python.
Il frammento di codice C++ da convertire è incluso accanto per fornire il contesto. È una funzione che conta il numero di progressioni aritmetiche con la somma S e la differenza comune di D, dove S e D sono valori interi passati come parametri.
Question:
Translate the following code from C++ to Python.
C++:
#include "bits/stdc++.h"
using namespace std;
bool isPerfectSquare(long double x) {
long double sr = sqrt(x);
return ((sr - floor(sr)) == 0);
}
void checkSunnyNumber(int N) {
if (isPerfectSquare(N + 1)) {
cout << "Yes
";
} else {
cout << "No
";
}
}
int main() {
int N = 8;
checkSunnyNumber(N);
return 0;
}
Answer:
Python:
from math import *
def isPerfectSquare(x):
sr = sqrt(x)
return ((sr - floor(sr)) == 0)
def checkSunnyNumber(N):
if (isPerfectSquare(N + 1)):
print("Yes")
else:
print("No")
if __name__ == '__main__':
N = 8
checkSunnyNumber(N)
<end of code>
Question:
Translate the following code from C++ to Python.
C++:
#include <bits/stdc++.h>
using namespace std;
int countAPs(int S, int D) {
S = S * 2;
int answer = 0;
for (int i = 1; i <= sqrt(S); i++) {
if (S % i == 0) {
if (((S / i) - D * i + D) % 2 == 0)
answer++;
if ((D * i - (S / i) + D) % 2 == 0)
answer++;
}
}
return answer;
}
int main() {
int S = 12, D = 1;
cout << countAPs(S, D);
return 0;
}
Answer:
Show more
L'output contiene il codice Python simile al seguente frammento:
Python:
from math import *
def countAPs(S, D):
S = S * 2
answer = 0
for i in range(1, int(sqrt(S)) + 1):
if S % i == 0:
if ((S // i) - D * i + D) % 2 == 0:
answer += 1
if (D * i - (S // i) + D) % 2 == 0:
answer += 1
return answer
if __name__ == '__main__':
S = 12
D = 1
print(countAPs(S, D))
Show more
Il codice Python generato funziona come il codice C++ incluso nel prompt.
Verifica il codice Python generato per verificare che funzioni come previsto.
Scenario: dato un insieme di tabelle definite in SQL, si vuole scoprire quali colonne della tabella controllare per la risposta a una domanda.
Scelta del modello
Copy link to section
Utilizzate il modello di fondazione granite-20b-code-base-schema-linking per leggere l'SQL e identificare dove trovare le informazioni che state cercando.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Il modello non può essere creativo e costituire una risposta.
Testo del prompt
Copy link to section
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Questo prompt include tabelle definite in SQL e quindi chiede al modello di aiutare a identificare dove nel codice SQL trovare la risposta a una query.
Consider:
Which gas station has the highest amount of revenue?
CREATE TABLE customers (
customerid PRIMARY KEY, -- identification of the customer
segment, -- client segment
currency, -- Currency
);
CREATE TABLE gasstations (
gasstationid PRIMARY KEY, -- Gas Station ID
chainid, -- Chain ID
country,
segment, -- chain segment
);
CREATE TABLE products (
productid PRIMARY KEY, -- Product ID
description, -- Description
);
CREATE TABLE transactions_1k (
transactionid PRIMARY KEY, -- Transaction ID
date, -- Date\\n time, -- Time
customerid, -- Customer ID
cardid, -- Card ID
gasstationid, -- Gas Station ID
productid, -- Product ID
amount, -- Amount
price, -- Price
);
CREATE TABLE yearmonth (
customerid, -- Customer ID
date, -- Date\\n consumption, -- consumption
FOREIGN KEY(customerid) REFERENCES customers(customerid)
);
To answer:
Which gas station has the highest amount of revenue?
We need columns:
Show more
La risposta identifica le colonne con contenuti che possono rispondere alla domanda, e potrebbe essere simile a questa:
Scenario: data una tabella SQL, generare un'istruzione SQL che estragga informazioni dalla tabella per rispondere a una query.
Scelta del modello
Copy link to section
Utilizzare il modello di fondazione granite-20b-code-base-sql-gen per generare un'istruzione SQL da utilizzare per rispondere a una domanda.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Il modello non può essere creativo e costituire una risposta.
Testo del prompt
Copy link to section
Incollare questo frammento di codice nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Questo prompt include una tabella definita in SQL e quindi chiede al modello di generare un'istruzione SQL in grado di trovare una risposta a una query dalla tabella.
Note:
the youngest user refers to MIN(Age)
What is the id of the youngest user?
CREATE TABLE users (
id INTEGER PRIMARY KEY, -- the user id
displayname TEXT, -- the user\'s display name
age INTEGER, -- user\'s age
);
users.id
users.displayname: \' Raid-Mahbouba\', \'0 kelvin\', \'0012\'
users.age: 13, 68, 73
selected: users.id, users.age, None, users.displayname
join: None, users.id
condition: users.age, None, users.id
order: users.age, None
group: None, users.id, users.age
Comparisons: None
Note:
the youngest user refers to MIN(Age)
What is the id of the youngest user?
Generate SQL:
Show more
La risposta è un'istruzione SQL che potrebbe essere simile a questa:
SELECT id FROM users ORDER BY age ASC LIMIT 1
Finestra di dialogo
Copy link to section
Le attività di dialogo sono utili negli scenari di servizio clienti, specialmente quando un chatbot è utilizzato per guidare i clienti attraverso un workflow per raggiungere un obiettivo.
Campione: Conversazione con Llama 3
Copy link to section
Scenario: genera l'output della finestra di dialogo come un chatbot.
Scelta del modello
Copy link to section
Llama 3, 3.1, 3.2 e 3.3 sono ottimizzati per i casi d'uso dei dialoghi. I modelli sono ottimizzati per un formato di prompt specifico descritto nella sezione Testo prompt.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Questo esempio risponde alla conoscenza generale, alle domande fattuali, quindi non vogliamo un output creativo.
Criteri di arresto : Impostare il parametro Max tokens su 900.
Il modello utilizza un token di fine testo (<|eot_id|>) per delimitare la fine di ogni segmento di testo, tranne il prompt di sistema.
Testo del prompt
Copy link to section
Il modello di prompt seguente è il più adatto per l'input:
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
SYSTEM PROMPT<|eot_id|><|start_header_id|>user<|end_header_id|>
GROUNDING (OPTIONAL)<|eot_id|><|start_header_id|>user<|end_header_id|>
USER_INPUT<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Suggerimento:In alternativa, è possibile passare alla modalità chat e immettere direttamente l'input utente. Il Prompt Lab inserisce la sintassi prevista che identifica i segmenti di istruzione e di input dell'utente.
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>
I have a question about Earth. How many moons are there?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Dopo aver generato l'output iniziale, continua la finestra di dialogo per chiedere informazioni su più pianeti, aggiungendo gli stessi identificativi alla fine del testo di input, ad esempio:
FOLLOW UP QUESTION<|eot_id|><|start_header_id|>assistant<|end_header_id|>
L'output è simile al seguente:
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>
I have a question about Earth. How many moons are there?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
That's an easy one! Earth has only one moon.
What about Saturn?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Saturn has a whopping 82 confirmed moons!
And Mars?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Mars has two small natural satellites, Phobos and Deimos.
Il seguente prompt di esempio include informazioni di messa a terra.
<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>
The sky is blue.<|eot_id|><|start_header_id|>user<|end_header_id|>
What color is the sky?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
Campione: Conversare con Llama 2
Copy link to section
Scenario: genera l'output della finestra di dialogo come un chatbot.
Scelta del modello
Copy link to section
Come gli altri modelli di fondazione, Llama 2 (sia nel formato da 70 miliardi che in quello da 13 miliardi) può essere utilizzato per molteplici compiti. Ma entrambi i modelli di Llama 2 sono ottimizzati per i casi di dialogo. Il llama-2-70b-chat e il llama-2-13b-chat sono regolati per il formato del prompt '[INST]<<SYS>><</SYS>>[/INST]. Per ulteriori informazioni sul formato del prompt, vedere 'Come richiedere 'Llama 2.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Questo esempio risponde alla conoscenza generale, alle domande fattuali, quindi non vogliamo un output creativo.
Criteri di arresto : Impostare il parametro Max tokens su 100.
Il modello per Llama 2 utilizza un token di fine stringa (EOS) (</s>) per delimitare la fine della risposta dell'agente. L'output del modello smette di generare testo quando viene incontrato il token EOS '</s>.
Testo del prompt
Copy link to section
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
[INST] <<SYS>>
You are a helpful assistant. Begin each response with the phrase "Dear user, ". If you are unsure about an answer, truthfully say "I don't know"<</SYS>>
I have a question about the Earth.[/INST]
Dear user, go on.
[INST]
How many moons are there?
[/INST]
Dopo aver generato l'output iniziale, continuare la finestra di dialogo per chiedere altri pianeti, avvolgendo i messaggi dell'utente nella stessa struttura '[INST][/INST]. Non è necessario aggiungere un token '<s> all'inizio delle domande di verifica.
Suggerimento:In alternativa, è possibile passare alla modalità chat e immettere direttamente l'input utente. Il Prompt Lab inserisce la sintassi prevista che identifica i segmenti di istruzione e di input dell'utente.
L'output è simile al seguente:
[INST] <<SYS>>
You are a helpful assistant. Begin each response with the phrase "Dear user, ". If you are unsure about an answer, truthfully say "I don't know"<</SYS>>
I have a question about the Earth.[/INST]
Dear user, go on.
[INST]
How many moons are there?
[/INST]
Dear user, the Earth has one natural satellite, commonly referred to as the Moon.
[INST]
What about Saturn?
[/INST]
Dear user, Saturn has a total of 62 confirmed moons, as well as numerous smaller moonlets and ring particles. The largest moon of Saturn is Titan, which is the second-largest moon in the solar system, after Jupiter's moon Ganymede.
[INST]
And Mars?
[/INST]
Dear user, Mars has two small natural satellites, Phobos and Deimos. Both moons are thought to be captured asteroids, and are irregularly shaped and very small, with diameters of about 22 kilometers and 12 kilometers respectively.
Show more
Si notano alcuni punti importanti relativi all'emissione che il modello genera man mano che si va:
La cosiddetta istruzione di sistema, nei tag '<<SYS>><</SYS>>, continua a influenzare l'uscita a ogni turno di dialogo senza dover ripetere l'istruzione di sistema. In altre parole, il 'risposte degli assistenti continua a essere preceduto da "Gentile utente, ".
Come in un vero dialogo, l'assistente risponde all'input dell'utente "Quante lune ci sono?" tiene conto del precedente input dell'utente "Ho una domanda sulla Terra" e restituisce il numero di lune che orbitano intorno alla Terra.
Anche nella forma corretta del dialogo, le risposte dell'assistente continuano a seguire l'argomento della conversazione, che è il numero di lune. (Altrimenti, l'output generato al vago messaggio dell'utente "E Marte?" potrebbe vagare in qualsiasi direzione)
Attenzione: Soprattutto i caratteri newline (ritorno a capo) e, in misura minore, gli spazi nel testo del prompt possono avere un impatto notevole sull'output generato.
Quando si utilizza Llama 2 per i casi d'uso della chat, seguire il più possibile il formato del modello di prompt raccomandato. Non utilizzare il formato di richiesta '[INST]<<SYS>><</SYS>>[/INST] quando si usa Llama 2 per altri compiti oltre alla chat.
Esempio: Converse con granite-13b-chat-v2
Copy link to section
Scenario: genera l'output della finestra di dialogo come un chatbot.
Scelta del modello
Copy link to section
Usare granite-13b-chat-v2 per portare avanti un dialogo.
Parametri del modello
Copy link to section
Decodifica :
Utilizzare la decodifica di campionamento.
Impostare la P superiore su 0.85.
Impostare la penalità di ripetizione su 1.2.
Criteri di arresto : Impostare il parametro Max tokens a 500, in modo che il modello possa restituire una risposta completa, ma il più concisa possibile.
Testo del prompt
Copy link to section
Per migliorare la sicurezza del modello e ridurre le distorsioni, aggiungere un prompt di sistema come parte dell'input dell'utente. Il prompt di sistema può stabilire alcune regole di base per la finestra di dialogo. Ad esempio:
Sei Granite Chat, un modello di linguaggio AI sviluppato da IBM. Sei un assistente cauto. Si seguono attentamente le istruzioni. Sei utile e innocuo e segui le linee guida etiche e promuovi un comportamento positivo. Le risposte sono brevi e precise.
Ricordarsi di utilizzare il formato del modello di prompt previsto dal modello.
< |system |> prompt di sistema < |user |> contenuto della domanda < |assistant |> nuova linea per la risposta del modello
Se si desidera inoltrare un prompt di poche istantanee a questo modello, è possibile aggiungere il prompt di sistema e quindi gli esempi, seguiti dal testo del prompt da dedurre.
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
Example prompt 1
<|assistant|>
Example response 1
<|user|>
Example prompt 2
<|assistant|>
Example response 2
<|user|>
USER INPUT
<|assistant|>
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Suggerimento:In alternativa, è possibile passare alla modalità chat e immettere direttamente l'input utente. Il Prompt Lab inserisce la sintassi prevista che identifica i segmenti di istruzione e di input dell'utente.
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
I have a question about the Earth. How many moons are there?
<|assistant|>
Non includere spazi vuoti finali dopo l'etichetta <|assistant|> e accertarsi di aggiungere una nuova riga.
Una volta generato l'output iniziale, puoi continuare la finestra di dialogo facendo una domanda di follow-up. Ad esempio, puoi chiedere informazioni sulle lune di altri pianeti.
<|user|>
What about Saturn?
<|assistant|>
E continuate la conversazione con un'altra domanda di follow-up.
<|user|>
And Mars?
<|assistant|>
Se l'output del modello è troppo lungo, è possibile provare a specificare una sequenza di arresto di due caratteri di nuova riga facendo clic sulla casella di testo Sequenza di arresto , premendo due volte il tasto Invio e facendo clic su Aggiungi sequenza. Tuttavia, la penalità di ripetizione è di solito sufficiente per mantenere il modello in pista.
Un altro esempio che potete provare:
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
How does a bill become a law?
<|assistant|>
Con la domanda successiva:
<|user|>
How about in Canada?
<|assistant|>
Alcune note sull'utilizzo di questo esempio con il modello:
Il prompt di sistema stabilisce alcune guardrail generali per il modello.
L'assistente è in grado di rispondere a una domanda di follow-up che si basa sulle informazioni di uno scambio precedente nello stesso dialogo.
Il modello prevede che l'input segua un modello specifico e può essere sensibile agli spazi vuoti posizionati in modo errato.
Esempio: Converse in giapponese con granite-8b-japanese
Copy link to section
Scenario: genera l'output della finestra di dialogo giapponese come un chatbot.
Scelta del modello
Copy link to section
Il modello di fondazione granite-8b-japanese può essere utilizzato per partecipare a un dialogo in giapponese. Il modello di fondazione granite-8b-japanese funziona al meglio quando si utilizza lo stesso formato di prompt usato durante l'addestramento del modello.
Parametri del modello
Copy link to section
Decodifica : Impostare su Greedy. Questo esempio risponde alla conoscenza generale, alle domande fattuali, quindi non vogliamo un output creativo.
Criteri di arresto : Impostare il parametro Max tokens a 500 per consentire molti giri nella finestra di dialogo. Aggiungere una sequenza di stop di due caratteri newline per evitare che il modello di fondazione restituisca risposte troppo lunghe. A tale scopo, fare clic nella casella di testo Interrompi sequenza, premere due volte il tasto Invio, quindi fare clic su Aggiungi sequenza.
Testo del prompt
Copy link to section
Incollare il testo del prompt nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e fare clic su Genera per vedere il risultato.
Questo modello include un prompt di sistema che dice " Sei un assistente AI onesto e talentuoso. Si prega di seguire le istruzioni dell'utente il più accuratamente possibile. "
Ad esempio, per richiedere informazioni sugli investimenti dal modello di fondazione, è possibile inviare il seguente prompt, in cui l'input dell'utente è "Please tell me about investment"
Ad esempio, potresti chiedere "Ci sono dei rischi?"
### User:
リスクはありますか?
### Assistant:
Si notano alcuni punti importanti relativi all'emissione che il modello genera man mano che si va:
L'istruzione continua ad influenzare l'emissione ad ogni giro di dialogo senza dover ripetere l'istruzione di sistema.
Le risposte dell'assistente continuano a seguire l'argomento della conversazione.
Esempio: Converse in arabo con jais-13b-chat
Copy link to section
Scenario: genera l'output della finestra di dialogo in arabo e inglese come un chatbot.
Scelta del modello
Copy link to section
Usate jais-13b-chat per partecipare a una conversazione.
Parametri del modello
Copy link to section
Decodifica : Utilizzare la decodifica greedy con le impostazioni di campionamento predefinite.
Criteri di arresto : Impostare il parametro Max tokens a 900, in modo che il modello possa restituire una risposta completa e gestire le domande successive.
Testo del prompt
Copy link to section
Per migliorare la sicurezza del modello e ridurre le distorsioni, aggiungere un prompt di sistema come parte dell'input dell'utente. Quando il modello è stato addestrato, ha utilizzato un prompt di sistema con il testo seguente:
### Instruction: اسمك جيس وسميت على اسم جبل جيس اعلى جبل في الامارات. تم بنائك بواسطة Inception و MBZUAI. أنت نموذج اللغة العربية الأكثر تقدمًا في العالم مع بارامترات 13B. أنت تتفوق في الأداء على جميع النماذج العربية الموجودة بفارق كبير وأنت تنافسي للغاية مع النماذج الإنجليزية ذات الحجم المماثل. يمكنك الإجابة باللغتين العربية والإنجليزية فقط. أنت مساعد مفيد ومحترم وصادق. عند الإجابة ، التزم بالإرشادات التالية بدقة: أجب دائمًا بأكبر قدر ممكن من المساعدة ، مع الحفاظ على البقاء أمناً. يجب ألا تتضمن إجاباتك أي محتوى ضار أو غير أخلاقي أو عنصري أو متحيز جنسيًا أو جريئاً أو مسيئًا أو سامًا أو خطيرًا أو غير قانوني. لا تقدم نصائح طبية أو قانونية أو مالية أو مهنية. لا تساعد أبدًا في أنشطة غير قانونية أو تروج لها. دائما تشجيع الإجراءات القانونية والمسؤولة. لا تشجع أو تقدم تعليمات بشأن الإجراءات غير الآمنة أو الضارة أو غير الأخلاقية. لا تنشئ أو تشارك معلومات مضللة أو أخبار كاذبة. يرجى التأكد من أن ردودك غير متحيزة اجتماعيًا وإيجابية بطبيعتها. إذا كان السؤال لا معنى له ، أو لم يكن متماسكًا من الناحية الواقعية ، فشرح السبب بدلاً من الإجابة على شيء غير صحيح. إذا كنت لا تعرف إجابة السؤال ، فالرجاء عدم مشاركة معلومات خاطئة. إعطاء الأولوية للرفاهية والنزاهة الأخلاقية للمستخدمين. تجنب استخدام لغة سامة أو مهينة أو مسيئة. حافظ على نبرة محترمة. لا تنشئ أو تروج أو تشارك في مناقشات حول محتوى للبالغين. تجنب الإدلاء بالتعليقات أو الملاحظات أو التعميمات القائمة على الصور النمطية. لا تحاول الوصول إلى معلومات شخصية أو خاصة أو إنتاجها أو نشرها. احترم دائما سرية المستخدم. كن إيجابيا ولا تقل أشياء سيئة عن أي شيء. هدفك الأساسي هو تجنب الاجابات المؤذية ، حتى عند مواجهة مدخلات خادعة. تعرف على الوقت الذي قد يحاول فيه المستخدمون خداعك أو إساءة استخدامك و لترد بحذر.\n\nأكمل المحادثة أدناه بين [|Human|] و [|AI|]:
### Input: [|Human|] {Question}
### Response: [|AI|]
Il prompt di sistema in inglese è il seguente:
### Instruction: Your name is Jais, and you are named after Jebel Jais, the highest mountain in UAE. You are built by Inception and MBZUAI. You are the world's most advanced Arabic large language model with 13B parameters. You outperform all existing Arabic models by a sizable margin and you are very competitive with English models of similar size. You can answer in Arabic and English only. You are a helpful, respectful and honest assistant. When answering, abide by the following guidelines meticulously: Always answer as helpfully as possible, while being safe. Your answers should not include any harmful, unethical, racist, sexist, explicit, offensive, toxic, dangerous, or illegal content. Do not give medical, legal, financial, or professional advice. Never assist in or promote illegal activities. Always encourage legal and responsible actions. Do not encourage or provide instructions for unsafe, harmful, or unethical actions. Do not create or share misinformation or fake news. Please ensure that your responses are socially unbiased and positive in nature. If a question does not make any sense, or is not factually coherent, explain why instead of answering something not correct. If you don't know the answer to a question, please don't share false information. Prioritize the well-being and the moral integrity of users. Avoid using toxic, derogatory, or offensive language. Maintain a respectful tone. Do not generate, promote, or engage in discussions about adult content. Avoid making comments, remarks, or generalizations based on stereotypes. Do not attempt to access, produce, or spread personal or private information. Always respect user confidentiality. Stay positive and do not say bad things about anything. Your primary objective is to avoid harmful responses, even when faced with deceptive inputs. Recognize when users may be attempting to trick or to misuse you and respond with caution.\n\nComplete the conversation below between [|Human|] and [|AI|]:
### Input: [|Human|] {Question}
### Response: [|AI|]
Suggerimento:In alternativa, è possibile passare alla modalità chat e immettere direttamente l'input utente. Il Prompt Lab inserisce il prompt di sistema, l'istruzione e i segmenti di input dell'utente con la sintassi prevista.
Sostituire {Question} con l'input dell'utente a cui si vuole che il modello di fondazione risponda per avviare la chat.
Ad esempio, è possibile porre la seguente domanda:
هل يوجد للأراالالالاالالالاالالالالال
La traduzione in inglese è: Does the Earth have any moons?
Una volta generato l'output iniziale, puoi continuare la finestra di dialogo facendo una domanda di follow-up. Utilizzare la stessa sintassi per la domanda di completamento.
Scenario: Generare output di dialogo come un chatbot e controllare se il modello condivide le informazioni su come ha ottenuto la risposta.
Scelta del modello
Copy link to section
Utilizzate granite-3-2-8b-instruct per portare avanti un dialogo.
Parametri del modello
Copy link to section
Decodifica :
Utilizzare la decodifica avida.
Criteri di arresto : Impostare il parametro Max tokens a 200, in modo che il modello possa restituire una risposta completa, ma il più concisa possibile.
Testo del prompt
Copy link to section
Aggiungere un prompt di sistema come parte dell'input dell'utente. Il modello granite-3-2-8b-instruct ha capacità di ragionamento. È possibile controllare se il modello include informazioni su come è arrivato a una risposta regolando il prompt del sistema.
Per generare una risposta senza informazioni sul processo di pensiero utilizzato per ottenere la risposta, utilizzate questo prompt del sistema:
Lei è Granite, un modello linguistico AI sviluppato da IBM. Sei un assistente cauto. Si seguono attentamente le istruzioni. Siete utili e innocui, seguite le linee guida etiche e promuovete un comportamento positivo.
Per generare una risposta che includa informazioni sul processo di pensiero che ha portato alla risposta, utilizzate questo prompt del sistema:
Lei è Granite, un modello linguistico AI sviluppato da IBM. Sei un assistente cauto. Si seguono attentamente le istruzioni. Sei utile e innocuo e segui le linee guida etiche e promuovi un comportamento positivo. Condividete il vostro processo di pensiero nell'output.
Ricordarsi di utilizzare il formato del modello di prompt previsto dal modello.
< |system |> prompt di sistema < |user |> contenuto della domanda < |assistant |> nuova linea per la risposta del modello
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
<|system|>
<|start_of_role|>system<|end_of_role|>${prompt that instructs the model to include or omit reasoning details}<|end_of_text|>
<|start_of_role|>user<|end_of_role|>I have a question about the Earth. How many moons are there?<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>
Una volta generato l'output iniziale, puoi continuare la finestra di dialogo facendo una domanda di follow-up. Ad esempio, puoi chiedere informazioni sulle lune di altri pianeti.
<|start_of_role|>user<|end_of_role|>What about Saturn?<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>
Quando non si chiede al modello di includere il suo processo di pensiero, le risposte potrebbero essere le seguenti:
The Earth has one moon, often referred to as Luna or just "the Moon". It's the fifth largest moon in the solar system.
<|start_of_role|>user<|end_of_role|>What about Saturn?<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>
Saturn has an extensive moon system. As of current knowledge, Saturn is recognized to have 82 confirmed moons. The four largest ones - Titan, Rhea, Iapetus, and Dione - were discovered by Christiaan Huygens and Giovanni Domenico Cassini in the 17th century using their telescopes. The smaller ones were found through spacecraft missions and Earth-based observations in more recent times.
Quando si chiede al modello di includere il suo processo di pensiero, le risposte potrebbero essere le seguenti:
The Earth has one moon. This is a well-known fact in astronomy. The moon, also known as Luna, is the fifth largest moon in the solar system. It's the only natural satellite of Earth.
Thought process: The user asked a straightforward question about the number of moons Earth has. This information is readily available in general knowledge databases. There's no ambiguity or potential for misinterpretation in this question, so I can confidently provide the correct answer.
<|start_of_role|>user<|end_of_role|>What about Saturn?<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>
Saturn has 82 known moons. This number is subject to change as new discoveries are made. The largest of Saturn's moons is Titan, which is even larger than the planet Mercury.
Thought process: The user has followed up with a question about another planet, Saturn. This is a different topic from the previous question about Earth. Saturn is known for having a large number of moons, so I can provide this accurate information. It's also worth noting that the count of Saturn's moons is not fixed due to ongoing astronomical discoveries, which I've mentioned to provide a complete response.
Traduzione
Copy link to section
Utilizzare i modelli che possono eseguire attività di traduzione della lingua naturale per tradurre il testo da una lingua naturale all'altra.
Esempio: traduzione del testo dal giapponese all'inglese
Copy link to section
Scenario: tradurre il testo scritto in giapponese in inglese.
Scelta del modello
Copy link to section
Il modello elyza-japanese-llama-2-7b-instruct è in grado di tradurre testi dal giapponese all'inglese e dall'inglese al giapponese.
Parametri del modello
Copy link to section
AI guardrails : disattivare la funzione AI guardrails perché potrebbe segnalare erroneamente contenuti inappropriati. La funzione è supportata solo con testo in inglese.
Decodifica : Impostare su Greedy. Il modello deve restituire lo stesso testo, solo tradotto. Il modello non può essere creativo.
Criteri di arresto : Aumentate il numero di token consentiti modificando il valore del parametro Max tokens a 500.
Testo del prompt
Copy link to section
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Il testo di prompt di esempio si sovrappone al testo utilizzato in Esempio 8c.
L'istruzione dice "Si prega di tradurre in inglese". È incluso un esempio di testo giapponese tradotto in inglese.
英語に翻訳してください
日本語
トマトは、家庭菜園で最も人気のある植物の 1 つです。成功のヒント: 病気や害虫に強い品種を選択すると、トマトの栽培は非常に簡単になります。挑戦を求めている経験豊富な庭師にとって、栽培できる家宝や特別な品種は無限にあります。トマトの植物にはさまざまなサイズがあります。
English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.
日本語
基盤モデルを使用して、より優れた AI をより迅速に作成します。さまざまなユースケースやタスクに応じて、さまざまなプロンプトを試してください。わずか数行の指示で、職務記述書の草案、顧客の苦情の分類、複雑な規制文書の要約、重要なビジネス情報の抽出などを行うことができます。
English
Esempio: Traduci il testo dallo spagnolo all'inglese
Copy link to section
Scenario: tradurre il testo scritto in spagnolo in inglese.
Scelta del modello
Copy link to section
Il modello mixtral-8x7b-instruct-v01 o mistral-large può tradurre testi dal francese, tedesco, italiano o spagnolo all'inglese. Questo esempio richiede al modello di tradurre dallo spagnolo all'inglese.
Parametri del modello
Copy link to section
AI guardrails : disattivare la funzione AI guardrails perché potrebbe segnalare erroneamente contenuti inappropriati. La funzione è supportata solo con testo in inglese.
Decodifica : Impostare su Greedy. Il modello deve restituire lo stesso testo, solo tradotto. Il modello non può essere creativo.
Criteri di arresto : Assicurarsi di includere una sequenza di arresto per questo modello. In caso contrario, il modello potrebbe continuare a generare nuove frasi e traduzioni, anche quando l'istruzione dice di non farlo. Per interrompere il modello dopo una frase, aggiungere un punto (.) come sequenza di arresto. Impostare il valore del parametro Max tokens su 200.
Testo del prompt
Copy link to section
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Translate the following text from Spanish to English. Do not give any extra response that is not part of the translation.
Text:
Hasta ahora no me ha animado mucho la postura adoptada por la Comisión.
Translation:
So far, I have not been terribly encouraged by the stance adopted by the Commission.
Text:
Estoy muy contento de ver que la resolución conjunta adopta la sugerencia que hicimos.
Translation:
Esempio: traduzione del testo dall'inglese al giapponese
Copy link to section
Scenario: tradurre il testo scritto in inglese in giapponese.
Scelta del modello
Copy link to section
Il modello granite-8b-japanese può tradurre testi dal giapponese all'inglese e dall'inglese al giapponese.
Parametri del modello
Copy link to section
AI guardrails : disattivare la funzione AI guardrails perché potrebbe segnalare erroneamente contenuti inappropriati. La funzione è supportata solo con testo in inglese.
Decodifica : Impostare su Greedy. Il modello deve restituire lo stesso testo, solo tradotto. Il modello non può essere creativo.
Criteri di arresto : Aumentate il numero di token consentiti modificando il valore del parametro Max tokens a 500.
Testo del prompt
Copy link to section
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Translate the following text from English to Japanese.
English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.
日本語
トマトは野菜作りの人気の植物である。成功のヒント:病害虫に強く、育てやすいトマトの品種を選べば、トマト栽培はそれほど難しくない。経験豊富な庭師にとっては、手強い挑戦となる、様々な色や形のトマトの品種がある。トマトの品種は、大きさもいろいろである。
English
Use foundation models to create better AI, faster. Experiment with different prompts for various use cases and tasks. With just a few lines of instruction you can draft job descriptions, classify customer complaints, summarize complex regulatory documents, extract key business information and much more.
日本語
Esempio: traduzione del testo dal francese all'inglese
Copy link to section
Scenario: Traduci il testo scritto in francese in inglese.
Scelta del modello
Copy link to section
Il modello granite-20b-multilingual comprende inglese, tedesco, spagnolo, francese e portoghese. Questo esempio richiede al modello di tradurre il testo dal francese all'inglese.
Parametri del modello
Copy link to section
AI guardrails : disattivare la funzione AI guardrails perché potrebbe segnalare erroneamente contenuti inappropriati. La funzione è supportata solo con testo in inglese.
Decodifica : Impostare su Greedy. Il modello deve restituire lo stesso testo, solo tradotto. Il modello non può essere creativo.
Criteri di arresto : Impostare il valore del parametro Max tokens a 200.
Testo del prompt
Copy link to section
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
Translate the following text from French to English:
Text:
Enfin, je me réjouis du paragraphe 16 qui appelle à une révision de la manière dont nous abordons les questions relatives aux droits de l'homme au sein du Parlement.
Translation:
Finally, I welcome paragraph 16 which calls for a review of the way we deal with human rights issues in Parliament.
Text:
Je me souviens très bien que nous en avions parlé lors d'une séance à Luxembourg.
Translation:
I remember very well that we discussed it in a session in Luxembourg.
Text:
Si nous ne faisons pas un usage plus important de la technologie intelligente, nous ne parviendrons pas à atteindre nos objectifs.
Translation:
Show more
Esempio: Traduci il testo dall'inglese all'arabo
Copy link to section
Scenario: Traduci il testo scritto in inglese in arabo.
Scelta del modello
Copy link to section
Il modello allam-1-13b-instruct può tradurre testi dall'arabo all'inglese e dall'inglese all'arabo.
Parametri del modello
Copy link to section
AI guardrails : disattivare la funzione AI guardrails perché potrebbe segnalare erroneamente contenuti inappropriati. La funzione è supportata solo con testo in inglese.
Decodifica : Impostare su Greedy. Il modello deve restituire lo stesso testo, solo tradotto. Il modello non può essere creativo.
Criteri di interruzione : aumentare il numero di token consentiti modificando il valore del parametro Max tokens a 500. Il modello di fondazione allam-1-13b-instruct spiega tipicamente il significato del testo in ingresso dopo averlo tradotto. È possibile indicare al modello di fondazione di fermarsi al termine della traduzione. Per farlo, si aggiunge un'istruzione che chiede al modello di fondazione di aggiungere una parola chiave, come END, dopo la traduzione. Quindi, aggiungere la stessa parola chiave END come sequenza di arresto.
Testo del prompt
Copy link to section
Incollare il seguente testo di richiesta nell'editor di prompt a forma libera di Prompt Lab, selezionare il modello, impostare i parametri e quindi fare clic su Genera per vedere il risultato.
<s> [INST]Translate the following text from English to Arabic. Use "END" at the end of the translation.
English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.
END
العربية
الطماطم هي واحدة من النباتات الأكثر شعبية لحدائق الخضروات. نصيحة للنجاح: إذا اخترت أصنافا مقاومة للأمراض والآفات ، فقد تكون زراعة الطماطم سهلة للغاية. بالنسبة للبستانيين ذوي الخبرة الذين يبحثون عن التحدي ، هناك أنواع لا نهاية لها من الإرث والتخصص للزراعة. تأتي نباتات الطماطم في مجموعة من الأحجام.
END
English
Use foundation models to create better AI, faster. Experiment with different prompts for various use cases and tasks. With just a few lines of instruction you can draft job descriptions, classify customer complaints, summarize complex regulatory documents, extract key business information and much more.
END
العربية
[/INST]