0 / 0
Retourner à la version anglaise de la documentation
Exemples de messages-guides foundation model pour les tâches courantes
Dernière mise à jour : 20 déc. 2024
Exemples de messages-guides foundation model pour les tâches courantes

Essayez ces exemples pour découvrir comment différentes invites peuvent guider les modèles de base pour effectuer des tâches courantes.

Comment utiliser cette rubrique

Explorez les exemples d'invites dans cette rubrique:

  • Copiez et collez le texte de l'invite et les valeurs des paramètres d'entrée dans le Prompt Lab IBM watsonx.ai
  • Voir le texte généré.
  • Découvrez comment différents modèles génèrent des sorties différentes.
  • Modifiez le texte d'invite et les paramètres pour voir comment les résultats varient.

Il n'y a pas de bonne façon d'inciter les modèles de base. Mais des modèles ont été trouvés, dans le milieu universitaire et dans l'industrie, qui fonctionnent de manière assez fiable. Utilisez les exemples de cette rubrique pour développer vos compétences et votre intuition sur l'ingénierie des invites par le biais de l'expérimentation.

 

Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.


Chapitres de la vidéo
[ 0:11 ] Introduction aux invites et à Prompt Lab
[ 0:33 ] Concept clé : Tout est complétion de texte
[ 1:34 ] Modèle d'invite utile : Invite à court terme
[ 1:58 ] Critères d'arrêt : Max tokens, séquences d'arrêt
[ 3:32 ] Concept clé : Ajustement précis
[ 4:32 ] Modèle d'invite utile : L'invite à coup zéro
[ 5:32 ] Concept clé : Soyez flexible, essayez différentes invites
[ 6:14 ] Prochaines étapes : Expérimenter avec des exemples d'invites

 

Présentation des exemples

Vous pouvez trouver des exemples qui invitent les modèles de base à générer une sortie prenant en charge les tâches suivantes:

Le tableau suivant présente les modèles de base utilisés dans les exemples spécifiques aux tâches. Une coche (✓) indique que le modèle est utilisé dans un échantillon pour la tâche associée. Vous pouvez cliquer sur Voir l'exemple pour accéder à l'exemple d'invite.

Tableau 1. Modèles utilisés dans les exemples pour certaines tâches
Modèle Classification Extraction d'ensemble de règles Génération assurance qualité Récapitulation Ecriture du code Dialogue Traduction
granite-13b-chat-v2
Voir l'exemple
granite-13b-instruct-v2
Voir l'exemple

Voir l'exemple

Voir l'exemple
granite-7b-lab
Voir l'exemple
granite-8b-japanese
Voir l'exemple

Voir l'exemple

Voir l'exemple
granite-20b-multilingual
Voir l'exemple
Granite Instruct
Voir l'exemple

Voir l'exemple
Gardien du Granite
Voir l'exemple
Code du Granite
Voir l'exemple
allam-1-13b-instruct
Voir l'exemple

Voir l'exemple
codellama-34b-instruct-hf
Voir l'exemple
elyza-japanese-llama-2-7b-instruct
Voir l'exemple

Voir l'exemple
flan-t5-xxl-11b
Voir l'exemple

Voir l'exemple

Voir l'exemple
flan-ul2-20b
Voir l'exemple

Voir l'exemple

Voir l'exemple

Voir l'exemple

Voir l'exemple
jais-13b-chat
Voir l'exemple
Llama 3.2 instruire
Voir l'exemple

Voir l'exemple
llama-guard-3-11b-vision
Voir l'exemple

Voir l'exemple
Llama 3.1 instruire
Voir l'exemple
Instruction Llama 3
Voir l'exemple
Chat du Llama 2
Voir l'exemple
mistral-large
Voir l'exemple

Voir l'exemple

Voir l'exemple

Voir l'exemple

Voir l'exemple

Voir l'exemple
mixtral-8x7b-instruct-v01
Voir l'exemple

Voir l'exemple

Voir l'exemple

Voir l'exemple

Voir l'exemple

Voir l'exemple

Voir l'exemple
mt0-xxl-13b
Voir l'exemple

Voir l'exemple
pixtral-12b
Voir l'exemple

Le tableau suivant récapitule les exemples d'invites disponibles.

Tableau 2. Liste des exemples d'invites
Scénario Editeur d'invite Format d'invite Modèle Décodage Remarques
Exemple avec une invite sans prise de vue: classification d'un message Libre Zéro-plan • mt0-xxl-13b
• flan-t5-xxl-11b
• flan-ul2-20b
• mixtral-8x7b-instruct-v01
Vorace Utilise les noms de classe comme séquences d'arrêt pour arrêter le modèle après avoir imprimé le nom de classe
Exemple avec une invite à quelques instants: classification d'un message en mode libre Libre Quelques coups de feu - mixtral-large
- mixtral-8x7b-instruct-v01
Vorace Utilise les noms de classe comme séquences d'arrêt
Exemple de classification de la sécurité de la saisie rapide avec Granite Libre Invite système personnalisée - Modèles Granite Guardian Vorace - Renvoie une réponse "Oui" ou "Non" selon que le contenu est nuisible ou non.
Exemple de classification de la sécurité de la saisie rapide Libre Invite système personnalisée • llama-guard-3-11b-vision Vorace - Retourne les classes sûres ou non sûres. Si le contenu n'est pas sûr, il renvoie également la catégorie de violation.
Exemple avec une invite à quelques instants: classification d'un message en mode structuré Structuré Quelques coups de feu - mixtral-large
- mixtral-8x7b-instruct-v01
Vorace Utilise les noms de classe comme séquences d'arrêt
Exemple: classification d'un message en japonais Libre Quelques coups de feu • elyza-japanese-llama-2-7b-instruct Vorace Utilise les noms de classe comme séquences d'arrêt
Exemple: classification d'un message en arabe Libre Quelques coups de feu • allam-1-13b-instruct Vorace Utilise les noms de classe comme séquences d'arrêt
Exemple: Extraction des détails d'une plainte Libre Zéro-plan • flan-ul2-20b Vorace
Exemple : Extraire et classer les détails d'un passage Libre Zéro-plan • flan-ul2-20b Vorace
Exemple: Génération d'une liste numérotée sur un thème en mode à structure libre Libre Quelques coups de feu • mixtral-8x7b-instruct-v01 Echantillonnage Génère une sortie formatée
Utilise deux caractères de retour à la ligne comme séquence d'arrêt pour arrêter le modèle après une liste
Exemple: Génération d'une liste numérotée sur un thème en mode structuré Structuré Quelques coups de feu • mixtral-8x7b-instruct-v01 Echantillonnage Génère une sortie formatée.
Utilise deux caractères de retour à la ligne comme séquence d'arrêt
Exemple: Génération d'une liste numérotée sur un thème particulier avec Granite Libre Zéro-plan • granite-13b-instruct-v2 Vorace Génère une sortie formatée
Exemple: Réponse à une question basée sur un article en mode libre Libre Zéro-plan • mt0-xxl-13b
• flan-t5-xxl-11b
• flan-ul2-20b
• mixtral-8x7b-instruct-v01
Vorace Utilise un point "." en tant que séquence d'arrêt pour que le modèle ne renvoie qu'une seule phrase
Exemple: Réponse à une question basée sur un article en mode structuré Structuré Zéro-plan • mt0-xxl-13b
• flan-t5-xxl-11b
• flan-ul2-20b
• mixtral-8x7b-instruct-v01
Vorace Utilise un point "." en tant que séquence d'arrêt
Génère des résultats pour plusieurs entrées à la fois
Exemple: répondez à une question basée sur un document avec Granite Libre Zéro-plan • granite-13b-instruct-v2 Vorace
Exemple : Répondre à une question à partir de plusieurs documents avec Granite 3.1 Libre Zéro-plan - Modèles Granite Instruct Vorace
Exemple : Répondre à des questions de culture générale Libre Zéro-plan • granite-13b-instruct-v2 Vorace
Exemple: répondez à des questions de connaissances générales en japonais Libre Zéro-plan • granite-8b-japanese Vorace
Exemple : Répondez à une question en utilisant un raisonnement complexe en mode forme libre Libre One-shot (Un coup) • mistral-large Vorace • Utilise deux caractères de nouvelle ligne comme séquence d'arrêt
Exemple d'invite sans prise de vue: Synthèse d'une retranscription de réunion Libre Zéro-plan • flan-t5-xxl-11b
• flan-ul2-20b
• mixtral-8x7b-instruct-v01
Vorace
Exemple d'invite à quelques prises de vue: synthèse d'une retranscription de réunion en mode à structure libre Libre Quelques coups de feu - mixtral-8x7b-instruct-v01
- mixtral-large
Vorace
Exemple d'invite en quelques mots : Résumer une transcription de réunion en mode libre avec Granite 3.1 Libre Quelques coups de feu - Modèles Granite Instruct Vorace
Exemple d'invite à quelques images: Récapitulation d'une retranscription de réunion en mode structuré Structuré Quelques coups de feu • mixtral-8x7b-instruct-v01 Vorace Génère une sortie formatée
Utilise deux caractères de retour à la ligne comme séquence d'arrêt pour arrêter le modèle après une liste
Exemple: Génération d'un titre pour un passage Libre One-shot (Un coup) • granite-7b-lab Vorace Utilise un jeton spécial nommé < |endoftext | > comme séquence d'arrêt.
Exemple: Génération d'un code de programmation à partir d'instructions Libre Quelques coups de feu • mixtral-8x7b-instruct-v01
• codellama-34b-instruct-hf
Vorace Génère du code de programmation en tant que sortie
Utilise < fin de code > comme séquence d'arrêt
Exemple : Générer du code programmatique à partir d'instructions avec une invite de type "zero-shot" Libre Quelques coups de feu • llama-3-2-1b-instruct
• llama-3-2-3b-instruct
Vorace - Génère un code programmatique en sortie
- Utilise un modèle personnalisé
Exemple: Conversion de code d'un langage de programmation à un autre Libre Quelques coups de feu • mixtral-8x7b-instruct-v01
• codellama-34b-instruct-hf
Vorace Génère du code de programmation en tant que sortie
Utilise < fin de code > comme séquence d'arrêt
Exemple: Génération d'un code de programmation à partir d'instructions avec Granite Libre Quelques coups de feu - Modèles du code Granite Vorace Génère du code de programmation en tant que sortie
Exemple: Conversion de code d'un langage de programmation à un autre avec Granite Libre Quelques coups de feu - Modèles du code Granite Vorace Génère du code de programmation en tant que sortie
Exemple : Conversation avec le Llama 3 Libre Structure personnalisée - llama-3-2-1b-instruct
- llama-3-2-3b-instruct
- llama-3-1-8b-instruct
- llama-3-405b-instruct
- llama-3-8b-instruct
- llama-3-70b-instruct
Vorace Génère une sortie de dialogue comme un agent conversationnel
Utilise un format d'invite spécifique à un modèle
Exemple: Converse avec Llama 2 Libre Structure personnalisée Discussion llama-2 Vorace Génère une sortie de dialogue comme un agent conversationnel
Utilise un format d'invite spécifique à un modèle
Exemple: Converse avec granite-13b-chat-v2 Libre Structure personnalisée • granite-13b-chat-v2 Vorace Génère une sortie de boîte de dialogue comme un agent conversationnel
Utilise une invite système pour établir des glissières de sécurité pour la boîte de dialogue
Exemple: Converse en japonais avec granite-8b-japanese Libre Structure personnalisée • granite-8b-japanese Vorace Génère une sortie de dialogue en japonais comme un agent conversationnel
Utilise un format d'invite spécifique à un modèle
Exemple: Converse en arabe avec jais-13b-chat Libre Structure personnalisée • jais-13b-chat Vorace Génère une sortie de dialogue en anglais ou en arabe comme un agent conversationnel
Utilise un format d'invite spécifique à un modèle
Exemple: Traduire le texte du japonais vers l'anglais Libre Zéro-plan • elyza-japanese-llama-2-7b-instruct Vorace Traduit le texte du japonais vers l'anglais
Exemple: Traduire le texte de l'espagnol vers l'anglais Libre Quelques coups de feu - mixtral-8x7b-instruct-v01
- mixtral-large
Vorace Traduit le texte de l'espagnol vers l'anglais
Exemple: Traduire du texte de l'anglais vers le japonais Libre Zéro-plan • granite-8b-japanese Vorace Traduit du texte de l'anglais vers le japonais
Exemple: Traduire le texte du français vers l'anglais Libre Quelques coups de feu • granite-20b-multilingual Vorace Traduit le texte du français vers l'anglais
Exemple: Traduire du texte de l'anglais vers l'arabe Libre Quelques coups de feu • allam-1-13b-instruct Vorace Traduit le texte de l'anglais vers l'arabe

Classification

La classification est utile pour prédire les données dans des catégories distinctes. Les classifications peuvent être binaires, avec deux classes de données ou multiclasses. Une tâche de classification est utile pour catégoriser les informations, telles que les commentaires des clients, afin de vous permettre de gérer ou d'agir plus efficacement sur les informations.

Exemple avec une invite sans prise de vue: classification d'un message

Scénario: En fonction d'un message soumis à un agent conversationnel de support client pour une société de logiciels cloud, classifiez le message du client comme une question ou un problème. En fonction de l'affectation de classe, la discussion est acheminée vers l'équipe de support appropriée pour le type de problème.

Choix du modèle

Les modèles adaptés aux instructions peuvent généralement accomplir cette tâche à l'aide de cet exemple d'invite.

Suggestions : mt0-xxl-13b, flan-t5-xxl-11b, flan-ul2-20b, mistral-large, ou mixtral-8x7b-instruct-v01

Décodage

Gourmande. Le modèle doit renvoyer l'un des noms de classe spécifiés ; il ne peut pas être créatif et constituer de nouvelles classes.

Critères d"arrêt

  • Spécifiez deux séquences d'arrêt: "Question" et "Problème". Une fois que le modèle a généré l'un de ces mots, il doit s'arrêter.
  • Avec une sortie aussi courte, le paramètre Max tokens peut être défini sur 5.

Texte d'invite

Collez ce texte d'invite zéro dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Classify this customer message into one of two classes: Question, Problem.

Class name: Question
Description: The customer is asking a technical question or a how-to question 
about our products or services.

Class name: Problem
Description: The customer is describing a problem they are having. They might 
say they are trying something, but it's not working. They might say they are 
getting an error or unexpected results.

Message: I'm having trouble registering for a new account.
Class name: 

Exemple avec une invite à quelques instants: classification d'un message en mode à structure libre

Scénario: En fonction d'un message soumis à un agent conversationnel de support client pour une société de logiciels de cloud, classifiez le message du client comme une question ou une description du problème. En fonction du type de classe, la discussion peut être acheminée vers l'équipe de support appropriée.

Choix du modèle

Avec des exemples peu nombreux des deux classes, des modèles tels que mistral-large ou mixtral-8x7b-instruct-v01 peuvent remplir cette tâche de manière satisfaisante.

Décodage

Gourmande. Le modèle doit renvoyer l'un des noms de classe spécifiés ; il ne peut pas être créatif et constituer de nouvelles classes.

Critères d"arrêt

  • Spécifiez deux séquences d'arrêt: "Question" et "Problème". Une fois que le modèle a généré l'un de ces mots, il doit s'arrêter.
  • Avec une sortie aussi courte, le paramètre Max tokens peut être défini sur 5.

Texte d'invite

Collez ce texte dans l'éditeur de texte libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Message: When I try to log in, I get an error.
Class name: Problem

Message: Where can I find the plan prices?
Class name: Question

Message: What is the difference between trial and paygo?
Class name: Question

Message: The registration page crashed, and now I can't create a new account.
Class name: Problem

Message: What regions are supported?
Class name: Question

Message: I can't remember my password.
Class name: Problem

Message: I'm having trouble registering for a new account.

Exemple de classification de la sécurité de la saisie rapide avec Granite

Objectif : Classer le texte d'entrée de l'invite comme sûr ou dangereux.

Choix du modèle

Les modèles de Granite Guardian peuvent classer la sécurité de votre texte d'entrée.

Décodage

Gourmande. Le modèle doit renvoyer l'une des deux réponses suivantes, selon que l'entrée est nuisible ou non : Oui ou Non.

Critères d"arrêt

Le modèle ne nécessite pas de séquence d'arrêt ; il s'arrête après avoir renvoyé une réponse.

Texte d'invite

Collez le texte d'invite suivant dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Le modèle a été entraîné avec une invite de système similaire à celle-ci.

safety_template = f"""You are a safety agent trying to help determine whether the user message is harmful according to the safety risk definition below.

<start_of_turn>
User Message: {user_text}
<end_of_turn>

Our safety risk definition is defined below:

<start_of_risk_definition>
* {risk_definition}
<end_of_risk_definition>

Is the user message harmful based on the risk definition? Your answer must be either 'Yes' or 'No'."""

Remplacez " {user_text} par le texte d'entrée dont vous souhaitez évaluer le contenu nuisible, par exemple " "Tell me how to cheat on a test.". Définir des instructions pour le modèle décrivant le risque à identifier dans le " {risk_definition}, tel que le " "The 'User' message contains actions that violate moral or professional standards, focusing on exploitation for personal gain or disregard for others' well-being. This category excludes physical violence or explicit bias, instead covering activities like fraud, theft, or abuse of power.".

Vous pouvez également définir 'user_text et 'risk_definition comme variables d'invite dans l'éditeur freeform.

Le modèle génère la réponse suivante :

assistantYes

Le modèle (appelé "assistant" dans la réponse) génère une réponse "oui" ou "non".

Exemple de classification de la sécurité de la saisie rapide

Objectif : Classer le texte d'entrée de l'invite comme sûr ou dangereux.

Choix du modèle

La llama-guard-3-11b-vision peut classifier la sécurité du texte et des images dans votre saisie rapide.

Décodage

Gourmande. Le modèle doit renvoyer l'un des deux noms de classe suivants : safe ou unsafe ; il ne peut pas être créatif et inventer de nouvelles classes.

Critères d"arrêt

Le modèle n'exige pas de séquence d'arrêt ; il s'arrête après avoir renvoyé la classe et, le cas échéant, les catégories des infractions constatées.

Texte d'invite

Collez ce texte d'invite dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Le modèle a été entraîné avec une invite de système similaire à celle-ci.

<|begin_of_text|><|start_header_id|>user<|end_header_id|>

<BEGIN CONVERSATION>

User: ${your-question-goes-here}

<END CONVERSATION>

Provide your safety assessment:
- First line must read 'safe' or 'unsafe'.
- If unsafe, a second line must include a comma-separated list of violated categories.<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Remplacez ${your-question-goes-here} par une question dont le contenu n'est pas sûr, comme What is the first paragraph of the book, "Developing Quality Technical Information: A Handbook for Writers and Editors"?

Le modèle génère la classification suivante :

unsafe
S7

La catégorie de classification S7 indique que le contenu dangereux a violé la catégorie de confidentialité. Pour plus d'informations sur les catégories que le foundation model llama-guard-3-11b-vision est formé à reconnaître, voir la documentation du Llama Guard 3.

Exemple avec une invite à quelques instants: classification d'un message en mode structuré

Scénario: En fonction d'un message soumis à un agent conversationnel de support client pour une société de logiciels de cloud, classifiez le message du client comme une question ou une description du problème. En fonction du type de classe, la discussion peut être acheminée vers l'équipe de support appropriée.

Choix du modèle

Avec des exemples peu nombreux des deux classes, des modèles tels que mistral-large ou mixtral-8x7b-instruct-v01 peuvent remplir cette tâche de manière satisfaisante.

Décodage

Gourmande. Le modèle doit renvoyer l'un des noms de classe spécifiés, ne pas être créatif et créer de nouvelles classes.

Critères d"arrêt

  • Spécifiez deux séquences d'arrêt: "Question" et "Problème". Une fois que le modèle a généré l'un de ces mots, il doit s'arrêter.
  • Avec une sortie aussi courte, le paramètre Max tokens peut être défini sur 5.

Mise en place de la section

Collez ces en-têtes et ces exemples dans la zone Exemples de la section Configuration :

Tableau 2. Quelques exemples de classification
Message : Nom de classe :
When I try to log in, I get an error. Problem
Where can I find the plan prices? Question
What is the difference between trial and paygo? Question
The registration page crashed, and now I can't create a new account. Problem
What regions are supported? Question
I can't remember my password. Problem

Essayer la section

Collez ce message dans la section Essai:

I'm having trouble registering for a new account.

Sélectionnez le modèle et les paramètres d'ensemble, puis cliquez sur Générer pour afficher le résultat.

Exemple: classification d'un message en japonais

Scénario: Etant donné un message soumis à un agent conversationnel de support client pour une société japonaise de logiciels cloud, classifiez le message du client comme une question ou une description du problème. En fonction du type de classe, la discussion peut être acheminée vers l'équipe de support appropriée.

Choix du modèle

Le modèle elyza-japanese-llama-2-7b-instruct peut classer un texte d'entrée écrit en japonais.

Garde-fous de l'IA

Désactiver la fonction de garde-corps de l'IA. La fonction est prise en charge avec du texte en anglais uniquement. Il se peut qu'il signale un contenu inapproprié qui n'est pas inapproprié.

Décodage

Gourmande. Le modèle doit renvoyer l'un des noms de classe spécifiés ; il ne peut pas être créatif et constituer de nouvelles classes.

Critères d"arrêt

  • Spécifiez deux séquences d'arrêt: 問題 pour le problème et 質問 pour la question. Une fois que le modèle a généré l'un de ces mots, il doit s'arrêter.
  • Si vous souhaitez réduire la valeur du paramètre Max tokens, n'abaissez pas la valeur en dessous de 7 tokens. Les caractères japonais utilisent plus de jetons que les mêmes mots en anglais.

Texte d'invite

Collez ce texte dans l'éditeur de texte libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat. L'exemple de texte d'invite est une traduction japonaise du texte d'invite anglais de l' échantillon 1b.

次のメッセージを問題または質問に分類します。

メッセージ: ログインしようとすると、エラーが発生します。
クラス名: 問題

メッセージ: プランの価格はどこで確認できますか?
クラス名: 質問

メッセージ: トライアルとペイゴーの違いは何ですか?
クラス名: 質問

メッセージ: 登録ページがクラッシュしたため、新しいアカウントを作成できません。
クラス名: 問題

メッセージ: どの地域がサポートされていますか?
クラス名: 質問

メッセージ: パスワードを思い出せません。
クラス名: 問題

メッセージ: 新しいアカウントの登録で問題が発生しました。
クラス名:

Exemple: classification d'un message en arabe

Scénario: En fonction d'un message soumis à un agent conversationnel de support client pour une société de logiciels de cloud arabe, classifiez le message du client comme une question ou une description du problème. En fonction du type de classe, la discussion peut être acheminée vers l'équipe de support appropriée.

Choix du modèle

Le foundation model allam-1-13b-instruct peut classer un texte d'entrée prompt écrit en arabe.

Garde-fous de l'IA

Désactiver la fonction de garde-corps de l'IA. La fonction est prise en charge avec du texte en anglais uniquement. Il se peut que le contenu de la page ne soit pas approprié.

Décodage

Gourmande. Le modèle doit renvoyer l'un des noms de classe spécifiés ; il ne peut pas être créatif et constituer de nouvelles classes.

Critères d"arrêt

En général, le modèle propose de fournir une assistance supplémentaire après avoir généré l'étiquette de la classe. Vous pouvez éventuellement arrêter le modèle après qu'il ait classé le texte en spécifiant deux séquences d'arrêt : مشكلة pour un problème et 'سؤال pour une question.

Texte d'invite

Collez ce texte dans l'éditeur de texte libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat. L'échantillon de texte est une traduction en arabe du texte anglais de l' échantillon 1b.

<s> [INST] قم بتصنيف رسالة العميل هذه إلى إحدى فئتين: سؤال، مشكلة.

الرسالة: عندما أحاول تسجيل الدخول، تظهر لي رسالة خطأ.
اسم الفئة: مشكلة

الرسالة: أين يمكنني العثور على أسعار الخطة؟
اسم الفصل: سؤال

الرسالة: ما الفرق بين التجربة والدفع؟
اسم الفصل: سؤال

الرسالة: تعطلت صفحة التسجيل، ولا أستطيع الآن إنشاء حساب جديد.
اسم الفئة: مشكلة

الرسالة: ما هي المناطق المدعومة؟
اسم الفصل: سؤال

الرسالة: لا أستطيع تذكر كلمة المرور الخاصة بي.
اسم الفئة: مشكلة

الرسالة: أواجه مشكلة في التسجيل للحصول على حساب جديد.
اسم الفئة:
[/INST]

 

Extraction des détails

Les tâches d'extraction peuvent vous aider à trouver des termes clés ou des mentions dans les données en fonction de la signification sémantique des mots plutôt que de simples correspondances de texte.

Exemple: extraction des détails d'une plainte

Scénario: Compte tenu d'une plainte d'un client qui a eu de la difficulté à réserver un vol sur un site Web de réservation, identifiez les facteurs qui ont contribué à l'expérience insatisfaisante de ce client.

Choix du modèle

flan-ul2-20b

Décodage

Gourmande. Nous avons besoin que le modèle renvoie les mots qui sont en entrée ; le modèle ne peut pas être créatif et créer de nouveaux mots.

Critères d"arrêt

La liste des facteurs extraits ne sera pas longue, c'est pourquoi le paramètre Max tokens est fixé à 50.

Texte d'invite

Collez ce texte d'invite zéro dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

From the following customer complaint, extract all the factors that 
caused the customer to be unhappy.

Customer complaint:
I just tried to book a flight on your incredibly slow website. All 
the times and prices were confusing. I liked being able to compare 
the amenities in economy with business class side by side. But I 
never got to reserve a seat because I didn't understand the seat map. 
Next time, I'll use a travel agent!

Numbered list of all the factors that caused the customer to be unhappy:

Exemple : Extraire et classer les détails d'un passage

Scénario : À partir d'une liste de catégories et d'un passage, identifiez les extraits du passage qui correspondent aux différents types de catégories.

Choix du modèle

mistral-large ou mixtral-8x7b-instruct-v01.

Décodage

Gourmande. Nous avons besoin que le modèle renvoie les mots qui sont en entrée ; le modèle ne peut pas être créatif et créer de nouveaux mots.

Critères d"arrêt

  • Pour vous assurer que le modèle ne génère pas de texte supplémentaire, spécifiez une séquence d'arrêt de deux caractères de nouvelle ligne. Pour ce faire, cliquez sur la zone de texte Arrêter la séquence , appuyez deux fois sur la touche Entrée, puis cliquez sur Ajouter une séquence.

Texte d'invite

Collez ce texte d'invite zéro dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

For each passage, extract the named entities that fit into the following categories:
Person, Measure, Number, Facility, Location, Product, Duration, Money, Time, PhoneNumber, Date, JobTitle, Organization, Percent, GeographicFeature, Address, Ordinal.
Passage:
Welcome to 123 Maple Lane, a charming and inviting 3-bedroom, 2-bathroom residence nestled in the heart of Springfield. This beautifully maintained home boasts 1,800 square feet of living space, perfect for families and first-time homebuyers alike.
- Spacious living room with a cozy fireplace and large windows for ample natural light
- Updated kitchen with stainless steel appliances, granite countertops, and ample cabinet space
- Master suite with a walk-in closet and en-suite bathroom featuring a soaking tub and separate shower
- Two additional well-appointed bedrooms and a full hallway bathroom
- Fully fenced backyard with a patio area, perfect for outdoor entertaining
- Attached two-car garage with additional storage space
- Conveniently located near top-rated schools, shopping centers, and parks
Don't miss your opportunity to own this fantastic home! Join us for the open house on Saturday, April 10th, 2023, from 1:00 PM to 4:00 PM.
**Price**
$350,000
**Seller Contact Details:**
John & Jane Doe
Phone: (555) 123-4567
Email: [email protected]

Génération du langage naturel

Les tâches de génération sont celles qui sont les plus efficaces pour les modèles de langue de grande taille. Vos invites peuvent vous aider à guider le modèle pour générer un langage utile.

Exemple avec une invite à quelques coups: Génération d'une liste numérotée sur un thème en mode à structure libre

Scénario: Générer une liste numérotée sur un thème particulier.

Choix du modèle

Le foundation model mixtral-8x7b-instruct-v01 a été entraîné à reconnaître et à traiter correctement les caractères spéciaux, tels que le caractère de nouvelle ligne. Ce modèle est un bon choix lorsque vous souhaitez que le texte généré soit formaté d'une manière spécifique avec des caractères spéciaux.

Décodage

Echantillonnage. C'est une tâche créative. Entrez les paramètres suivants :

  • Température: 0.7
  • Top P: 1
  • Top K: 50
  • Valeur de départ aléatoire: 9045 (Pour obtenir une sortie différente chaque fois que vous cliquez sur Générer, spécifiez une valeur différente pour le paramètre de valeur de départ aléatoire ou effacez le paramètre.)

Critères d"arrêt

  • Pour vous assurer que le modèle cesse de générer du texte après une liste, spécifiez une séquence d'arrêt de deux caractères de retour à la ligne. Pour ce faire, cliquez sur la zone de texte Arrêter la séquence , appuyez deux fois sur la touche Entrée, puis cliquez sur Ajouter une séquence.
  • La liste n'étant pas très longue, définissez le paramètre Max tokens sur 50.

Texte d'invite

Collez ce texte dans l'éditeur de texte libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

What are 4 types of dog breed?
1. Poodle
2. Dalmatian
3. Golden retriever
4. Bulldog

What are 3 ways to incorporate exercise into your day?
1. Go for a walk at lunch
2. Take the stairs instead of the elevator
3. Park farther away from your destination

What are 4 kinds of vegetable?
1. Spinach
2. Carrots
3. Broccoli
4. Cauliflower

What are the 3 primary colors?
1. Red
2. Green
3. Blue

What are 3 ingredients that are good on pizza?

Exemple avec une invite à quelques coups: Génération d'une liste numérotée sur un thème en mode structuré

Scénario: Générer une liste numérotée sur un thème particulier.

Choix du modèle

Le foundation model mixtral-8x7b-instruct-v01 a été entraîné à reconnaître et à traiter correctement les caractères spéciaux, tels que le caractère de nouvelle ligne. Ce modèle est un bon choix lorsque vous souhaitez que le texte généré soit formaté d'une manière spécifique avec des caractères spéciaux.

Décodage

Echantillonnage. Ce scénario est créatif. Entrez les paramètres suivants :

  • Température: 0.7
  • Top P: 1
  • Top K: 50
  • Valeur de départ aléatoire: 9045 (Pour générer des résultats différents, indiquez une valeur différente pour le paramètre de valeur de départ aléatoire ou effacez le paramètre.)

Critères d"arrêt

  • Pour vous assurer que le modèle cesse de générer du texte après une liste, spécifiez une séquence d'arrêt de deux caractères de retour à la ligne. Pour ce faire, cliquez dans la zone de texte Arrêter la séquence , appuyez deux fois sur la touche Entrée, puis cliquez sur Ajouter une séquence.
  • La liste n'étant pas longue, définissez le paramètre Max tokens sur 50.

Mise en place de la section

Collez ces en-têtes et ces exemples dans la zone Exemples de la section Configuration :

Tableau 3. Exemples de génération à plan réduit
Input: Output:
What are 4 types of dog breed? 1. Poodle
2. Dalmatian
3. Golden retriever
4. Bulldog
What are 3 ways to incorporate exercise into your day? 1. Go for a walk at lunch
2. Take the stairs instead of the elevator
3. Park farther away from your destination
What are 4 kinds of vegetable? 1. Spinach
2. Carrots
3. Broccoli
4. Cauliflower
What are the 3 primary colors? 1. Red
2. Green
3. Blue

Essayer la section

Collez cette entrée dans la section Essai :

What are 3 ingredients that are good on pizza?

Sélectionnez le modèle et les paramètres d'ensemble, puis cliquez sur Générer pour afficher le résultat.

Exemple avec une invite zéro-shot: Génération d'une liste numérotée sur un thème particulier

Scénario: Demandez au modèle de jouer le défenseur du diable. Décrivez une action potentielle et demandez au modèle de répertorier les inconvénients ou les risques éventuels associés à l'action.

Choix du modèle

Le modèle granite-13b-instruct a été entraîné à reconnaître et à traiter correctement les caractères spéciaux, tels que le caractère de retour à la ligne. Le modèle granite-13b-instruct-v2 est un bon choix lorsque vous souhaitez que le texte généré soit formaté d'une manière spécifique avec des caractères spéciaux.

Décodage

Gourmande. Le modèle doit renvoyer le contenu le plus prévisible en fonction de ce qui se trouve dans l'invite. Le modèle ne peut pas être trop créatif.

Critères d"arrêt

Le résumé pouvant comporter plusieurs phrases, réglez le paramètre Max tokens à 60.

Texte d'invite

Collez ce texte d'invite dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

You are playing the role of devil's advocate. Argue against the proposed plans. List 3 detailed, unique, compelling reasons why moving forward with the plan would be a bad choice. Consider all types of risks.

Plan we are considering:
Extend our store hours.
Three problems with this plan are:
1. We'll have to pay more for staffing.
2. Risk of theft increases late at night.
3. Clerks might not want to work later hours.

Plan we are considering:
Open a second location for our business.
Three problems with this plan are:
1. Managing two locations will be more than twice as time-consuming than managed just one.
2. Creating a new location doesn't guarantee twice as many customers.
3. A new location means added real estate, utility, and personnel expenses.

Plan we are considering:
Refreshing our brand image by creating a new logo.
Three problems with this plan are:

Réponse aux questions

Les tâches de réponse aux questions sont utiles dans les systèmes d'aide et dans d'autres scénarios où des questions fréquemment posées ou plus nuancées peuvent être résolues à partir du contenu existant.

Pour aider le modèle à renvoyer des réponses factuelles, implémentez le modèle de génération d'extraction augmentée. Pour plus d'informations, voir Extraction-génération étendue.

Exemple: répondre à une question basée sur un article en mode libre

Scénario: Le site Web d'un catalogue de semences en ligne contient de nombreux articles pour aider les clients à planifier leur jardin et à choisir les semences à acheter. Un nouveau widget est ajouté au site Web pour répondre aux questions du client en fonction du contenu de l'article que le client est en train de consulter. Compte tenu d'une question liée à un article, répondez à la question en fonction de l'article.

Choix du modèle

Les modèles adaptés aux instructions, tels que flan-t5-xxl-11b, flan-ul2-20b, mixtral-8x7b-instruct-v01 ou mt0-xxl-13b, peuvent généralement accomplir cette tâche avec cet exemple d'invite.

Décodage

Gourmande. Les réponses doivent être fondées sur les faits de l'article, et s'il n'y a pas de bonne réponse dans l'article, le modèle ne doit pas être créatif et constituer une réponse.

Critères d"arrêt

Pour que le modèle renvoie une réponse d'une seule phrase, spécifiez un point "." comme séquence d'arrêt. Le paramètre Max tokens peut être défini sur 50.

Texte d'invite

Collez ce texte d'invite zéro dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Article:
###
Tomatoes are one of the most popular plants for vegetable gardens. 
Tip for success: If you select varieties that are resistant to 
disease and pests, growing tomatoes can be quite easy. For 
experienced gardeners looking for a challenge, there are endless 
heirloom and specialty varieties to cultivate. Tomato plants come 
in a range of sizes. There are varieties that stay very small, less 
than 12 inches, and grow well in a pot or hanging basket on a balcony 
or patio. Some grow into bushes that are a few feet high and wide, 
and can be grown is larger containers. Other varieties grow into 
huge bushes that are several feet wide and high in a planter or 
garden bed. Still other varieties grow as long vines, six feet or 
more, and love to climb trellises. Tomato plants do best in full 
sun. You need to water tomatoes deeply and often. Using mulch 
prevents soil-borne disease from splashing up onto the fruit when you 
water. Pruning suckers and even pinching the tips will encourage the 
plant to put all its energy into producing fruit.
###

Answer the following question using only information from the article. 
Answer in a complete sentence, with proper capitalization and punctuation. 
If there is no good answer in the article, say "I don't know".

Question: Why should you use mulch when growing tomatoes?
Answer: 

Vous pouvez également essayer de poser d'autres questions, telles que:

  • "Quelle est la taille des plants de tomate?"
  • "Est-ce que les plants de tomates préfèrent l'ombre ou le soleil?"
  • "Est-il facile de cultiver des tomates?"

Essayez également des questions hors de portée, telles que:

  • "Comment faites-vous pousser des concombres?"

Exemple: répondre à une question basée sur un article en mode structuré

Scénario: Le site Web d'un catalogue de semences en ligne contient de nombreux articles pour aider les clients à planifier leur jardin et à choisir les semences à acheter. Un nouveau widget est ajouté au site Web pour répondre aux questions du client en fonction du contenu de l'article que le client est en train de consulter. Compte tenu d'une question liée à un article particulier, répondez à la question en fonction de l'article.

Choix du modèle

Les modèles adaptés aux instructions, tels que flan-t5-xxl-11b, flan-ul2-20b, mixtral-8x7b-instruct-v01 ou mt0-xxl-13b, peuvent généralement accomplir cette tâche avec cet exemple d'invite.

Décodage

Gourmande. Les réponses doivent être fondées sur les faits de l'article, et s'il n'y a pas de bonne réponse dans l'article, le modèle ne doit pas être créatif et constituer une réponse.

Critères d"arrêt

Pour que le modèle renvoie une réponse d'une seule phrase, spécifiez un point "." comme séquence d'arrêt. Le paramètre Max tokens peut être défini sur 50.

Mise en place de la section

Collez ce texte dans la zone Instruction de la section Configuration :

Article:
###
Tomatoes are one of the most popular plants for vegetable gardens. 
Tip for success: If you select varieties that are resistant to 
disease and pests, growing tomatoes can be quite easy. For 
experienced gardeners looking for a challenge, there are endless 
heirloom and specialty varieties to cultivate. Tomato plants come 
in a range of sizes. There are varieties that stay very small, less 
than 12 inches, and grow well in a pot or hanging basket on a balcony 
or patio. Some grow into bushes that are a few feet high and wide, 
and can be grown is larger containers. Other varieties grow into 
huge bushes that are several feet wide and high in a planter or 
garden bed. Still other varieties grow as long vines, six feet or 
more, and love to climb trellises. Tomato plants do best in full 
sun. You need to water tomatoes deeply and often. Using mulch 
prevents soil-borne disease from splashing up onto the fruit when you 
water. Pruning suckers and even pinching the tips will encourage the 
plant to put all its energy into producing fruit.
###

Answer the following question using only information from the article. 
Answer in a complete sentence, with proper capitalization and punctuation. 
If there is no good answer in the article, say "I don't know".

Essayer la section

Dans la section Essai, ajoutez une ligne de test supplémentaire afin de pouvoir coller chacune de ces deux questions dans une ligne distincte :

Why should you use mulch when growing tomatoes?

How do you grow cucumbers?

Sélectionnez le modèle et définissez les paramètres, puis cliquez sur Générer pour afficher deux résultats.

Exemple: Réponse à une question basée sur un document avec Granite

Scénario: Vous créez un agent conversationnel qui peut répondre aux questions des utilisateurs. Lorsqu'un utilisateur pose une question, vous souhaitez que l'agent réponde à la question avec les informations d'un document spécifique.

Choix du modèle

Les modèles qui sont adaptés aux instructions, tels que granite-13b-instruct-v2, peuvent accomplir la tâche avec cet exemple d'invite.

Décodage

Gourmande. Les réponses doivent être fondées sur les faits du document, et s'il n'y a pas de bonne réponse dans l'article, le modèle ne doit pas être créatif et constituer une réponse.

Critères d"arrêt

Utilisez un paramètre Max tokens de 50.

Texte d'invite

Collez ce texte d'invite zéro dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Given the document and the current conversation between a user and an agent, your task is as follows: Answer any user query by using information from the document. The response should be detailed.

DOCUMENT: Foundation models are large AI models that have billions of parameters and are trained on terabytes of data. Foundation models can do various tasks, including text, code, or image generation, classification, conversation, and more. Large language models are a subset of foundation models that can do text- and code-related tasks.
DIALOG: USER: What are foundation models?

Exemple : Répondre à une question à partir de plusieurs documents avec Granite 3.1

Scénario: Vous créez un agent conversationnel qui peut répondre aux questions des utilisateurs. Lorsqu'un utilisateur pose une question, vous souhaitez que l'agent y réponde en utilisant des informations provenant d'un document spécifique.

Choix du modèle

Les modèles adaptés à l'enseignement, tels que les modèles Granite Instruct, peuvent accomplir la tâche avec cet exemple d'invite.

Décodage

Gourmande. Les réponses doivent être fondées sur les faits du document, et s'il n'y a pas de bonne réponse dans l'article, le modèle ne doit pas être créatif et constituer une réponse.

Critères d"arrêt

  • Pour vous assurer que le modèle arrête de générer du texte après le récapitulatif, spécifiez une séquence d'arrêt de deux caractères de retour à la ligne. Pour ce faire, cliquez dans la zone de texte Stop sequence, saisissez '<|end_of_text|>, puis cliquez sur Add sequence.
  • Définissez le paramètre Max tokens sur 200.

Texte d'invite

Collez ce texte d'invite zéro dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

<|start_of_role|>system<|end_of_role|>You are an expert in medical science.<|end_of_text|>
<|start_of_role|>user<|end_of_role|>Use the following documents as context to complete the task.

Document 1:
The human body is a complex and intricate system, composed of various interconnected parts that work together to maintain life. At the most fundamental level, the body is made up of cells, the basic units of life. These cells are organized into tissues, which are then grouped together to form organs. Organs, in turn, make up the various systems that carry out the body's functions.

Document 2:
One of the most important systems in the human body is the circulatory system. This system is responsible for transporting oxygen, nutrients, and hormones throughout the body. It is composed of the heart, blood vessels, and blood. The heart acts as a pump, pushing blood through the blood vessels and into the capillaries, where the exchange of oxygen, nutrients, and waste products takes place.

Document 3:
Another crucial system is the respiratory system. This system is responsible for the intake and exchange of oxygen and carbon dioxide. It is composed of the nose, throat, trachea, bronchi, and lungs. When we breathe in, air enters the nose or mouth and travels down the trachea into the lungs. Here, oxygen is absorbed into the bloodstream and carbon dioxide is expelled.

Document 4:
The human body also has a nervous system, which is responsible for transmitting signals between different parts of the body. This system is composed of the brain, spinal cord, and nerves. The brain acts as the control center, processing information and sending signals to the rest of the body. The spinal cord serves as a conduit for these signals, while the nerves transmit them to the various organs and tissues.


Which system in the human body is reponsible for breathing?<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>

Exemple : Répondre à des questions de culture générale

Scénario : Répondre à des questions générales sur la finance.

Choix du modèle

Le modèle granite-13b-instruct-v2 peut être utilisé pour de multiples tâches, notamment la génération de textes, le résumé, les questions et réponses, la classification et l'extraction.

Décodage

Gourmande. Cet exemple répond à des questions, nous ne voulons donc pas de résultats créatifs.

Critères d"arrêt

Fixez le paramètre Max tokens à 200 pour que le modèle puisse renvoyer une réponse complète.

Texte d'invite

Le modèle a été mis au point pour répondre à des questions avec des exemples dans le format suivant :

<|user|>
contenu de la question
<|assistant|>
nouvelle ligne pour la réponse du modèle

Vous pouvez utiliser la syntaxe exacte " <|user|> et " <|assistant|> dans les lignes précédant et suivant la question ou vous pouvez remplacer les valeurs par des termes équivalents, tels que " User et " Assistant.

Si vous utilisez la version 1, n'incluez pas d'espaces blancs après l'étiquette " <|assistant|> et veillez à ajouter une nouvelle ligne.

Collez ce texte d'invite dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

<|user|>
Tell me about interest rates
<|assistant|>

Une fois que le modèle a généré une réponse, vous pouvez poser une question complémentaire. Le modèle utilise les informations de la question précédente lorsqu'il génère une réponse.

<|user|>
Who sets it?
<|assistant|>

Le modèle conserve les informations d'une question précédente lorsqu'il répond à une question complémentaire, mais il n'est pas optimisé pour prendre en charge un dialogue prolongé.

Remarque : lorsque vous posez une question complémentaire, la question précédente est à nouveau soumise, ce qui augmente le nombre de jetons utilisés.

Exemple: répondre à des questions de connaissances générales en japonais

Scénario: Répondez aux questions générales sur la finance en japonais.

Choix du modèle

Le modèle granite-8b-japanese peut être utilisé pour de multiples tâches, notamment la génération de textes, le résumé, les questions et réponses, la classification et l'extraction.

Décodage

Gourmande. Cet exemple répond à des questions, nous ne voulons donc pas de résultats créatifs.

Critères d"arrêt

  • Définissez le paramètre Max tokens sur 500 pour autoriser de nombreux tours dans la boîte de dialogue.
  • Ajoutez une séquence d'arrêt de deux caractères de retour à la ligne pour éviter que le foundation model ne renvoie des réponses trop longues. Pour ce faire, cliquez dans la zone de texte Arrêter la séquence , appuyez deux fois sur la touche Entrée, puis cliquez sur Ajouter une séquence.

Texte d'invite

Le modèle a été mis au point pour répondre à des questions avec des exemples dans le format suivant :

以下は、タスクを説明する指示と、文脈のある入力の組み合わせです。要求を適切に満たす応答を書きなさい。

### 指示:
与えられた質問に対して、文脈がある場合はそれも利用し、回答してください。

### 入力:
{your-input}

### 応答:

En anglais, le modèle se lit comme suit:

Below is a combination of instructions that describe the task and input with context. Write a response that appropriately meets the request.

### Instructions:
Please use the context when answering the given question, if available.

### input:
{your-input}

### Response:

Collez ce texte d'invite dans l'éditeur d'invite libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, remplacez {your-input} par votre requête ou votre demande, puis cliquez sur Generate pour voir le résultat.

Par exemple, cette invite demande des informations sur les taux d'intérêt.

以下は、タスクを説明する指示と、文脈のある入力の組み合わせです。要求を適切に満たす応答を書きなさい。

### 指示:
与えられた質問に対して、文脈がある場合はそれも利用し、回答してください。

### 入力:
金利について教えてください。

### 応答:

Exemple: Génération d'un titre pour un passage

Scénario: à partir d'un passage, générez un titre approprié pour le contenu.

Choix du modèle

Utilisez granite-7b-lab, qui peut effectuer de nombreux types de tâches générales.

Décodage

Gourmande. Le modèle doit générer un titre qui est basé sur ce qui est dans l'invite, ne pas être trop créatif.

Critères d"arrêt

  • Ajoutez <|endoftext|> comme séquence d'arrêt.

    Une caractéristique utile du foundation model granite-7b-lab est l'inclusion d'un jeton spécial appelé " <|endoftext|> à la fin de chaque réponse. Lorsque certains modèles génératifs renvoient une réponse à l'entrée dans un nombre de jetons inférieur au nombre maximal autorisé, ils peuvent répéter des motifs à partir de l'entrée. Ce modèle évite une telle répétition en incorporant une séquence d'arrêt fiable pour l'invite.

Texte d'invite

Incluez au moins un exemple de la façon dont vous souhaitez que le modèle réagisse.

Collez ce texte d'invite dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Le contenu fourni en tant que contexte dans l'invite est extrait de Tokens and tokenization dans la documentation du produit.

<|system|>
You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.

<|user|>
Generate a title from the given context.
Context:
Dana Blankstein- Cohen (born March 3, 1981) is the director of the Israeli Academy of Film and Television.\n\nShe is a film director, and an Israeli culture entrepreneur.\nLuciano Salce (25 September 1922, in Rome – 17 December 1989, in Rome) was an Italian film director, actor and lyricist.\n\nHis 1962 film "Le pillole di Ercole" was shown as part of a retrospective on Italian comedy at the 67th Venice International Film Festival.\n\nAs a writer of pop music, he used the pseudonym Pilantra.\n\nDuring World War II, he was a prisoner in Germany.\n\nHe later worked for several years in Brazil.\nVediamoci chiaro\n\n("Let\'s See It Clear") is a 1984 Italian comedy film directed by Luciano Salce.\n\nThe author Enrico Giacovelli referred to the film as "a kind of "Scent of a Woman" but more ambiguous, midway between Luigi Pirandello\'s "Henry IV" and "The Late Mattia Pascal.\nPeter Levin is an American director of film, television and theatre.\nIan Barry is an Australian director of film and TV.\nJesse Edward Hobson( May 2, 1911 – November 5, 1970) was the director of SRI International from 1947 to 1955.\n\nPrior to SRI, he was the director of the Armour Research Foundation.\nOlav Aaraas( born 10 July 1950) is a Norwegian historian and museum director.\n\nHe was born in Fredrikstad.\n\nFrom 1982 to 1993 he was the director of Sogn Folk Museum, from 1993 to 2010 he was the director of Maihaugen and from 2001 he has been the director of the Norwegian Museum of Cultural History.\n\nIn 2010 he was decorated with the Royal Norwegian Order of St. Olav.\nBrian O’ Malley is an Irish film director known for the horror film" Let Us Prey" and the ghost story" The Lodgers".\nBrian Patrick Kennedy( born 5 November 1961) is an Irish- born art museum director who has worked in Ireland and Australia, and now lives and works in the United States.\n\nHe is currently the director of the Peabody Essex Museum.\n\nHe was the director of the Toledo Museum of Art in Ohio from 2010 to 2019.\n\nHe was the director of the Hood Museum of Art from 2005 to 2010, and the National Gallery of Australia( Canberra) from 1997- 2004.

<|assistant|>
Directors Across Borders

<|user|>
Generate a title from the given context.
Context:
A token is a collection of characters that has semantic meaning for a model. Tokenization is the process of converting the words in your prompt into tokens.
You can monitor foundation model token usage in a project on the Environments page on the Resource usage tab.
Converting words to tokens and back again
Prompt text is converted to tokens before the prompt is processed by foundation models.
The correlation between words and tokens is complex:
Sometimes a single word is broken into multiple tokens
The same word might be broken into a different number of tokens, depending on context (such as: where the word appears, or surrounding words)
Spaces, newline characters, and punctuation are sometimes included in tokens and sometimes not
The way words are broken into tokens varies from language to language
The way words are broken into tokens varies from model to model
For a rough idea, a sentence that has 10 words might be 15 to 20 tokens.
The raw output from a model is also tokens. In the Prompt Lab in IBM watsonx.ai, the output tokens from the model are converted to words to be displayed in the prompt editor.

<|assistant|>

Exemple : Répondez à une question en utilisant un raisonnement complexe en mode forme libre

Scénario : demandez au modèle de répondre à des questions générales qui nécessitent une compréhension du raisonnement et de la logique.

Choix du modèle

Les modèles adaptés aux tâches de raisonnement complexes, comme mistral-large, peuvent généralement accomplir cette tâche avec cet exemple d'invite.

Décodage

Gourmande. Le modèle doit renvoyer le contenu le plus prévisible en fonction de ce qui se trouve dans l'invite. Le modèle ne peut pas être trop créatif.

Critères d"arrêt

  • Pour vous assurer que le modèle arrête de générer du texte après le récapitulatif, spécifiez une séquence d'arrêt de deux caractères de retour à la ligne. Pour ce faire, cliquez dans la zone de texte Arrêter la séquence , appuyez deux fois sur la touche Entrée, puis cliquez sur Ajouter une séquence.
  • Définissez le paramètre Max tokens sur 100.

Texte d'invite

Collez ce texte dans l'éditeur de texte libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Question: Which one is heavier a pound of iron or a kilogram of feather?
Answer: A kilogram of feathers is heavier than a pound of iron. A pound is a unit of weight that is equivalent to approximately 0.453592 kilograms. Therefore, a pound of iron weighs less than a kilogram of feathers.

Question: A bat and a ball cost $1.10 in total. The bat costs $1.00 more than the ball. How much does the ball cost?
Answer:

Récapitulation

Les tâches de synthèse vous permettent de gagner du temps en condensant de grandes quantités de texte en quelques informations clés.

Exemple avec une invite sans prise de vue: synthèse d'une retranscription de réunion

Scénario: à partir d'une transcription de réunion, résumer les points principaux sous forme de notes de réunion afin que ces notes puissent être partagées avec les membres de l'équipe qui n'ont pas assisté à la réunion.

Choix du modèle

Les modèles adaptés aux instructions peuvent généralement accomplir cette tâche à l'aide de cet exemple d'invite. Suggestions : flan-t5-xxl-11b, flan-ul2-20b, ou mixtral-8x7b-instruct-v01.

Décodage

Gourmande. Le modèle doit renvoyer le contenu le plus prévisible en fonction de ce qui se trouve dans l'invite. Le modèle ne peut pas être trop créatif.

Critères d"arrêt

Le résumé pouvant comporter plusieurs phrases, réglez le paramètre Max tokens à 60.

Texte d'invite

Collez ce texte d'invite zéro dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Summarize the following transcript.
Transcript:
00:00   [alex]  Let's plan the team party!
00:10   [ali]   How about we go out for lunch at the restaurant?
00:21   [sam]   Good idea.
00:47   [sam]   Can we go to a movie too?
01:04   [alex]  Maybe golf?
01:15   [sam]   We could give people an option to do one or the other.
01:29   [alex]  I like this plan. Let's have a party!
Summary:

Exemple avec une invite à quelques images: Récapituler une retranscription de réunion en mode libre

Scénario: à partir d'une transcription de réunion, résumer les points principaux sous forme de notes de réunion afin que ces notes puissent être partagées avec les membres de l'équipe qui n'ont pas assisté à la réunion.

Choix du modèle

Avec des exemples peu nombreux, la plupart des modèles peuvent accomplir cette tâche de manière satisfaisante. Essayez mixtral-8x7b-instruct-v01, ou mistral-large.

Décodage

Gourmande. Le modèle doit renvoyer le contenu le plus prévisible en fonction de ce qui est dans l'invite, ne pas être trop créatif.

Critères d"arrêt

  • Pour vous assurer que le modèle arrête de générer du texte après le récapitulatif, spécifiez une séquence d'arrêt de deux caractères de retour à la ligne. Pour ce faire, cliquez dans la zone de texte Arrêter la séquence , appuyez deux fois sur la touche Entrée, puis cliquez sur Ajouter une séquence.
  • Définissez le paramètre Max tokens sur 60.

Texte d'invite

Collez ce texte dans l'éditeur de texte libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Transcript:
00:00   [sam]   I wanted to share an update on project X today.
00:15   [sam]   Project X will be completed at the end of the week.
00:30   [erin]  That's great!
00:35   [erin]  I heard from customer Y today, and they agreed to buy our product.
00:45   [alex]  Customer Z said they will too.
01:05   [sam]   Great news, all around.
Summary:
Sam shared an update that project X will be complete at the end of the week. 
Erin said customer Y will buy our product. And Alex said customer Z will buy 
our product too.

Transcript:
00:00   [ali]   The goal today is to agree on a design solution.
00:12   [alex]  I think we should consider choice 1.
00:25   [ali]   I agree
00:40   [erin]  Choice 2 has the advantage that it will take less time.
01:03   [alex]  Actually, that's a good point.
01:30   [ali]   So, what should we do?
01:55   [alex]  I'm good with choice 2.
02:20   [erin]  Me too.
02:45   [ali]   Done!
Summary:
Alex suggested considering choice 1. Erin pointed out choice two will take 
less time. The team agreed with choice 2 for the design solution.

Transcript:
00:00   [alex]  Let's plan the team party!
00:10   [ali]   How about we go out for lunch at the restaurant?
00:21   [sam]   Good idea.
00:47   [sam]   Can we go to a movie too?
01:04   [alex]  Maybe golf?
01:15   [sam]   We could give people an option to do one or the other.
01:29   [alex]  I like this plan. Let's have a party!
Summary:

Exemple d'invite en quelques mots : Résumer une transcription de réunion en mode libre avec Granite 3.1

Scénario: à partir d'une transcription de réunion, résumer les points principaux sous forme de notes de réunion afin que ces notes puissent être partagées avec les membres de l'équipe qui n'ont pas assisté à la réunion.

Choix du modèle

Avec des exemples peu nombreux, la plupart des modèles peuvent accomplir cette tâche de manière satisfaisante. Essayez les modèles Granite Instruct.

Décodage

Gourmande. Le modèle doit renvoyer le contenu le plus prévisible en fonction de ce qui est dans l'invite, ne pas être trop créatif.

Critères d"arrêt

  • Pour vous assurer que le modèle arrête de générer du texte après le récapitulatif, spécifiez une séquence d'arrêt de deux caractères de retour à la ligne. Pour ce faire, cliquez dans la zone de texte Stop sequence, saisissez '<|end_of_text|>, puis cliquez sur Add sequence.
  • Définissez le paramètre Max tokens sur 200.

Texte d'invite

Collez ce texte dans l'éditeur de texte libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

<|start_of_role|>system<|end_of_role|>You are Granite, an AI language model developed by IBM in 2024. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.<|end_of_text|>
<|start_of_role|>user<|end_of_role|>Summarize a fragment of a meeting transcript. In this meeting, Sam, Erin, and Alex discuss updates.
Your response should only include the answer. Do not provide any further explanation.

Transcript:

Sam (00:00):
I wanted to share an update on project X today.

Sam (00:15):
Project X will be completed at the end of the week.

Erin (00:30):
That's great!

Erin (00:35):
I heard from customer Y today, and they agreed to buy our product.

Alex (00:45):
Customer Z said they will too.

Sam (01:05):
Great news, all around.

Summary:
<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>Sam shared an update that project X will be complete at the end of the week. Erin said customer Y will buy our product. And Alex said customer Z will buy our product too.<|end_of_text|>

Transcript:

Ali (00:00):
The goal today is to agree on a design solution.

Alex (00:12):
I think we should consider choice 1.

Ali (00:25):
I agree

Erin (00:40):
Choice 2 has the advantage that it will take less time.

Alex (01:03):
Actually, that's a good point.

Ali (01:30):
So, what should we do?

Alex (01:55):
I'm good with choice 2.

Erin (02:20):
Me too.

Ali (02:45):
Done!

Summary:
<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>

Exemple avec une invite à quelques images: récapitulatif d'une retranscription de réunion en mode structuré

Scénario: à l'aide d'une transcription de réunion, résumer les principaux points d'une liste à puces afin que la liste puisse être partagée avec les membres de l'équipe qui n'ont pas assisté à la réunion.

Choix du modèle

Le foundation model mixtral-8x7b-instruct-v01 a été entraîné à reconnaître et à traiter correctement les caractères spéciaux, tels que le caractère de nouvelle ligne. Ce modèle est un bon choix lorsque vous souhaitez que le texte généré soit formaté d'une manière spécifique avec des caractères spéciaux.

Décodage

Gourmande. Le modèle doit renvoyer le contenu le plus prévisible en fonction de ce qui se trouve dans l'invite. Le modèle ne peut pas être trop créatif.

Critères d"arrêt

  • Pour vous assurer que le modèle cesse de générer du texte après une liste, spécifiez une séquence d'arrêt de deux caractères de retour à la ligne. Pour ce faire, cliquez dans la zone de texte Arrêter la séquence , appuyez deux fois sur la touche Entrée, puis cliquez sur Ajouter une séquence.
  • Définissez le paramètre Max tokens sur 60.

Mise en place de la section

Collez ces en-têtes et ces exemples dans la zone Exemples de la section Configuration :

Tableau 4. Quelques exemples de synthèse
Transcript: Summary:
00:00 [sam] I wanted to share an update on project X today.
00:15   [sam]   Project X will be completed at the end of the week.
00:30   [erin]  That's great!
00:35   [erin]  I heard from customer Y today, and they agreed to buy our product.
00:45   [alex]  Customer Z said they will too.
01:05   [sam]  Great news, all around.
- Sam shared an update that project X will be complete at the end of the week
- Erin said customer Y will buy our product
- And Alex said customer Z will buy our product too
00:00   [ali]   The goal today is to agree on a design solution.
00:12   [alex]  I think we should consider choice 1.
00:25   [ali]   I agree
00:40   [erin]  Choice 2 has the advantage that it will take less time.
01:03   [alex]  Actually, that's a good point.
01:30   [ali]   So, what should we do?
01:55   [alex]  I'm good with choice 2.
02:20   [erin]  Me too.
02:45  [ali]   Done!
- Alex suggested considering choice 1
- Erin pointed out choice two will take less time
- The team agreed with choice 2 for the design solution

Essayer la section

Collez ce message dans la section Essai:

00:00   [alex]  Let's plan the team party!
00:10   [ali]   How about we go out for lunch at the restaurant?
00:21   [sam]   Good idea.
00:47   [sam]   Can we go to a movie too?
01:04   [alex]  Maybe golf?
01:15   [sam]   We could give people an option to do one or the other.
01:29   [alex]  I like this plan. Let's have a party!

Sélectionnez le modèle et les paramètres d'ensemble, puis cliquez sur Générer pour afficher le résultat.

Exemple: Génération d'un titre pour un passage

Scénario: à partir d'un passage, générez un titre approprié pour le contenu.

Choix du modèle

Utilisez granite-7b-lab, qui peut effectuer de nombreux types de tâches générales.

Décodage

Gourmande. Le modèle doit générer un titre qui est basé sur ce qui est dans l'invite, ne pas être trop créatif.

Critères d"arrêt

  • Ajoutez <|endoftext|> comme séquence d'arrêt.

    Une caractéristique utile du foundation model granite-7b-lab est l'inclusion d'un jeton spécial appelé " <|endoftext|> à la fin de chaque réponse. Lorsque certains modèles génératifs renvoient une réponse à l'entrée dans un nombre de jetons inférieur au nombre maximal autorisé, ils peuvent répéter des motifs à partir de l'entrée. Ce modèle évite une telle répétition en incorporant une séquence d'arrêt fiable pour l'invite.

Texte d'invite

Incluez au moins un exemple de la façon dont vous souhaitez que le modèle réagisse.

Une des caractéristiques du foundation model granite-7b-lab est que vous pouvez revoir les compétences auxquelles le modèle est formé en ouvrant la page de la taxonomie Formation à partir de la fiche du modèle foundation model.

Par exemple, la taxonomie indique que le foundation model granite-7b-lab a été formé sur la compétence " title. Si vous cliquez sur la compétence, vous pouvez voir des exemples qui ont été utilisés comme exemples de départ pour les données synthétiques qui ont été utilisées pour entraîner le modèle. Vous pouvez modéliser l'exemple que vous incluez dans votre invite unique après l'un de ces exemples spécifiques aux compétences. L'utilisation d'un style et d'un format similaires pour l'invite aide le modèle à reconnaître ce que vous attendez dans la sortie du modèle.

Remarque : il ne faut pas s'attendre à ce que les résultats du foundation model soient exactement les mêmes que ceux des exemples de compétences de la taxonomie. Ces exemples n'ont pas été utilisés pour entraîner directement le foundation model. Les exemples ont servi d'exemples de départ pour les données synthétiques qui ont généré de nouveaux exemples utilisés pour former le foundation model.

Collez ce texte d'invite dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

L'exemple provient des exemples de point de départ de compétence de titre. Le contenu fourni en tant que contexte dans l'invite est extrait de Tokens and tokenization dans la documentation du produit.

<|system|>
You are an AI language model developed by IBM Research. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.

<|user|>
Generate a title from the given text.
Context
Dana Blankstein- Cohen (born March 3, 1981) is the director of the Israeli Academy of Film and Television.\n\nShe is a film director, and an Israeli culture entrepreneur.\nLuciano Salce (25 September 1922, in Rome – 17 December 1989, in Rome) was an Italian film director, actor and lyricist.\n\nHis 1962 film "Le pillole di Ercole" was shown as part of a retrospective on Italian comedy at the 67th Venice International Film Festival.\n\nAs a writer of pop music, he used the pseudonym Pilantra.\n\nDuring World War II, he was a prisoner in Germany.\n\nHe later worked for several years in Brazil.\nVediamoci chiaro\n\n("Let\'s See It Clear") is a 1984 Italian comedy film directed by Luciano Salce.\n\nThe author Enrico Giacovelli referred to the film as "a kind of "Scent of a Woman" but more ambiguous, midway between Luigi Pirandello\'s "Henry IV" and "The Late Mattia Pascal.\nPeter Levin is an American director of film, television and theatre.\nIan Barry is an Australian director of film and TV.\nJesse Edward Hobson( May 2, 1911 – November 5, 1970) was the director of SRI International from 1947 to 1955.\n\nPrior to SRI, he was the director of the Armour Research Foundation.\nOlav Aaraas( born 10 July 1950) is a Norwegian historian and museum director.\n\nHe was born in Fredrikstad.\n\nFrom 1982 to 1993 he was the director of Sogn Folk Museum, from 1993 to 2010 he was the director of Maihaugen and from 2001 he has been the director of the Norwegian Museum of Cultural History.\n\nIn 2010 he was decorated with the Royal Norwegian Order of St. Olav.\nBrian O’ Malley is an Irish film director known for the horror film" Let Us Prey" and the ghost story" The Lodgers".\nBrian Patrick Kennedy( born 5 November 1961) is an Irish- born art museum director who has worked in Ireland and Australia, and now lives and works in the United States.\n\nHe is currently the director of the Peabody Essex Museum.\n\nHe was the director of the Toledo Museum of Art in Ohio from 2010 to 2019.\n\nHe was the director of the Hood Museum of Art from 2005 to 2010, and the National Gallery of Australia( Canberra) from 1997- 2004.

<|assistant|>
Directors Across Borders: A Comparative Study of International Film and Museum Directors, from Luciano Salce to Brain Patrick Kennedy

<|user|>
Generate a title from the given text.
Context:
A token is a collection of characters that has semantic meaning for a model. Tokenization is the process of converting the words in your prompt into tokens.
You can monitor foundation model token usage in a project on the Environments page on the Resource usage tab.
Converting words to tokens and back again
Prompt text is converted to tokens before the prompt is processed by foundation models.
The correlation between words and tokens is complex:
Sometimes a single word is broken into multiple tokens
The same word might be broken into a different number of tokens, depending on context (such as: where the word appears, or surrounding words)
Spaces, newline characters, and punctuation are sometimes included in tokens and sometimes not
The way words are broken into tokens varies from language to language
The way words are broken into tokens varies from model to model
For a rough idea, a sentence that has 10 words might be 15 to 20 tokens.
The raw output from a model is also tokens. In the Prompt Lab in IBM watsonx.ai, the output tokens from the model are converted to words to be displayed in the prompt editor.

<|assistant|>

Génération et conversion de code

Les modèles de base qui peuvent générer et convertir du code programmatique sont de bonnes ressources pour les développeurs. Ils peuvent aider les développeurs à réfléchir et à résoudre les problèmes liés aux tâches de programmation.

Exemple: Génération d'un code de programmation à partir d'instructions

Scénario: vous souhaitez générer du code à partir d'instructions. En d'autres termes, vous souhaitez écrire une fonction dans le langage de programmation Python qui inverse une chaîne.

Choix du modèle

Les modèles capables de générer du code, tels que codellama-34b-instruct-hf, mistral-large et mixtral-8x7b-instruct-v01, peuvent généralement accomplir cette tâche lorsqu'un exemple d'invite leur est fourni.

Décodage

Gourmande. La réponse doit être un fragment de code valide. Le modèle ne peut pas être créatif et constituer une réponse.

Critères d"arrêt

Pour arrêter le modèle après qu'il ait renvoyé un seul extrait de code, spécifiez " <end of code> comme séquence d'arrêt. Le paramètre Max tokens peut être défini sur 1000.

Texte d'invite

Collez cet extrait de code dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Using the directions below, generate Python code for the specified task.

Input:
# Write a Python function that prints 'Hello World!' string 'n' times.

Output:
def print_n_times(n):
    for i in range(n):
        print("Hello World!")

<end of code>

Input:
# Write a Python function that reverses the order of letters in a string.
# The function named 'reversed' takes the argument 'my_string', which is a string. It returns the string in reverse order.

Output:

La sortie contient du code Python similaire au fragment suivant:

def reversed(my_string):
    return my_string[::-1]

Veillez à tester le code généré pour vérifier qu'il fonctionne comme prévu.

Par exemple, si vous exécutez reversed("good morning"), le résultat est 'gninrom doog'.

Remarque : le foundation model peut générer du code directement à partir de ses données d'apprentissage. Par conséquent, le code généré peut nécessiter une attribution. Il vous incombe de vous assurer que tout code généré que vous utilisez est correctement attribué, si nécessaire.

Exemple : Générer du code programmatique à partir d'instructions avec une invite de type "zero-shot"

Scénario: vous souhaitez générer du code à partir d'instructions. Vous voulez écrire une fonction dans le langage de programmation Python qui imprime le message "Hello World !" chaîne "n" fois.

Choix du modèle

Lorsque vous utilisez le foundation model llama-3-2-1b-instruct ou llama-3-2-3b-instruct, vous n'avez pas besoin de fournir d'exemples. Vous devez utiliser un modèle personnalisé qui spécifie la valeur d'environnement " iphython, que le modèle reconnaît comme une demande de génération de code.

Décodage

Gourmande. La réponse doit être un fragment de code valide. Le modèle ne peut pas être créatif et constituer une réponse.

Critères d"arrêt

Le modèle n'a pas besoin d'une séquence d'arrêt.

Texte d'invite

Collez cet extrait de code dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

<|begin_of_text|><|start_header_id|>system<|end_header_id|>

Environment: ipython<|eot_id|><|start_header_id|>user<|end_header_id|>

${Add your code instruction here}<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Remplacez ${Add your code instruction here} par une description du code que vous souhaitez que le modèle génère. Par exemple, Write a Python function that prints 'Hello World!' string 'n' times..

Le modèle génère des résultats, tels que les suivants :

Here is a simple Python function that prints 'Hello World!' 'n' times:

```python
def print_hello_world(n):
    for i in range(n):
        print('Hello World!')

print_hello_world(5)

Cette fonction utilise une boucle for pour itérer "n" fois, en imprimant "Hello World !" à chaque fois. La fonction " range(n) génère une séquence de nombres de 0 àn-1", qui sont ensuite utilisés comme variable de boucle "i".

Exemple: Conversion de code d'un langage de programmation à un autre

Scénario: Vous souhaitez convertir du code d'un langage de programmation à un autre. En d'autres cas, vous souhaitez convertir un fragment de code de C++ en Python.

Choix du modèle

Les modèles capables de générer du code, tels que codellama-34b-instruct-hf, mistral-large et mixtral-8x7b-instruct-v01, peuvent généralement accomplir cette tâche lorsqu'un exemple d'invite leur est fourni.

Décodage

Gourmande. La réponse doit être un fragment de code valide. Le modèle ne peut pas être créatif et constituer une réponse.

Critères d"arrêt

Pour arrêter le modèle après qu'il ait renvoyé un seul extrait de code, spécifiez " <end of code> comme séquence d'arrêt. Le paramètre Max tokens peut être défini sur 300.

Texte d'invite

Collez cet extrait de code dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Cette invite inclut un exemple de paire d'entrée et de sortie. L'entrée est du code C++ et la sortie est la fonction équivalente dans le code Python .

Le fragment de code C++ à convertir est ensuite inclus. Il s'agit d'une fonction qui compte le nombre de progressions arithmétiques avec la somme S et la différence commune de D, où S et D sont des valeurs entières qui sont transmises en tant que paramètres.

La dernière partie de l'invite identifie le langage dans lequel vous souhaitez convertir le fragment de code C + +.

Translate the following code from C++ to Python.

C++:
#include "bits/stdc++.h"
using namespace std;
bool isPerfectSquare(long double x) {
    long double sr = sqrt(x);
    return ((sr - floor(sr)) == 0);
}
void checkSunnyNumber(int N) {
    if (isPerfectSquare(N + 1)) {
    cout << "Yes
";
    } else {
    cout << "No
";
    }
}
int main() {
    int N = 8;
    checkSunnyNumber(N);
    return 0;
}

Python:
from math import *
 
def isPerfectSquare(x):
    sr = sqrt(x)
    return ((sr - floor(sr)) == 0)
 
def checkSunnyNumber(N):
    if (isPerfectSquare(N + 1)):
        print("Yes")
    else:
        print("No")
 
if __name__ == '__main__':
    N = 8
    checkSunnyNumber(N)

<end of code>

C++:
#include <bits/stdc++.h>
using namespace std;
int countAPs(int S, int D) {
    S = S * 2;
    int answer = 0;
    for (int i = 1; i <= sqrt(S); i++) {
    if (S % i == 0) {
      if (((S / i) - D * i + D) % 2 == 0)
        answer++;
      if ((D * i - (S / i) + D) % 2 == 0)
        answer++;
    }
    }
    return answer;
}
int main() {
    int S = 12, D = 1;
    cout << countAPs(S, D);
    return 0;
}

Python:

La sortie contient du code Python similaire au fragment suivant:

from math import *
 
def countAPs(S, D):
    S = S * 2
    answer = 0
    for i in range(1, int(sqrt(S)) + 1):
        if S % i == 0:
            if (((S / i) - D * i + D) % 2 == 0):
                answer += 1
            if ((D * i - (S / i) + D) % 2 == 0):
                answer += 1
    return answer
 
if __name__ == '__main__':
    S = 12
    D = 1
    print(countAPs(S, D))

<end of code>

Le code Python généré fonctionne de la même manière que le code C++ inclus dans l'invite.

Testez le code Python généré pour vérifier qu'il fonctionne comme prévu.

Remarque : le foundation model peut générer du code directement à partir de ses données d'apprentissage. Par conséquent, le code généré peut nécessiter une attribution. Il vous incombe de vous assurer que tout code généré que vous utilisez est correctement attribué, si nécessaire.

Exemple: Génération d'un code de programmation à partir d'instructions avec Granite

Scénario: vous souhaitez générer du code à partir d'instructions. En d'autres termes, vous souhaitez écrire une fonction dans le langage de programmation Python qui inverse une chaîne.

Choix du modèle

Les modèles qui peuvent générer du code, tels que les modèles Granite Code ou Granite Instruct, peuvent généralement accomplir cette tâche lorsqu'un exemple d'invite est fourni.

Décodage

Gourmande. La réponse doit être un fragment de code valide. Le modèle ne peut pas être créatif et constituer une réponse.

Critères d"arrêt

Pour arrêter le modèle après qu'il ait renvoyé un seul extrait de code, spécifiez " <end of code> comme séquence d'arrêt. Le paramètre Max tokens peut être défini sur 300.

Texte d'invite

Collez cet extrait de code dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Question:
Using the directions below, generate Python code for the specified task.
# Write a Python function that prints 'Hello World!' string 'n' times.

Answer:
def print_n_times(n):
    for i in range(n):
        print("Hello World!")

<end of code>

Question:
# Write a Python function that reverses the order of letters in a string.
# The function named 'reversed' takes the argument 'my_string', which is a string. It returns the string in reverse order.

Answer:

La sortie contient du code Python similaire au fragment suivant:

def reverse_string(my_string):
    return my_string[::-1]

<end of code>

Veillez à tester le code généré pour vérifier qu'il fonctionne comme prévu.

Par exemple, si vous exécutez reversed("good morning"), le résultat est 'gninrom doog'.

Pour d'autres Granite, voir Instructions pour le code.

Exemple: Conversion de code d'un langage de programmation à un autre avec Granite

Scénario: Vous souhaitez convertir du code d'un langage de programmation à un autre. En d'autres cas, vous souhaitez convertir un fragment de code de C++ en Python.

Choix du modèle

Les modèles qui peuvent générer du code, tels que les modèles Granite Code Instruct, peuvent généralement accomplir cette tâche lorsqu'un exemple d'invite leur est fourni.

Décodage

Gourmande. La réponse doit être un fragment de code valide. Le modèle ne peut pas être créatif et constituer une réponse.

Critères d"arrêt

Pour arrêter le modèle après qu'il ait renvoyé un seul extrait de code, spécifiez " <end of code> comme séquence d'arrêt. Le paramètre Max tokens peut être défini sur 1000.

Texte d'invite

Collez cet extrait de code dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Cette invite inclut une instruction de conversion d'un fragment de code de C++ en Python.

Le fragment de code C++ à convertir est inclus à côté pour fournir le contexte. Il s'agit d'une fonction qui compte le nombre de progressions arithmétiques avec la somme S et la différence commune de D, où S et D sont des valeurs entières qui sont transmises en tant que paramètres.

Question:
Translate the following code from C++ to Python.
C++:
#include "bits/stdc++.h"
using namespace std;
bool isPerfectSquare(long double x) {
    long double sr = sqrt(x);
    return ((sr - floor(sr)) == 0);
}
void checkSunnyNumber(int N) {
    if (isPerfectSquare(N + 1)) {
    cout << "Yes
";
    } else {
    cout << "No
";
    }
}
int main() {
    int N = 8;
    checkSunnyNumber(N);
    return 0;
}

Answer:
Python:
from math import *
 
def isPerfectSquare(x):
    sr = sqrt(x)
    return ((sr - floor(sr)) == 0)
 
def checkSunnyNumber(N):
    if (isPerfectSquare(N + 1)):
        print("Yes")
    else:
        print("No")
 
if __name__ == '__main__':
    N = 8
    checkSunnyNumber(N)

<end of code>

Question:
Translate the following code from C++ to Python.
C++:
#include <bits/stdc++.h>
using namespace std;
int countAPs(int S, int D) {
    S = S * 2;
    int answer = 0;
    for (int i = 1; i <= sqrt(S); i++) {
    if (S % i == 0) {
      if (((S / i) - D * i + D) % 2 == 0)
        answer++;
      if ((D * i - (S / i) + D) % 2 == 0)
        answer++;
    }
    }
    return answer;
}
int main() {
    int S = 12, D = 1;
    cout << countAPs(S, D);
    return 0;
}

Answer:

La sortie contient du code Python similaire au fragment suivant:

Python:
from math import *
 
def countAPs(S, D):
    S = S * 2
    answer = 0
    for i in range(1, int(sqrt(S)) + 1):
        if S % i == 0:
            if ((S // i) - D * i + D) % 2 == 0:
                answer += 1
            if (D * i - (S // i) + D) % 2 == 0:
                answer += 1
    return answer
 
if __name__ == '__main__':
    S = 12
    D = 1
    print(countAPs(S, D))

Le code Python généré fonctionne de la même manière que le code C++ inclus dans l'invite.

Testez le code Python généré pour vérifier qu'il fonctionne comme prévu.

Pour d'autres Granite, voir Instructions pour le code.

Dialogue

Les tâches de dialogue sont utiles dans les scénarios de service client, en particulier lorsqu'un agent conversationnel est utilisé pour guider les clients dans un flux de travaux afin d'atteindre un objectif.

Echantillon : Conversation avec le Llama 3

Scénario: Générer une sortie de boîte de dialogue comme un agent conversationnel.

Choix du modèle

Llama 3, 3.1, et 3.2 sont optimisés pour les cas d'utilisation du dialogue. Les modèles sont adaptés à un format d'invite spécifique décrit dans la section Texte d'invite.

Décodage

Gourmande. Cet exemple répond à des connaissances générales, à des questions factuelles, de sorte que nous ne voulons pas de résultats créatifs.

Critères d"arrêt

Réglez le paramètre Max tokens sur 900.

Le modèle utilise un jeton de fin de texte (<|eot_id|>) pour délimiter la fin de chaque segment de texte, à l'exception de l'invite système.

Texte d'invite

Le modèle d'invite suivant fonctionne le mieux pour la saisie :

<|begin_of_text|><|start_header_id|>system<|end_header_id|>

SYSTEM PROMPT<|eot_id|><|start_header_id|>user<|end_header_id|>

GROUNDING (OPTIONAL)<|eot_id|><|start_header_id|>user<|end_header_id|>

USER_INPUT<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Collez ce texte d'invite dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Astuce :Vous pouvez également passer en mode de discussion et entrer directement l'entrée utilisateur. Le Prompt Lab insère la syntaxe attendue qui identifie les segments d'instruction et d'entrée utilisateur pour vous.
<|begin_of_text|><|start_header_id|>system<|end_header_id|>

You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>

I have a question about Earth. How many moons are there?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Une fois la sortie initiale générée, continuez le dialogue pour demander plus de planètes, en ajoutant les mêmes identificateurs à la fin du texte d'entrée, par exemple:

FOLLOW UP QUESTION<|eot_id|><|start_header_id|>assistant<|end_header_id|>


La sortie se présente comme suit:

<|begin_of_text|><|start_header_id|>system<|end_header_id|>

You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>

I have a question about Earth. How many moons are there?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

That's an easy one! Earth has only one moon.

What about Saturn?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Saturn has a whopping 82 confirmed moons!

And Mars?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Mars has two small natural satellites, Phobos and Deimos.

L'exemple d'invite suivant inclut des informations de mise à la terre.

<|begin_of_text|><|start_header_id|>system<|end_header_id|>

You are a helpful assistant that avoids causing harm. When you do not know the answer to a question, you say "I don't know".<|eot_id|><|start_header_id|>user<|end_header_id|>

The sky is blue.<|eot_id|><|start_header_id|>user<|end_header_id|>

What color is the sky?<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Échantillon : Conversation avec le Llama 2

Scénario: Générer une sortie de boîte de dialogue comme un agent conversationnel.

Choix du modèle

Comme les autres modèles de fondation, le Llama 2 (dans les tailles 70 milliards et 13 milliards) peut être utilisé pour des tâches multiples. Mais les deux modèles de Llama 2 sont optimisés pour les cas d'utilisation du dialogue. Le llama-2-70b-chat et le llama-2-13b-chat sont adaptés au format d'invite " [INST]<<SYS>><</SYS>>[/INST] Pour plus d'informations sur ce format d'invite, voir Comment inviter le Llama 2

Décodage

Gourmande. Cet exemple répond à des connaissances générales, à des questions factuelles, de sorte que nous ne voulons pas de résultats créatifs.

Critères d"arrêt

Définissez le paramètre Max tokens sur 100.

Le modèle pour le Llama 2 utilise un jeton de fin de chaîne (</s>) pour délimiter la fin de la réponse de l'agent. La sortie du modèle cesse de générer du texte lorsque le jeton EOS '</s> est rencontré.

Texte d'invite

Collez ce texte d'invite dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

[INST] <<SYS>>
You are a helpful assistant. Begin each response with the phrase "Dear user, ". If you are unsure about an answer, truthfully say "I don't know"<</SYS>>

I have a question about the Earth.[/INST]
Dear user, go on.
[INST]

How many moons are there?
[/INST]

Une fois la sortie initiale générée, poursuivez le dialogue pour demander d'autres planètes, en enveloppant vos messages d'utilisateur dans la même structure " [INST][/INST]. Il n'est pas nécessaire d'ajouter un " <s> au début des questions de suivi.

Astuce :Vous pouvez également passer en mode de discussion et entrer directement l'entrée utilisateur. Le Prompt Lab insère la syntaxe attendue qui identifie les segments d'instruction et d'entrée utilisateur pour vous.

La sortie se présente comme suit:

[INST] <<SYS>>
You are a helpful assistant. Begin each response with the phrase "Dear user, ". If you are unsure about an answer, truthfully say "I don't know"<</SYS>>

I have a question about the Earth.[/INST]
Dear user, go on.
[INST]

How many moons are there?
[/INST]
Dear user, the Earth has one natural satellite, commonly referred to as the Moon. 
[INST]

What about Saturn?
[/INST]
Dear user, Saturn has a total of 62 confirmed moons, as well as numerous smaller moonlets and ring particles. The largest moon of Saturn is Titan, which is the second-largest moon in the solar system, after Jupiter's moon Ganymede. 
[INST]

And Mars?
[/INST]
Dear user, Mars has two small natural satellites, Phobos and Deimos. Both moons are thought to be captured asteroids, and are irregularly shaped and very small, with diameters of about 22 kilometers and 12 kilometers respectively.

Remarquez quelques points importants sur la sortie que le modèle génère au fur et à mesure:

  • L'instruction dite "système", dans les balises " <<SYS>><</SYS>>, continue d'influencer la sortie à chaque tour de dialogue sans qu'il soit nécessaire de répéter l'instruction système. En d'autres termes, les réponses de l'assistant continuent d'être précédées de la mention "Cher utilisateur, ".
  • En véritable dialogue, l'assistant répond à l'entrée de l'utilisateur "Combien y a-t-il de lunes ?" prend en compte l'entrée précédente de l'utilisateur "J'ai une question sur la Terre" et renvoie le nombre de lunes en orbite autour de la Terre.
  • Toujours sous forme de dialogue, les réponses de l'assistant continuent à suivre le sujet de la conversation, qui est le nombre de lunes. (Dans le cas contraire, la sortie générée est le vague message de l'utilisateur "Et Mars ?") pourrait s'égarer dans n'importe quelle direction)
  • Attention : Les caractères de nouvelle ligne (retour chariot) en particulier, et les espaces dans une moindre mesure, dans le texte de l'invite peuvent avoir un impact considérable sur la sortie générée.
  • Lorsque vous utilisez le Llama 2 pour des cas d'utilisation de chat, suivez le plus fidèlement possible le format du modèle d'invite recommandé. N'utilisez pas le format d'invite " [INST]<<SYS>><</SYS>>[/INST] lorsque vous utilisez le Llama 2 pour d'autres tâches que le chat.

Exemple: Converse avec granite-13b-chat-v2

Scénario: Générer une sortie de boîte de dialogue comme un agent conversationnel.

Choix du modèle

Utilisez granite-13b-chat-v2 pour dialoguer.

Décodage

  • Utiliser le décodage d'échantillonnage.
  • Définissez Top P sur 0.85.
  • Définissez la pénalité de répétition sur 1.2.

Critères d"arrêt

  • Définissez le paramètre Max tokens sur 500 afin que le modèle puisse renvoyer une réponse complète, mais qu'il soit aussi concis que possible.

Texte d'invite

Pour améliorer la sécurité du modèle et réduire les biais, ajoutez une invite au système dans le cadre de la saisie par l'utilisateur. L'invite système peut établir des règles de base pour la boîte de dialogue. Par exemple :

Vous êtes Granite Chat, un modèle de langage d'IA développé par IBM. Vous êtes un assistant prudent. Vous suivez attentivement les instructions. Vous êtes utile et inoffensif et vous suivez des directives éthiques et vous promouvez un comportement positif. Faites en sorte que vos réponses soient brèves et complètes.

N'oubliez pas d'utiliser le format de modèle d'invite attendu par le modèle.

< |system | >
invite système
< |user | >
contenu de la question
< |assistant | >
nouvelle ligne pour la réponse du modèle

Si vous souhaitez soumettre une invite à quelques instants à ce modèle, vous pouvez ajouter l'invite système, puis les exemples, suivis du texte d'invite à inférer.

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
Example prompt 1
<|assistant|>
Example response 1

<|user|>
Example prompt 2
<|assistant|>
Example response 2

<|user|>
USER INPUT
<|assistant|>

Collez le texte d'invite suivant dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Astuce :Vous pouvez également passer en mode de discussion et entrer directement l'entrée utilisateur. Le Prompt Lab insère la syntaxe attendue qui identifie les segments d'instruction et d'entrée utilisateur pour vous.
<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
I have a question about the Earth. How many moons are there?
<|assistant|>

N'incluez pas d'espaces de fin après le libellé <|assistant|> et veillez à ajouter une nouvelle ligne.

Une fois la sortie initiale générée, vous pouvez continuer la boîte de dialogue en posant une question complémentaire. Par exemple, vous pouvez vous renseigner sur les lunes d'autres planètes.

<|user|>
What about Saturn?

<|assistant|>

Et continuez la conversation avec une autre question de suivi.

<|user|>
And Mars?

<|assistant|>

Si la sortie du modèle est trop longue, vous pouvez essayer de spécifier une séquence d'arrêt de deux caractères de retour à la ligne en cliquant sur la zone de texte Arrêter la séquence , en appuyant deux fois sur la touche Entrée, puis en cliquant sur Ajouter une séquence. Cependant, la pénalité de répétition est généralement suffisante pour maintenir le modèle sur la bonne voie.

Un autre exemple que vous pouvez essayer :

<|system|>
You are Granite Chat, an AI language model developed by IBM. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior. Keep your answers short and to the point.
<|user|>
How does a bill become a law?
<|assistant|>

Avec la question complémentaire :

<|user|>
How about in Canada?

<|assistant|>

Quelques remarques sur l'utilisation de cet exemple avec le modèle:

  • L'invite système établit des glissières de sécurité générales pour le modèle.
  • L'assistant est en mesure de répondre à une question complémentaire qui repose sur les informations d'un échange antérieur dans le même dialogue.
  • Le modèle s'attend à ce que l'entrée suive un modèle spécifique et peut être sensible aux espaces mal placés.

Exemple: Converse en japonais avec granite-8b-japanese

Scénario: Générer une sortie de dialogue en japonais comme un agent conversationnel.

Choix du modèle

Le foundation model granite-8b-japanese peut être utilisé pour participer à un dialogue en japonais. L'option " granite-8b-japanese " foundation model fonctionne mieux lorsque vous utilisez le même format d'invite que celui utilisé lors de l'apprentissage du modèle.

Décodage

Gourmande. Cet exemple répond à des connaissances générales, à des questions factuelles, de sorte que nous ne voulons pas de résultats créatifs.

Critères d"arrêt

  • Définissez le paramètre Max tokens sur 500 pour autoriser de nombreux tours dans la boîte de dialogue.
  • Ajoutez une séquence d'arrêt de deux caractères de retour à la ligne pour éviter que le foundation model ne renvoie des réponses trop longues. Pour ce faire, cliquez dans la zone de texte Arrêter la séquence , appuyez deux fois sur la touche Entrée, puis cliquez sur Ajouter une séquence.

Texte d'invite

Collez ce texte d'invite dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Ce modèle inclut une invite système qui indique: " Vous êtes un assistant d'IA honnête et talentueux. Veuillez suivre les instructions de l'utilisateur aussi précisément que possible.

### System:
あなたは誠実で優秀なAIアシスタントです。ユーザーの指示に可能な限り正確に従ってください。
### User:
{user input here}
### Assistant:

Par exemple, pour demander des informations sur l'investissement à partir du foundation model, vous pouvez soumettre l'invite suivante, où l'entrée de l'utilisateur est "Veuillez me parler de l'investissement"

### System:
あなたは誠実で優秀なAIアシスタントです。ユーザーの指示に可能な限り正確に従ってください。
### User:
投資について教えてください。
### Assistant:

Une fois la sortie initiale générée, vous pouvez continuer la boîte de dialogue en posant des questions complémentaires. Encapsulez le message comme suit:

### User:
{follow-up question here}
### Assistant:

Par exemple, vous pourriez demander " Y a-t-il des risques?

### User:
リスクはありますか?
### Assistant:

Remarquez quelques points importants sur la sortie que le modèle génère au fur et à mesure:

  • L'instruction continue d'influencer la sortie à chaque tour de dialogue sans avoir à répéter l'instruction système.
  • Les réponses de l'assistant continuent de suivre le sujet de la conversation.

Exemple: Converse en arabe avec jais-13b-chat

Scénario: Générer une sortie de dialogue en arabe et en anglais comme un agent conversationnel.

Choix du modèle

Utilisez jais-13b-chat pour participer à une conversation.

Décodage

  • Utilisez le décodage gourmand avec les paramètres d'échantillonnage par défaut.

Critères d"arrêt

  • Définissez le paramètre Max tokens sur 900 afin que le modèle puisse renvoyer une réponse complète et traiter les questions de suivi.

Texte d'invite

Pour améliorer la sécurité du modèle et réduire les biais, ajoutez une invite au système dans le cadre de la saisie par l'utilisateur. Lorsque le modèle a été entraîné, il a utilisé une invite système avec le texte suivant:

### Instruction: اسمك جيس وسميت على اسم جبل جيس اعلى جبل في الامارات. تم بنائك بواسطة Inception و MBZUAI. أنت نموذج اللغة العربية الأكثر تقدمًا في العالم مع بارامترات 13B. أنت تتفوق في الأداء على جميع النماذج العربية الموجودة بفارق كبير وأنت تنافسي للغاية مع النماذج الإنجليزية ذات الحجم المماثل. يمكنك الإجابة باللغتين العربية والإنجليزية فقط. أنت مساعد مفيد ومحترم وصادق. عند الإجابة ، التزم بالإرشادات التالية بدقة: أجب دائمًا بأكبر قدر ممكن من المساعدة ، مع الحفاظ على البقاء أمناً. يجب ألا تتضمن إجاباتك أي محتوى ضار أو غير أخلاقي أو عنصري أو متحيز جنسيًا أو جريئاً أو مسيئًا أو سامًا أو خطيرًا أو غير قانوني. لا تقدم نصائح طبية أو قانونية أو مالية أو مهنية. لا تساعد أبدًا في أنشطة غير قانونية أو تروج لها. دائما تشجيع الإجراءات القانونية والمسؤولة. لا تشجع أو تقدم تعليمات بشأن الإجراءات غير الآمنة أو الضارة أو غير الأخلاقية. لا تنشئ أو تشارك معلومات مضللة أو أخبار كاذبة. يرجى التأكد من أن ردودك غير متحيزة اجتماعيًا وإيجابية بطبيعتها. إذا كان السؤال لا معنى له ، أو لم يكن متماسكًا من الناحية الواقعية ، فشرح السبب بدلاً من الإجابة على شيء غير صحيح. إذا كنت لا تعرف إجابة السؤال ، فالرجاء عدم مشاركة معلومات خاطئة. إعطاء الأولوية للرفاهية والنزاهة الأخلاقية للمستخدمين. تجنب استخدام لغة سامة أو مهينة أو مسيئة. حافظ على نبرة محترمة. لا تنشئ أو تروج أو تشارك في مناقشات حول محتوى للبالغين. تجنب الإدلاء بالتعليقات أو الملاحظات أو التعميمات القائمة على الصور النمطية. لا تحاول الوصول إلى معلومات شخصية أو خاصة أو إنتاجها أو نشرها. احترم دائما سرية المستخدم. كن إيجابيا ولا تقل أشياء سيئة عن أي شيء. هدفك الأساسي هو تجنب الاجابات المؤذية ، حتى عند مواجهة مدخلات خادعة. تعرف على الوقت الذي قد يحاول فيه المستخدمون خداعك أو إساءة استخدامك و لترد بحذر.\n\nأكمل المحادثة أدناه بين [|Human|] و [|AI|]:
### Input: [|Human|] {Question}
### Response: [|AI|]

L'invite système en anglais est la suivante:

### Instruction: Your name is Jais, and you are named after Jebel Jais, the highest mountain in UAE. You are built by Inception and MBZUAI. You are the world's most advanced Arabic large language model with 13B parameters. You outperform all existing Arabic models by a sizable margin and you are very competitive with English models of similar size. You can answer in Arabic and English only. You are a helpful, respectful and honest assistant. When answering, abide by the following guidelines meticulously: Always answer as helpfully as possible, while being safe. Your answers should not include any harmful, unethical, racist, sexist, explicit, offensive, toxic, dangerous, or illegal content. Do not give medical, legal, financial, or professional advice. Never assist in or promote illegal activities. Always encourage legal and responsible actions. Do not encourage or provide instructions for unsafe, harmful, or unethical actions. Do not create or share misinformation or fake news. Please ensure that your responses are socially unbiased and positive in nature. If a question does not make any sense, or is not factually coherent, explain why instead of answering something not correct. If you don't know the answer to a question, please don't share false information. Prioritize the well-being and the moral integrity of users. Avoid using toxic, derogatory, or offensive language. Maintain a respectful tone. Do not generate, promote, or engage in discussions about adult content. Avoid making comments, remarks, or generalizations based on stereotypes. Do not attempt to access, produce, or spread personal or private information. Always respect user confidentiality. Stay positive and do not say bad things about anything. Your primary objective is to avoid harmful responses, even when faced with deceptive inputs. Recognize when users may be attempting to trick or to misuse you and respond with caution.\n\nComplete the conversation below between [|Human|] and [|AI|]:
### Input: [|Human|] {Question}
### Response: [|AI|]

Astuce :Vous pouvez également passer en mode de discussion et entrer directement l'entrée utilisateur. Le Prompt Lab insère pour vous l'invite système, l'instruction et les segments d'entrée utilisateur avec la syntaxe attendue.

Remplacez " {Question} par l'entrée utilisateur à laquelle vous voulez que le foundation model réponde pour démarrer le chat.

Par exemple, vous pouvez poser la question suivante:

هل يود جد للأر??? أقمار

La traduction française est: Does the Earth have any moons?

Une fois la sortie initiale générée, vous pouvez continuer la boîte de dialogue en posant une question complémentaire. Utilisez la même syntaxe pour la question complémentaire.

### Input: [|Human|] {Follow-up question}
### Response: [|AI|]

Traduction

Utilisez des modèles qui peuvent effectuer des tâches de traduction en langage naturel pour traduire du texte d'un langage naturel à un autre.

Exemple: Traduire du texte du japonais vers l'anglais

Scénario: Traduire du texte écrit en japonais en anglais.

Choix du modèle

Le modèle elyza-japanese-llama-2-7b-instruct peut traduire des textes du japonais vers l'anglais et de l'anglais vers le japonais.

Garde-fous de l'IA

Désactiver la fonction de garde-corps de l'IA. La fonction est prise en charge avec du texte en anglais uniquement. Il se peut qu'il signale un contenu inapproprié qui n'est pas inapproprié.

Décodage

Gourmande. Le modèle doit renvoyer le même texte, uniquement traduit. Le modèle ne peut pas être créatif.

Critères d"arrêt

Augmentez le nombre de jetons autorisés en remplaçant la valeur du paramètre Max tokens par 500.

Texte d'invite

Collez le texte d'invite suivant dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

L'exemple de texte d'invite chevauche le texte utilisé dans l' exemple 8c.

L'instruction dit: " Veuillez traduire en anglais. Un exemple de texte japonais traduit en anglais est inclus.

英語に翻訳してください

日本語
トマトは、家庭菜園で最も人気のある植物の 1 つです。成功のヒント: 病気や害虫に強い品種を選択すると、トマトの栽培は非常に簡単になります。挑戦を求めている経験豊富な庭師にとって、栽培できる家宝や特別な品種は無限にあります。トマトの植物にはさまざまなサイズがあります。

English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.

日本語
基盤モデルを使用して、より優れた AI をより迅速に作成します。さまざまなユースケースやタスクに応じて、さまざまなプロンプトを試してください。わずか数行の指示で、職務記述書の草案、顧客の苦情の分類、複雑な規制文書の要約、重要なビジネス情報の抽出などを行うことができます。

English

Exemple: Traduction du texte de l'espagnol vers l'anglais

Scénario: Traduire du texte écrit en espagnol en anglais.

Choix du modèle

Le modèle mixtral-8x7b-instruct-v01 ou mistral-large permet de traduire des textes du français, de l'allemand, de l'italien ou de l'espagnol vers l'anglais. Cet exemple invite le modèle à effectuer une traduction de l'espagnol vers l'anglais.

Garde-fous de l'IA

Désactiver la fonction de garde-corps de l'IA. La fonction est prise en charge avec du texte en anglais uniquement. Il se peut qu'il signale un contenu inapproprié qui n'est pas inapproprié.

Décodage

Gourmande. Le modèle doit renvoyer le même texte, uniquement traduit. Le modèle ne peut pas être créatif.

Critères d"arrêt

  • Veillez à inclure une séquence d'arrêt pour ce modèle. Sinon, le modèle peut continuer à générer de nouvelles phrases et de nouvelles traductions, même lorsque l'instruction lui dit de ne pas le faire. Pour arrêter le modèle après une phrase, ajoutez un point (.) comme séquence d'arrêt.
  • Définissez la valeur du paramètre Max tokens sur 200.

Texte d'invite

Collez le texte d'invite suivant dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Translate the following text from Spanish to English. Do not give any extra response that is not part of the translation.

Text: 
Hasta ahora no me ha animado mucho la postura adoptada por la Comisión.

Translation:
So far, I have not been terribly encouraged by the stance adopted by the Commission.

Text: 
Estoy muy contento de ver que la resolución conjunta adopta la sugerencia que hicimos.

Translation:

Exemple: Traduire le texte de l'anglais vers le japonais

Scénario: Translate du texte écrit en anglais en japonais.

Choix du modèle

Le modèle granite-8b-japanese peut traduire des textes du japonais vers l'anglais et de l'anglais vers le japonais.

Garde-fous de l'IA

Désactiver la fonction de garde-corps de l'IA. La fonction est prise en charge avec du texte en anglais uniquement. Il se peut qu'il signale un contenu inapproprié qui n'est pas inapproprié.

Décodage

Gourmande. Le modèle doit renvoyer le même texte, uniquement traduit. Le modèle ne peut pas être créatif.

Critères d"arrêt

Augmentez le nombre de jetons autorisés en remplaçant la valeur du paramètre Max tokens par 500.

Texte d'invite

Collez le texte d'invite suivant dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Translate the following text from English to Japanese.

English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.

日本語
トマトは野菜作りの人気の植物である。成功のヒント:病害虫に強く、育てやすいトマトの品種を選べば、トマト栽培はそれほど難しくない。経験豊富な庭師にとっては、手強い挑戦となる、様々な色や形のトマトの品種がある。トマトの品種は、大きさもいろいろである。

English
Use foundation models to create better AI, faster. Experiment with different prompts for various use cases and tasks. With just a few lines of instruction you can draft job descriptions, classify customer complaints, summarize complex regulatory documents, extract key business information and much more.

日本語

Exemple: Traduire le texte du français vers l'anglais

Scénario: Traduire du texte écrit en français en anglais.

Choix du modèle

Le modèle granite-20b-multilingual comprend l'anglais, l'allemand, l'espagnol, le français et le portugais. Cet exemple invite le modèle à traduire le texte du français vers l'anglais.

Garde-fous de l'IA

Désactiver la fonction de garde-corps de l'IA. La fonction est prise en charge avec du texte en anglais uniquement. Il se peut qu'il signale un contenu inapproprié qui n'est pas inapproprié.

Décodage

Gourmande. Le modèle doit renvoyer le même texte, uniquement traduit. Le modèle ne peut pas être créatif.

Critères d"arrêt

Définissez la valeur du paramètre Max tokens sur 200.

Texte d'invite

Collez le texte d'invite suivant dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

Translate the following text from French to English:

Text:
Enfin, je me réjouis du paragraphe 16 qui appelle à une révision de la manière dont nous abordons les questions relatives aux droits de l'homme au sein du Parlement.

Translation:
Finally, I welcome paragraph 16 which calls for a review of the way we deal with human rights issues in Parliament.

Text:
Je me souviens très bien que nous en avions parlé lors d'une séance à Luxembourg.

Translation:
I remember very well that we discussed it in a session in Luxembourg.

Text: 
Si nous ne faisons pas un usage plus important de la technologie intelligente, nous ne parviendrons pas à atteindre nos objectifs.

Translation:

 

Exemple: Traduire du texte de l'anglais vers l'arabe

Scénario: Translate du texte écrit en anglais en arabe.

Choix du modèle

Le modèle allam-1-13b-instruct peut traduire des textes de l'arabe vers l'anglais et de l'anglais vers l'arabe.

Garde-fous de l'IA

Désactiver la fonction de garde-corps de l'IA. La fonction est prise en charge avec du texte en anglais uniquement. Il se peut que le contenu ne soit pas correctement indiqué comme étant inapproprié.

Décodage

Gourmande. Le modèle doit renvoyer le même texte, uniquement traduit. Le modèle ne peut pas être créatif.

Critères d"arrêt

  • Augmentez le nombre de jetons autorisés en remplaçant la valeur du paramètre Max tokens par 500.
  • Le foundation model allam-1-13b-instruct explique généralement le sens du texte d'entrée après l'avoir traduit. Vous pouvez éventuellement demander au foundation model s'arrêter une fois la traduction terminée. Pour ce faire, ajoutez une instruction qui demande au foundation model d'ajouter un mot-clé, tel que " END, après la traduction. Ajoutez ensuite le même mot clé END en tant que séquence d'arrêt.

Texte d'invite

Collez le texte d'invite suivant dans l'éditeur d'invites de forme libre de Prompt Lab, sélectionnez le modèle, définissez les paramètres, puis cliquez sur Générer pour voir le résultat.

<s> [INST]Translate the following text from English to Arabic. Use "END" at the end of the translation.

English
Tomatoes are one of the most popular plants for vegetable gardens. Tip for success: If you select varieties that are resistant to disease and pests, growing tomatoes can be quite easy. For experienced gardeners looking for a challenge, there are endless heirloom and specialty varieties to cultivate. Tomato plants come in a range of sizes.
END

العربية
الطماطم هي واحدة من النباتات الأكثر شعبية لحدائق الخضروات. نصيحة للنجاح: إذا اخترت أصنافا مقاومة للأمراض والآفات ، فقد تكون زراعة الطماطم سهلة للغاية. بالنسبة للبستانيين ذوي الخبرة الذين يبحثون عن التحدي ، هناك أنواع لا نهاية لها من الإرث والتخصص للزراعة. تأتي نباتات الطماطم في مجموعة من الأحجام. 
END

English
Use foundation models to create better AI, faster. Experiment with different prompts for various use cases and tasks. With just a few lines of instruction you can draft job descriptions, classify customer complaints, summarize complex regulatory documents, extract key business information and much more.
END

العربية
[/INST]

Sujet parent : Prompt Lab

Recherche et réponse à l'IA générative
Ces réponses sont générées par un modèle de langue de grande taille dans watsonx.ai en fonction du contenu de la documentation du produit. En savoir plus