Utilisez l' Prompt Lab, disponible sur IBM watsonx.ai, pour tester différents modèles de fondations, explorer des exemples de messages et enregistrer et partager vos meilleurs messages.
Démarrer avec Prompt Lab
Copy link to section
Si vous vous êtes inscrit à watsonx.ai et que vous avez un projet sandbox, toutes les conditions sont remplies et vous êtes prêt à utiliser le Prompt Lab
Vous devez remplir les conditions suivantes pour utiliser le site Prompt Lab :
Vous devez avoir un projet.
Le projet doit avoir une instance de service watsonx.ai Runtime associée. Sinon, vous risquez d'être invité à associer le service lorsque vous ouvrirez le Prompt Lab
Autorisations requises
Pour lancer des invites, vous devez avoir le rôle d' administrateur ou d' éditeur dans un projet.
Vous utilisez le Prompt Lab invites pour concevoir des invites efficaces que vous soumettez aux modèles de base déployés pour l'inférence. Vous n'utilisez pas le Prompt Lab pour créer de nouveaux modèles de fondation.
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Création et exécution d'une invite
Copy link to section
Pour créer et exécuter une nouvelle invite, procédez comme suit:
Sur la page d'accueil dewatsonx.ai, choisissez un projet, puis cliquez sur la tuile New asset > Chat and build prompts with foundation models.
Facultatif: Choisissez un autre mode d'édition dans lequel travailler, tel que Freeform.
Sélectionner un modèle de fondation.
Astuce: Pour afficher tous les modèles de base disponibles, supprimez les filtres de recherche appliqués.
Facultatif: mettez à jour les paramètres de modèle ou ajoutez des variables d'invite.
Entrez une invite.
Cliquez sur l'icône Envoyer.
En mode Structured ou Freeform , cliquez sur Generate.
Vous pouvez annuler une demande d'inférence à tout moment en cliquant sur l'icône Stop.
Les jetons de votre entrée sont comptés comme des jetons utilisés. Tous les jetons générés par le modèle en tant que sortie avant l'annulation de la demande sont également comptés.
Pour préserver votre travail afin de pouvoir réutiliser ou partager une invite avec des collaborateurs dans le projet en cours, sauvegardez votre travail en tant qu'actif de projet. Pour plus d'informations, voir Sauvegarde des invites.
Pour exécuter un exemple d'invite, procédez comme suit:
Dans le menu Exemples d'invites du Prompt Lab, sélectionnez un exemple d'invite.
L'invite s'ouvre dans l'éditeur et un modèle approprié est sélectionné.
Cliquez sur Générer.
Options d'édition d'invite
Copy link to section
Vous entrez votre invite dans l'éditeur d'invite. L'éditeur d'invite possède les modes d'édition suivants:
Vous pouvez discuter avec le modèle de la fondation pour voir comment il gère les tâches de dialogue ou de questions-réponses.
Commencez la discussion en soumettant une question ou une demande à laquelle le modèle de la fondation doit répondre. Vous pouvez également cliquer sur un exemple de démarrage rapide pour le soumettre au modèle. Des échantillons de démarrage rapide sont envoyés au modèle de la fondation Llama. Si vous souhaitez travailler avec un modèle de base différent, ajoutez votre propre texte d'invite.
Chaque tour suivant de la conversation s'appuie sur les informations précédemment échangées.
Remarque :Vous ne pouvez pas apporter de modifications tant qu'une discussion est en cours. Cliquez sur l'icône " Clear chat" pour arrêter et apporter des modifications.
Avant de démarrer une conversation, examinez et ajustez le choix du modèle et les paramètres. Pour prendre en charge les échanges de dialogue longs, le paramètre Max tokens est défini sur une valeur par défaut élevée. Vous pouvez ajouter une séquence d'arrêt pour empêcher le modèle de générer des sorties de travail, par exemple.
Modèles de discussion
Copy link to section
Un texte prédéfini appelé invite système est inclus au début de la discussion afin d'établir des règles de base pour la conversation. Pour revoir et personnaliser le texte, cliquez sur l'icône Modifier l'invite système.
Certains modèles de base recommandent des modèles spécifiques qui identifient différents segments de l'invite, tels que l'instruction d'invite et l'entrée utilisateur. Le mode Chat ajuste la syntaxe de votre saisie pour se conformer au format recommandé par chaque modèle de fondation. Vous pouvez cliquer sur l'icône Afficher le texte complet de l'invite pour voir le texte complet de l'invite qui sera soumis au modèle de fondation.
Ancrer les invites dans les faits
Copy link to section
Pour aider le modèle de fondation à renvoyer des résultats factuels, ajoutez des documents contenant des informations pertinentes à l'invite. Cliquez sur l'icône Télécharger des documents, puis sélectionnez Ajouter des documents. Pour plus d'informations, voir Discuter avec des documents et des images.
Les fonctions suivantes sont omises du mode de discussion:
Le nombre d'utilisations du jeton n'est pas affiché en mode de discussion.
Gardez à l'esprit que l'historique des discussions est envoyé avec chaque nouvelle invite que vous soumettez et qui contribue au nombre global de jetons.
Vous pouvez vérifier vous-même le nombre de jetons à l'aide de l'API. Cliquez sur l'icône Afficher le texte complet de l'invite pour ouvrir et copier le texte complet de l'invite, puis utilisez la méthode de symbolisation du texte pour compter les jetons.
Vous ne pouvez pas définir de variables d'invite en mode discussion. Par conséquent, vous ne pouvez pas gouverner les modèles d'invite de discussion enregistrés.
Regardez cette vidéo qui présente le mode Chat dans le Prompt Lab
Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.
Mode structuré
Copy link to section
Le mode structuré est conçu pour aider les nouveaux utilisateurs à créer des invites efficaces. Le texte des zones est envoyé au modèle dans un format de canevas.
Vous ajoutez des parties de votre invite dans les zones appropriées:
Instruction: ajoutez une instruction si cela est pertinent pour votre cas d'utilisation. Une instruction est une instruction impérative, telle que Résumer l'article suivant.
Exemples: Ajoutez une ou plusieurs paires d'exemples qui contiennent l'entrée et la sortie correspondante de votre choix. La fourniture de quelques exemples de paires d'entrée-sortie dans votre invite est appelée invite d'entrée-sortie.
Si vous avez besoin d'un préfixe spécifique pour l'entrée ou la sortie, vous pouvez remplacer les libellés par défaut, "Input:" ou "Output:", par les libellés que vous souhaitez utiliser. Par exemple, vous pouvez remplacer les étiquettes par défaut par des étiquettes personnalisées qui ont été utilisées dans les données d'apprentissage lors de l'ajustement d'un modèle de base.
Un espace est ajouté entre l'exemple de libellé et l'exemple de texte.
Tester votre entrée: dans la zone Try , entrez l'entrée finale de votre invite.
Mode à structure libre
Copy link to section
Vous ajoutez votre invite en texte en clair. Votre texte d'invite est envoyé au modèle exactement tel que vous l'avez saisi.
Le mode à structure libre est un bon choix lorsque vous souhaitez soumettre une entrée structurée et savoir comment formater l'invite.
Options de configuration de modèle et d'invite
Copy link to section
Vous devez spécifier le modèle à inviter et vous pouvez éventuellement définir des paramètres qui contrôlent le résultat généré.
Choix de modèle
Copy link to section
Dans le Prompt Lab, vous pouvez soumettre votre message à n'importe lequel des modèles pris en charge par watsonx.ai Vous pouvez choisir des modèles récemment utilisés dans la liste déroulante. Vous pouvez également cliquer sur Afficher tous les modèles de base pour afficher tous les modèles pris en charge, les filtrer par tâche et lire des informations de haut niveau sur les modèles.
Si vous avez réglé un modèle de base à l'aide de l' Tuning Studio, et déployé le modèle réglé, ou si vous avez déployé un modèle de base personnalisé, le modèle réglé ou personnalisé est également disponible pour l'invite de l' Prompt Lab.
Paramètres de modèle
Copy link to section
Pour contrôler la façon dont le modèle génère la sortie en réponse à votre invite, vous pouvez spécifier des paramètres de décodage et des critères d'arrêt. Pour plus d'informations, voir Paramètres de modèle pour l'invite.
Variables d'invite
Copy link to section
Pour ajouter de la flexibilité à vos invites, vous pouvez définir des variables d'invite. Une variable d'invite est un mot clé de marque de réservation que vous incluez dans le texte statique de votre invite lors de la création et que vous remplacez par du texte dynamiquement lors de l'exécution. Pour plus d'informations, voir Génération d'invites réutilisables.
Afficher le texte d'invite complet
Copy link to section
Vous souhaiterez peut-être voir le texte complet de l'invite qui sera soumis au modèle de fondation dans les situations suivantes :
Lorsque des variables d'invite sont utilisées, pour afficher les valeurs de variable résolues en contexte.
En mode de discussion, où les formats d'invite recommandés pour les différents modèles de base sont appliqués automatiquement.
En mode structuré, où vous ajoutez des parties de l'invite dans des zones distinctes.
Garde-fous de l'IA
Copy link to section
Lorsque vous définissez le commutateur AI guardrails sur On, le langage nuisible est automatiquement supprimé du texte d'invite d'entrée et de la sortie générée par le modèle. Plus précisément, toute phrase de l'entrée ou de la sortie qui contient un langage nuisible est remplacée par un message indiquant que du texte potentiellement dangereux a été supprimé.
Remarque :Cette fonction est prise en charge uniquement pour les modèles de langue anglaise. Si vous travaillez avec un modèle de base non anglais, désactivez les garde-fous de l'IA.
Si vous souhaitez exécuter l'invite à l'aide d'un programme, vous pouvez afficher et copier le code d'invite ou utiliser la bibliothèque Python .
Afficher le code
Copy link to section
Lorsque vous cliquez sur l'icône View code, une commande cURL s'affiche. Vous pouvez l'appeler depuis l'extérieur de Prompt Lab pour soumettre l'invite et les paramètres actuels au modèle sélectionné et obtenir une réponse générée.
La commande inclut un espace réservé pour unIBM Cloud Jeton IAM. Pour plus d'informations sur la génération du jeton d'accès, voir Générer un jeton IBM Cloud IAM.
Alternative programmatique au Prompt Lab
Copy link to section
L'interface graphique de Prompt Lab est un endroit idéal pour expérimenter et itérer avec vos invites. Cependant, vous pouvez également demander des modèles de fondation dans watsonx.ai de manière programmatique en utilisant la bibliothèque Python ou l'API REST. Pour plus de détails, voir Codage des solutions d'IA génératives.
Invites disponibles
Copy link to section
Dans le panneau latéral, vous pouvez accéder à des exemples d'invites, à votre historique de session et à des invites enregistrées.
Exemples
Copy link to section
Une collection d'exemples de messages-guides est disponible dans le Prompt Lab. Les exemples illustrent des paramètres de texte d'invite et de modèle efficaces pour différentes tâches, notamment la classification, l'extraction, la génération de contenu, la réponse aux questions et la synthèse.
Lorsque vous cliquez sur un exemple, le texte de l'invite se charge dans l'éditeur, un modèle approprié est sélectionné et les paramètres optimaux sont configurés automatiquement.
Historique
Copy link to section
Lorsque vous testez différents textes d'invite, choix de modèle et paramètres, les détails sont capturés dans l'historique de la session chaque fois que vous soumettez votre invite. Pour charger une invite précédente, cliquez sur l'entrée dans l'historique, puis sur Restaurer.
Sauvegardé
Copy link to section
Dans le menu Modèles d'invite enregistrés , vous pouvez charger les invites que vous avez enregistrées dans le projet en cours en tant qu'actif de modèle d'invite.
Lorsque watsonx.governance est mis à disposition, si votre modèle d'invite inclut au moins une variable d'invite, vous pouvez évaluer l'efficacité des réponses du modèle. Pour plus d'informations, voir Evaluation des modèles d'invite dans les projets.