0 / 0
Retourner à la version anglaise de la documentation
Démarrage rapide : Comparez les performances de l'application
Dernière mise à jour : 16 janv. 2025
Démarrage rapide : Comparez les performances de l'application

Suivez ce didacticiel pour apprendre à comparer plusieurs invites dans le Studio d'évaluation. Avec Evaluation Studio, vous pouvez évaluer et comparer vos actifs d'IA générative à l'aide de mesures quantitatives et de critères personnalisables adaptés à vos cas d'utilisation. Évaluez les performances de plusieurs actifs simultanément et consultez les analyses comparatives des résultats pour identifier les meilleures solutions.

Services requis
watsonx.ai
watsonx.governance
watsonx.ai Runtime
Rôles requis
Accès au niveau de service de Watsonx.governance Rôle du lecteur
Pour votre projet : Rôles d'administrateur ou de rédacteur
Panier de Cloud Object Storage utilisé pour votre projet : Rôle de rédacteur

Votre flux de travaux de base inclut les tâches suivantes :

  1. Ouvrez un projet contenant les modèles d'invite à évaluer. Les projets sont l'endroit où vous pouvez collaborer avec d'autres personnes pour travailler avec des actifs.
  2. Créez une expérience dans le Studio d'évaluation.
  3. Examinez les résultats.

En savoir plus sur Evaluation Studio

Vous pouvez utiliser Evaluation Studio pour rationaliser votre développement d'IA générative en automatisant le processus d'évaluation de plusieurs ressources d'IA pour différents types de tâches. Au lieu d'examiner individuellement chaque modèle d'invite et de comparer manuellement leurs performances, vous pouvez configurer une seule expérience pour évaluer simultanément plusieurs modèles d'invite, ce qui permet de gagner du temps lors du développement.

Les fonctionnalités suivantes sont incluses dans Evaluation Studio pour vous aider à évaluer et à comparer les modèles d'invite afin d'identifier les actifs les plus performants pour vos besoins :

  • Configuration d'expérience personnalisable
  • Analyse flexible des résultats

En savoir plus sur le studio d'évaluation

Regarder une vidéo sur Evaluation Studio

Regarder la vidéo Regardez cette vidéo pour prévisualiser les étapes de ce tutoriel. Il peut y avoir de légères différences dans l'interface utilisateur présentée dans la vidéo. La vidéo est destinée à accompagner le tutoriel écrit.

Cette vidéo fournit une méthode visuelle pour apprendre les concepts et les tâches de cette documentation.


Essayez un didacticiel avec Evaluation Studio

Dans ce tutoriel, vous exécutez les tâches suivantes :





Conseils pour compléter ce tutoriel
Voici quelques conseils pour réussir ce tutoriel.

Utiliser l'image dans l'image vidéo

Conseil : démarrez la vidéo, puis au fur et à mesure que vous faites défiler le didacticiel, la vidéo passe en mode image dans l'image. Fermez la table des matières de la vidéo pour une meilleure expérience de l'image dans l'image. Vous pouvez utiliser le mode image dans l'image pour suivre la vidéo pendant que vous effectuez les tâches de ce tutoriel. Cliquez sur l'horodatage de chaque tâche pour la suivre.

L'image animée suivante montre comment utiliser les fonctions d'image dans l'image et de table des matières :

Comment utiliser l'incrustation d'image et les chapitres ?

Obtenir de l'aide dans la communauté

Si vous avez besoin d'aide avec ce tutoriel, vous pouvez poser une question ou trouver une réponse dans le forum de discussion de la Communauté watsonx.

Configurez les fenêtres de votre navigateur

Pour une expérience optimale de ce tutoriel, ouvrez Cloud Pak for Data dans une fenêtre de navigateur, et gardez cette page de tutoriel ouverte dans une autre fenêtre de navigateur pour passer facilement d'une application à l'autre. Envisagez de placer les deux fenêtres du navigateur côte à côte pour faciliter le suivi.

Tutoriel et interface utilisateur côte à côte

Conseil : si vous rencontrez une visite guidée pendant que vous effectuez ce tutoriel dans l'interface utilisateur, cliquez sur Peut-être plus tard.



Tâche 1 : Créer l'exemple de projet

prévisualisation vidéo tutorielle Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 00:16.

Le centre de ressources comprend un exemple de projet qui contient des modèles d'invite que vous pouvez comparer dans le studio d'évaluation. Suivez les étapes suivantes pour créer un projet basé sur un échantillon :

  1. Dans l'écran d'accueil, cliquez sur l'icône Créer un nouveau projet Créer un projet.

  2. Sélectionner l' échantillon.

  3. Recherchez Getting started with watsonx.governance, sélectionnez cet exemple de projet et cliquez sur Next.

  4. Choisissez une instance de service object storage existante ou crée en une nouvelle.

  5. Cliquez sur Créer.

  6. Attendez que l'importation du projet soit terminée, puis cliquez sur Afficher le nouveau projet.

  7. Associer un service d'exécution watsonx.ai au projet. Pour plus d'informations, voir watsonx.ai Runtime.

    1. Lorsque le projet s'ouvre, cliquez sur l'onglet Gérer et sélectionnez la page Services et intégrations.

    2. Dans l'onglet Services IBM, cliquez sur Associer un service.

    3. Sélectionnez votre instance d'exécution watsonx.ai Si vous n'avez pas encore provisionné d'instance de service watsonx.ai Runtime, suivez ces étapes :

      1. Cliquez sur Nouveau service.

      2. Sélectionnez watsonx.ai Runtime.

      3. Cliquez sur Créer.

      4. Sélectionnez la nouvelle instance de service dans la liste.

    4. Cliquez sur Associer un service.

    5. Si nécessaire, cliquez sur Annuler pour revenir à la page Services et intégrations.

  8. Cliquez sur l'onglet Actifs dans le projet pour voir les exemples d'actifs.

Pour plus d'informations ou pour regarder une vidéo, voir Création d'un projet. Pour plus d'informations sur les services associés, voir Ajout de services associés.

Icône de point de contrôle Vérifiez vos progrès

L'image suivante montre l'onglet Actifs du projet. Vous êtes maintenant prêt à créer l'expérience.

Exemples de projets




Tâche 2 : Créer l'expérience du studio d'évaluation

prévisualisation vidéo tutorielle Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 01:11.

Pour comparer les performances des aides, vous devez créer une expérience dans Evaluation Studio. Suivez les étapes suivantes pour créer l'expérience :

  1. Dans l'onglet Actifs, cliquez sur Nouvel actif > Évaluer et comparer les invites.

  2. Sur la page de configuration, tapez Summarization Evaluation experiment pour le nom.

  3. Sélectionnez un type de tâche. Dans ce cas, vous souhaitez comparer les modèles d'invite de compression ; sélectionnez donc Compression.

  4. Cliquez sur Next (Suivant) pour passer à la page Prompt templates (Modèles d'invite).

  5. Sélectionnez les modèles d'invite Résumé de la demande d'assurance, 2 Résumé de la demande d'assurance et 3 Résumé de la demande d'assurance.

    Notez que ces trois modèles d'invite incluent des variables d' entrée, ce qui est une exigence du studio d'évaluation.

  6. Cliquez sur Next (Suivant) pour continuer à accéder à la page Metrics (Mesures).

  7. Développez les sections Qualité de l'IA générative et Santé du modèle pour passer en revue les paramètres qui seront utilisés dans l'évaluation.

  8. Cliquez sur Next (Suivant) pour passer à la page Test data (Données de test).

  9. Sélectionnez les données de test :

    1. Cliquez sur Sélectionner les données du projet.

    2. Sélectionnez Project file > Insurance claim summarization test data.csv.

      Les données de test que vous téléchargez doivent contenir des colonnes de sortie et d'entrée de référence pour chaque variable d'invite. Les colonnes de sortie de référence sont utilisées pour calculer les mesures basées sur la référence telles que ROUGE et BLEU.

    3. Cliquez sur Sélectionner.

    4. Dans la colonne Entrée, sélectionnez Insurance_Claim.

    5. Pour la colonne de sortie Référence, sélectionnez Synthèse.

  10. Cliquez sur Suivant pour passer à la page Révision et exécution.

  11. Examinez la configuration et cliquez sur Exécuter l'évaluation. Les évaluations peuvent prendre quelques minutes.

Icône de point de contrôle Vérifiez vos progrès

L'image suivante montre les résultats de l'évaluation. Vous pouvez maintenant examiner les résultats.

Modèle d'invite pour l'évaluation des résultats des tests




Tâche 3 : Examiner les résultats dans Evaluation Studio

prévisualisation vidéo tutorielle Pour avoir un aperçu de cette tâche, regardez la vidéo à partir de 02:26.

Vous êtes maintenant prêt à évaluer et à comparer les actifs de l'IA. Suivez les étapes suivantes pour examiner les résultats dans Evaluation Studio :

  1. Une fois l'évaluation terminée, vous pouvez visualiser les comparaisons de métriques.

    Les graphiques comparent les résultats pour chaque modèle d'invite que vous avez sélectionné. La visualisation indique si les scores dépassent les seuils pour chaque mesure.

  2. Cliquez sur la liste des enregistrements pour sélectionner une autre mesure. Par exemple, sélectionnez Analyse du contenu pour voir les mises à jour du graphique en fonction de l'indicateur sélectionné.

    Comparaison des mesures d'analyse de contenu

  3. Survolez une barre du graphique pour en voir les détails.

  4. Examinez le tableau situé sous la visualisation, qui présente les trois modèles d'invite. Remarquez que chacune des invites utilise un foundation model différent.

  5. Pour effectuer des comparaisons, cliquez sur l'icône Définir comme référence Définir comme référence à côté d'un modèle d'invite.

    La définition du modèle de référence met en évidence les colonnes du tableau pour indiquer si d'autres actifs affichent des performances supérieures ou inférieures à celles de l'actif que vous sélectionnez.

  6. Cliquez sur l'icône de classement personnalisé Classement personnalisé.

    Créer un classement personnalisé

    Pour analyser les résultats, vous pouvez également créer un classement personnalisé des mesures dans différents groupes en spécifiant des facteurs de pondération et une formule de classement afin de déterminer les modèles d'invite les plus performants. Lorsque vous créez un classement personnalisé, vous pouvez sélectionner des indicateurs pertinents pour votre classement et leur attribuer un facteur de pondération. Cliquez sur Annuler.

  7. Pour relancer les évaluations, cliquez sur l'icône Ajuster les paramètres Ajuster les paramètres. Utilisez le volet Détails de l'évaluation pour mettre à jour les données du test ou reconfigurer les métriques.

  8. Pour modifier l'expérience, cliquez sur l'icône Actifs Actifs pour supprimer ou ajouter des actifs à votre évaluation afin de modifier votre comparaison.

  9. Dans le tableau, cliquez sur le menu Débordement Dépassement en regard d'un modèle d'invite, puis choisissez Afficher la fiche d'information AI. Les fiches d'information contiennent des détails sur le bien à chaque étape du cycle de vie de l'IA afin de vous aider à atteindre vos objectifs de gouvernance et de conformité.

  10. Fermez la page de la fiche d'information sur l'IA pour revenir au studio d'évaluation.

  11. À partir de là, vous pouvez commencer à suivre un modèle d'invite dans un cas d'utilisation de l'IA. Dans le tableau, cliquez sur le menu Débordement Dépassement en regard d'un modèle d'invite et choisissez Suivre dans le cas d'utilisation AI.

Icône de point de contrôle Vérifiez vos progrès

L'image suivante montre les résultats de l'évaluation.

Modèle d'invite pour l'évaluation des résultats des tests




En savoir plus

Pour plus d'informations, reportez-vous aux rubriques suivantes :

Etapes suivantes

Essayez l'un des autres tutoriels :

Ressources supplémentaires

  • Afficher plus de vidéos.

  • Vous trouverez des exemples d'ensembles de données, de projets, de modèles, de messages-guides et de carnets de notes dans le centre de ressources pour acquérir une expérience pratique :

    Bloc-notes Notebooks que vous pouvez ajouter à votre projet pour commencer à analyser des données et à construire des modèles.

    Projet Projets que vous pouvez importer et qui contiennent des carnets de notes, des ensembles de données, des invites et d'autres ressources.

    Jeu de données Ensembles de données que vous pouvez ajouter à votre projet pour affiner, analyser et construire des modèles.

    Invite Invitations que vous pouvez utiliser dans le Prompt Lab pour inviter un foundation model.

    Modèle Modèles de fondation que vous pouvez utiliser dans le Prompt Lab

Sujet parent : Tutoriels de démarrage rapide