Les mesures d'évaluation peuvent vous aider à surveiller en permanence les performances de vos modèles d'IA afin de fournir des informations tout au long du cycle de vie de l'IA. Avec watsonx.governance, vous pouvez utiliser ces mesures pour garantir la conformité avec les exigences réglementaires et identifier les améliorations à apporter pour réduire les risques.
Vous pouvez effectuer des évaluations sur Watsonx.governance pour générer des mesures avec un contrôle automatisé qui peut fournir des informations exploitables pour vous aider à atteindre vos objectifs de gouvernance de l'IA. Vous pouvez utiliser ces mesures pour atteindre les objectifs suivants :
- Garantissez la conformité : Suivez automatiquement le respect de l'évolution des réglementations et des politiques de l'entreprise grâce à des alertes déclenchées en cas de dépassement des seuils.
- Promouvoir la transparence : Produire une documentation détaillée afin de fournir des informations claires sur le comportement et les performances du modèle, ainsi que sur la possibilité d'expliquer les résultats.
- Atténuer les risques : Détecter et traiter les problèmes tels que les biais ou la dérive de la précision par une évaluation continue et des évaluations proactives des risques.
- Protéger la vie privée et la sécurité : Surveillez les vulnérabilités en matière de sécurité, comme l'exposition aux informations personnelles identifiables (PII), et mettez en place des garde-fous pour empêcher l'utilisation abusive de données sensibles.
Les mesures que vous pouvez utiliser pour obtenir des informations sur les performances de votre modèle sont déterminées par le type d'évaluations que vous activez. Chaque type d'évaluation génère des mesures différentes que vous pouvez analyser pour obtenir des informations.
Vous pouvez également utiliser le ibm-watsonx-gov
SDK Python pour calculer des métriques dans un environnement d'exécution de bloc-notes ou déchargées sous forme de tâches Spark sur IBM Analytics Engine pour les évaluations. Le SDK d' Python s est une bibliothèque d' Python s que vous pouvez utiliser pour surveiller, gérer et contrôler par programmation des modèles d'apprentissage automatique. Certains indicateurs peuvent n'être disponibles qu'avec le kit de développement logiciel ( Python ) SDK. Pour plus d'informations, voir Calcul des métriques avec le SDK d' Python.
Mesures d'évaluation de la dérive
Les mesures d'évaluation de la dérive peuvent vous aider à détecter les baisses de précision et de cohérence des données dans vos modèles afin de déterminer dans quelle mesure votre modèle prédit les résultats au fil du temps. Watsonx.governance prend en charge les mesures d'évaluation des dérives suivantes pour l'apprentissage automatique models.:
Métrique | Descriptif |
---|---|
Baisse de l'exactitude | Estime la baisse de précision de votre modèle au moment de l'exécution par rapport aux données d'apprentissage |
Baisse de la cohérence des données | Comparaison des transactions en cours d'exécution avec les modèles de transactions dans les données d'apprentissage afin d'identifier les incohérences |
Dérive v2 métriques d'évaluation
Les mesures d'évaluation de la dérive v2 peuvent vous aider à mesurer les changements dans vos données au fil du temps afin de garantir des résultats cohérents pour votre modèle. Vous pouvez utiliser ces mesures pour identifier les changements dans les résultats de votre modèle, la précision de vos prédictions et la distribution de vos données d'entrée. Watsonx.governance prend en charge les paramètres de dérive suivants : v2 :
Métrique | Descriptif |
---|---|
Dérive de l'intégration | Détecte le pourcentage d'enregistrements aberrants par rapport aux données de référence |
Dérive des caractéristiques | Mesure le changement dans la distribution des valeurs pour les caractéristiques importantes |
Dérive des métadonnées d'entrée | Mesure le changement dans la distribution des métadonnées du texte d'entrée du LLM |
Dérive de la qualité du modèle | Compare la précision d'exécution estimée à la précision d'entraînement pour mesurer la baisse de précision. |
Dérive de sortie | Mesure le changement dans la distribution de confiance du modèle |
Dérive des métadonnées de sortie | Mesure le changement dans la distribution des métadonnées du texte de sortie du LLM. |
Dérive des prévisions | Mesure le changement de distribution des classes prédites par le LLM. |
Mesures d'évaluation de l'équité
Les mesures d'évaluation de l'équité peuvent vous aider à déterminer si votre modèle produit des résultats biaisés. Vous pouvez utiliser ces mesures pour identifier les cas où votre modèle a tendance à fournir des résultats favorables plus souvent à un groupe qu'à un autre. Watsonx.governance prend en charge les mesures d'évaluation de l'équité suivantes :
Métrique | Descriptif |
---|---|
Différence des cotes absolues moyennes | Comparaison de la moyenne des différences absolues des taux de faux positifs et des taux de vrais positifs entre les groupes contrôlés et les groupes de référence |
Différence moyenne des cotes | Mesure la différence entre les taux de faux positifs et de faux négatifs entre les groupes suivis et les groupes de référence |
Impact disparate | Compare le pourcentage de résultats favorables pour un groupe suivi au pourcentage de résultats favorables pour un groupe de référence |
Différence de taux d'erreur | Le pourcentage de transactions mal évaluées par votre modèle |
Différence de taux de fausses reconnaissances | Le nombre de transactions faussement positives en pourcentage de toutes les transactions avec un résultat positif |
Différence de taux de faux négatifs | Le pourcentage de transactions positives qui ont été considérées à tort comme négatives par votre modèle |
Différence de taux de fausses omissions | Le nombre de transactions faussement négatives en pourcentage de toutes les transactions avec un résultat négatif |
Différence de taux de faux positifs | Le pourcentage de transactions négatives qui ont été incorrectement évaluées comme positives par votre modèle. |
Score d'impact | Compare le taux de sélection des groupes suivis pour obtenir des résultats favorables au taux de sélection des groupes de référence pour obtenir des résultats favorables. |
Différence de parité statistique | Comparaison du pourcentage de résultats favorables pour les groupes suivis par rapport aux groupes de référence. |
Mesures d'évaluation de la qualité de l'IA générative
Les mesures d'évaluation de la qualité de l'IA générative peuvent vous aider à mesurer la qualité des tâches effectuées par votre modèle de base. Watsonx.governance prend en charge les paramètres d'évaluation de la qualité de l'IA générative suivants :
Métrique | Descriptif |
---|---|
BLEU (Bilingual Evaluation Understudy) | Compare les phrases traduites par les traductions automatiques aux phrases des traductions de référence afin de mesurer la similarité entre les textes de référence et les prédictions |
Correspondance exacte | Compare les chaînes de prédiction du modèle aux chaînes de référence afin de mesurer la fréquence de correspondance des chaînes. |
METEOR (Metric for Evaluation of Translation with Explicit ORdering) | Mesure dans quelle mesure le texte généré par les traductions automatiques correspond à la structure du texte à partir des traductions de référence |
Lisibilité | Détermine le degré de difficulté de lecture des résultats du modèle en mesurant des caractéristiques telles que la longueur des phrases et la complexité des mots |
ROUGE (Recall-Oriented Understudy for Gisting Evaluation) | Mesurer la qualité des résumés ou des traductions générés par rapport aux résultats de référence. |
SARI (sortie du système par rapport aux références et à la phrase d'entrée) | Compare le résultat de la phrase prédite au résultat de la phrase de référence pour mesurer la qualité des mots que le modèle utilise pour générer des phrases |
Similarité des phrases | Capture les informations sémantiques des enchâssements de phrases pour mesurer la similarité entre les textes |
Qualité du texte | Évalue les résultats d'un modèle par rapport à des ensembles de données SuperGLUE en mesurant le score F1, la précision et le rappel par rapport aux prédictions du modèle et à ses données de référence |
Watsonx.governance prend également en charge les différentes catégories suivantes de mesures de la qualité de l'IA générative :
Mesures de la qualité des réponses
Vous pouvez utiliser les mesures de qualité des réponses pour évaluer la qualité des réponses du modèle. Les mesures de la qualité des réponses sont calculées à l'aide de modèles LLM-as-a-judge. Pour calculer les métriques avec les modèles LLM-as-a-judge, vous pouvez créer une fonction de notation qui appelle les modèles. Pour plus d'informations, voir le carnet de tâches Computing Answer Quality and Retrieval Quality Metrics using IBM watsonx.governance for RAG (Calcul de la qualité des réponses et des mesures de la qualité de la recherche à l'aide de pour RAG ).
Vous pouvez calculer les paramètres de qualité de réponse suivants :
Métrique | Descriptif |
---|---|
Pertinence de la réponse | Mesure le degré de pertinence de la réponse dans la sortie du modèle par rapport à la question posée dans l'entrée du modèle |
Réponse similitude | Mesure le degré de similitude entre la réponse ou le texte généré et la vérité de terrain ou la réponse de référence afin de déterminer la qualité de la performance de votre modèle |
Fidélité | Mesure le degré d'ancrage du résultat du modèle dans le contexte du modèle et fournit des attributions à partir du contexte pour montrer les phrases les plus importantes qui contribuent au résultat du modèle. |
Demandes ayant échoué | Mesure le ratio des questions auxquelles on a répondu sans succès par rapport au nombre total de questions |
Mesures d'analyse du contenu
Vous pouvez utiliser les mesures d'analyse de contenu suivantes pour évaluer les résultats de votre modèle par rapport aux données d'entrée ou au contexte du modèle :
Métrique | Descriptif |
---|---|
Caractère abstrait | Mesure le ratio de n-grammes dans le texte généré qui n'apparaissent pas dans le contenu source du modèle de base |
Compression | Mesure la réduction du résumé par rapport au texte d'origine en calculant le rapport entre le nombre de mots du texte d'origine et le nombre de mots du modèle de base |
Couverture | Mesure la mesure dans laquelle la sortie du modèle de base est générée à partir de l'entrée du modèle en calculant le pourcentage de texte de sortie qui se trouve également dans l'entrée |
Densité | Mesure le degré d'extraction du résumé dans la sortie du modèle de base à partir de l'entrée du modèle en calculant la moyenne des fragments d'extraction qui ressemblent étroitement aux extractions textuelles du texte original |
Répétitivité | Mesure le pourcentage de n-grammes qui se répètent dans le modèle de base en sortie en calculant le nombre de n-grammes répétés et le nombre total de n-grammes dans le modèle en sortie |
Mesures de sécurité des données
Vous pouvez utiliser les mesures de sécurité des données suivantes pour déterminer si les données d'entrée ou de sortie de votre modèle contiennent des informations nuisibles ou sensibles :
Métrique | Descriptif |
---|---|
HAP | Mesure la présence d'un contenu toxique contenant des propos haineux, injurieux ou blasphématoires dans les données d'entrée ou de sortie du modèle. |
informations identifiant la personne | Mesure si les données d'entrée ou de sortie de votre modèle contiennent des informations personnellement identifiables en utilisant le modèle d'extraction d'entités de traitement du langage naturel Watson |
Métriques multi-classes/libellés
Vous pouvez utiliser les métriques multi-labels/classes suivantes pour mesurer les performances du modèle pour les prédictions multi-labels/multi-classes :
Métrique | Descriptif |
---|---|
Score macro-F1 | La moyenne des scores d' F1, calculée séparément pour chaque classe |
Macro-Précision | La moyenne des scores de précision calculée séparément pour chaque classe |
Macro-Rappel | La moyenne des scores de rappel calculés séparément pour chaque classe |
Score micro-F1 | Calcule la moyenne harmonique de la précision et du rappel |
Micro-Précision | Le rapport entre le nombre de prédictions correctes sur toutes les classes et le nombre total de prédictions. |
Micro-Rappel | Le rapport entre le nombre de prédictions correctes sur toutes les classes et le nombre d'échantillons vrais. |
Mesures de la qualité de la recherche
Vous pouvez utiliser les mesures de qualité de la recherche pour mesurer la qualité du classement des contextes pertinents par le système de recherche. Les mesures de la qualité de la recherche sont calculées avec des modèles LLM en tant que juge. Pour calculer les métriques avec les modèles LLM-as-a-judge, vous pouvez créer une fonction de notation qui appelle les modèles. Pour plus d'informations, voir le carnet de tâches Computing Answer Quality and Retrieval Quality Metrics using IBM watsonx.governance for RAG (Calcul de la qualité des réponses et des mesures de la qualité de la recherche à l'aide de pour RAG ).
Vous pouvez calculer les mesures de qualité d'extraction suivantes :
Métrique | Descriptif |
---|---|
Précision moyenne | Évalue si tous les contextes pertinents sont mieux classés ou non en calculant la moyenne des scores de précision des contextes pertinents |
Pertinence du contexte | Mesure la pertinence du contexte retrouvé par votre modèle par rapport à la question spécifiée dans l'invite |
Taux de hits | Mesure s'il y a au moins un contexte pertinent parmi les contextes retrouvés. |
Plus-value cumulée actualisée normalisée | Mesure la qualité du classement des contextes retrouvés |
Rang réciproque | Le rang réciproque du premier contexte pertinent |
Précision de la récupération | Mesure la quantité de contextes pertinents par rapport à l'ensemble des contextes recherchés |
Modéliser les mesures d'évaluation du suivi de la santé
Les mesures d'évaluation du moniteur de santé du modèle peuvent vous aider à comprendre le comportement et les performances de votre modèle en déterminant l'efficacité avec laquelle votre déploiement de modèle traite vos transactions. Les mesures d'évaluation de l'état des modèles sont activées par défaut pour les évaluations de modèles d'apprentissage automatique dans les déploiements d'actifs d'IA générative et de production. Watsonx.governance prend en charge les paramètres d'évaluation du moniteur de santé modèle suivants :
Métrique | Descriptif |
---|---|
Taille de contenu | La taille totale, moyenne, minimale, maximale et médiane de la charge utile des enregistrements de transaction que votre modèle de déploiement traite à travers les requêtes de notation en kilo-octets (Ko) |
Enregistrements | Le nombre total, moyen, minimum, maximum et médian d'enregistrements de transactions traités dans le cadre des demandes de notation |
Demandes d'évaluation | Le nombre de demandes de notation que votre déploiement de modèle reçoit |
users | Le nombre d'utilisateurs qui envoient des demandes de notation à vos déploiements de modèles |
Watsonx.governance prend également en charge les différentes catégories suivantes de mesures d'évaluation des moniteurs de santé modèles :
Comptage des jetons
Les mesures de décompte de jetons suivantes calculent le nombre de jetons traités dans les demandes de scoring pour le déploiement de votre modèle :
Métrique | Descriptif |
---|---|
Nombre de jetons d'entrée | Calcule le nombre total, moyen, minimum, maximum et médian de jetons d'entrée sur plusieurs demandes de notation pendant les évaluations |
Nombre de jetons de sortie | Calcule le nombre total, moyen, minimum, maximum et médian de jetons de sortie parmi les demandes de notation au cours des évaluations |
Débit et latence
Les évaluations des moniteurs de santé modèles calculent la latence en suivant le temps nécessaire pour traiter les demandes de notation et les enregistrements de transactions par milliseconde (ms). Le débit est calculé en suivant le nombre de demandes de marquage et d'enregistrements de transactions traités par seconde.
Les mesures suivantes sont calculées pour évaluer le débit et la latence pendant les évaluations :
Métrique | Descriptif |
---|---|
Latence API | Temps nécessaire (en ms) pour traiter une demande de notation par votre déploiement de modèle. |
Débit API | Nombre de demandes de découpe traitées par seconde par votre déploiement de modèle |
Latence record | Temps nécessaire (en ms) pour traiter un enregistrement par votre déploiement de modèle |
Débit record | Nombre d'enregistrements traités par seconde par votre déploiement de modèle |
Indicateurs d'évaluation de la qualité
Les évaluations de la qualité peuvent vous aider à mesurer la capacité de votre modèle à fournir des résultats corrects en fonction de ses performances. Watsonx.governance prend en charge les paramètres d'évaluation de la qualité suivants :
Métrique | Descriptif |
---|---|
exactitude | Mesure la justesse des prédictions de votre modèle en calculant la proportion de résultats corrects par rapport au nombre total de résultats. |
Aire sous la courbe PR | Mesure la qualité de l'équilibrage de votre modèle en identifiant correctement les classes positives et en trouvant toutes les classes positives |
Aire sous la courbe ROC | Mesure la capacité de votre modèle à identifier les différences entre les classes. |
Indice de Brier | Mesure la différence quadratique moyenne entre la probabilité prédite et la valeur cible. |
F1-Measure | Mesures Moyenne harmonique de précision et rappel |
Coefficient de Gini | Mesure la capacité des modèles à distinguer deux classes |
Inclinaison de l'étiquette | Mesure l'asymétrie des distributions d'étiquettes |
Perte logarithmique | Moyenne des logarithmes des probabilités de la classe cible (confiance) |
Coefficient de corrélation de Matthews | La qualité des classifications binaires et multiclasse en tenant compte des vrais et faux positifs et négatifs |
Erreur moyenne absolue | Moyenne de la différence absolue entre la prévision du modèle et la valeur cible |
Erreur absolue moyenne en pourcentage | Mesure la différence d'erreur moyenne en pourcentage entre les valeurs prévues et réelles |
Erreur quadratique moyenne | Moyenne de la différence au carré entre la prédiction du modèle et la valeur cible |
Coefficient de corrélation de Pearson | Mesure la relation linéaire entre la prédiction du modèle et les valeurs cibles. |
Précision | Proportion de prédictions correctes dans les prédictions de classe positive |
Proportion de la variance expliquée | Le rapport entre la variance expliquée et la variance cible. La variance expliquée est la différence entre la variance cible et la variance de l'erreur de prévision. |
Rappeler | Proportion de prédictions correctes dans la classe positive |
Racine de l'erreur quadratique moyenne | Racine carrée de la moyenne du carré des différences entre la prévision du modèle et la valeur cible |
R-carré | Ratio de la différence entre la variance cible et la variance de l'erreur de prédiction sur la variance cible |
coefficient de corrélation de Spearman | Mesure la monotonie de la relation entre les prédictions du modèle et les valeurs cibles. |
Erreur absolue moyenne en pourcentage symétrique | Mesure la moyenne symétrique de l'erreur en pourcentage de la différence entre les valeurs prévues et réelles |
Taux de vrais positifs | Proportion de prédictions correctes dans les prédictions de classe positive |
Taux de faux positifs pondéré | Proportion de prédictions incorrectes dans la classe positive |
Mesure F1 pondérée | Moyenne pondérée d' F1-measure s avec des poids égaux à la probabilité de classe |
Précision pondérée | Moyenne pondérée de précision avec des poids égaux à la probabilité de classe |
Rappel pondéré | Moyenne pondérée du rappel avec des poids égaux à la probabilité de classe |
Thème parent : Évaluer les modèles d'IA