Retourner à la version anglaise de la documentationÉgal à la mesure d'évaluation
Égal à la mesure d'évaluation
Dernière mise à jour : 13 févr. 2025
La métrique d'évaluation « equals to » mesure si les lignes de la prédiction sont égales à la sous-chaîne spécifiée.
Détails de l'indicateur
Equals to est une métrique de validation de contenu qui utilise des fonctions basées sur des chaînes de caractères pour analyser et valider le texte généré en sortie par LLM. L'indicateur n'est disponible que lorsque vous utilisez le SDK d' Python s pour calculer les indicateurs d'évaluation.
Portée
Le système « equals to metric » évalue uniquement les actifs d'IA générative.
- Types d'actifs IA : modèles de messages
- Tâches d'IA générative :
- Synthèse de texte
- Génération de contenu
- Réponse aux questions
- Extraction d'entités
- Récupération augmentée de génération (RAG)
- Langues prises en charge : anglais
Scores et valeurs
Le score d'égalité à la métrique indique si les lignes de la prédiction sont égales à la chaîne spécifiée.
- Plage de valeurs : 0.0-1.0
- Ratios :
- À 0 : La ligne de prédiction n'est pas égale à la sous-chaîne spécifiée.
- À 1 : La ligne de prédiction est égale à la sous-chaîne spécifiée.
Paramètres
- Seuils :
- Limite inférieure : 0
- Limite supérieure : 1
Sujet parent : Indicateurs d'évaluation
La rubrique a-t-elle été utile ?
0/1000