0 / 0
Retourner à la version anglaise de la documentation
Égal à la mesure d'évaluation
Dernière mise à jour : 13 févr. 2025
Égal à la mesure d'évaluation

La métrique d'évaluation « equals to » mesure si les lignes de la prédiction sont égales à la sous-chaîne spécifiée.

Détails de l'indicateur

Equals to est une métrique de validation de contenu qui utilise des fonctions basées sur des chaînes de caractères pour analyser et valider le texte généré en sortie par LLM. L'indicateur n'est disponible que lorsque vous utilisez le SDK d' Python s pour calculer les indicateurs d'évaluation.

Portée

Le système « equals to metric » évalue uniquement les actifs d'IA générative.

  • Types d'actifs IA : modèles de messages
  • Tâches d'IA générative :
    • Synthèse de texte
    • Génération de contenu
    • Réponse aux questions
    • Extraction d'entités
    • Récupération augmentée de génération (RAG)
  • Langues prises en charge : anglais

Scores et valeurs

Le score d'égalité à la métrique indique si les lignes de la prédiction sont égales à la chaîne spécifiée.

  • Plage de valeurs : 0.0-1.0
  • Ratios :
    • À 0 : La ligne de prédiction n'est pas égale à la sous-chaîne spécifiée.
    • À 1 : La ligne de prédiction est égale à la sous-chaîne spécifiée.

Paramètres

  • Seuils :
    • Limite inférieure : 0
    • Limite supérieure : 1

Sujet parent : Indicateurs d'évaluation