0 / 0
Retourner à la version anglaise de la documentation
Mesure d'évaluation de la pertinence des réponses
Dernière mise à jour : 03 févr. 2025
Mesure d'évaluation de la pertinence des réponses

L'indicateur de pertinence de la réponse mesure le degré de pertinence de la réponse dans la sortie du modèle par rapport à la question posée dans l'entrée du modèle.

Détails de l'indicateur

La pertinence des réponses est une mesure de la qualité des réponses pour les évaluations de la qualité de l'IA générative qui peut aider à mesurer la qualité des réponses du modèle. Les mesures de la qualité des réponses sont calculées à l'aide de modèles LLM-as-a-judge.

Portée

La mesure de la pertinence des réponses évalue uniquement les ressources génératives de l'IA.

  • Types d'actifs IA : Modèles d'invites
  • Tâches d'IA générative : Génération augmentée par récupération (RAG)
  • Langues prises en charge : Anglais

Scores et valeurs

Le score de la métrique de pertinence de la réponse indique le degré de pertinence de la réponse générée par rapport à l'entrée du modèle. Un score élevé indique que le modèle fournit des réponses pertinentes à la question.

  • Plage de valeurs : 0.0-1.0
  • Meilleure note possible : 1.0
  • Ratios :
    • 0 : aucune pertinence par rapport à la requête d'entrée
    • Plus de 0 : pertinence croissante avec des scores plus élevés

Paramètres

  • Seuils :
    • Limite inférieure : 0
    • Limite supérieure : 1

Sujet parent : Mesures d'évaluation