0 / 0
Retourner à la version anglaise de la documentation
Métrique d'évaluation des correspondances partielles
Dernière mise à jour : 21 févr. 2025
Métrique d'évaluation des correspondances partielles

La mesure d'évaluation de la correspondance floue mesure la similarité entre les prédictions générées et les mots-clés dans les réponses de référence.

Détails de l'indicateur

La correspondance approximative est une mesure de validation de contenu qui utilise des fonctions basées sur des chaînes de caractères pour analyser et valider le texte généré par le LLM. L'indicateur n'est disponible que lorsque vous utilisez le SDK d' Python s pour calculer les indicateurs d'évaluation.

Portée

La métrique de correspondance floue évalue uniquement les ressources d'IA générative.

  • Types d'actifs IA : modèles de messages
  • Tâches d'IA générative :
    • Synthèse de texte
    • Génération de contenu
    • Réponse aux questions
    • Extraction d'entités
    • Récupération augmentée de génération (RAG)
  • Langues prises en charge : anglais

Scores et valeurs

Le score de la métrique de correspondance floue indique le niveau de similitude entre les prédictions générées et les mots-clés de référence.

  • Ratios :
    • À 0 : La prédiction ne correspond pas au mot-clé.
    • À 1 : La prédiction correspond au mot-clé.

Paramètres

  • Seuils :
    • Limite inférieure : 0
    • Limite supérieure : 1

Sujet parent : Indicateurs d'évaluation