La mesure d'évaluation de la correspondance floue mesure la similarité entre les prédictions générées et les mots-clés dans les réponses de référence.
Détails de l'indicateur
La correspondance approximative est une mesure de validation de contenu qui utilise des fonctions basées sur des chaînes de caractères pour analyser et valider le texte généré par le LLM. L'indicateur n'est disponible que lorsque vous utilisez le SDK d' Python s pour calculer les indicateurs d'évaluation.
Portée
La métrique de correspondance floue évalue uniquement les ressources d'IA générative.
- Types d'actifs IA : modèles de messages
- Tâches d'IA générative :
- Synthèse de texte
- Génération de contenu
- Réponse aux questions
- Extraction d'entités
- Récupération augmentée de génération (RAG)
- Langues prises en charge : anglais
Scores et valeurs
Le score de la métrique de correspondance floue indique le niveau de similitude entre les prédictions générées et les mots-clés de référence.
- Ratios :
- À 0 : La prédiction ne correspond pas au mot-clé.
- À 1 : La prédiction correspond au mot-clé.
Paramètres
- Seuils :
- Limite inférieure : 0
- Limite supérieure : 1
Sujet parent : Indicateurs d'évaluation