Retourner à la version anglaise de la documentationCommence par la métrique d'évaluation
Commence par la métrique d'évaluation
Dernière mise à jour : 07 mars 2025
Le paramètre starts with evaluation metric détermine si les lignes de la prédiction commencent par la sous-chaîne spécifiée
Détails de l'indicateur
Starts with est une métrique de validation de contenu qui utilise des fonctions basées sur des chaînes de caractères pour analyser et valider le texte généré en sortie par LLM. L'indicateur n'est disponible que lorsque vous utilisez le SDK d' Python, pour calculer les indicateurs d'évaluation.
Portée
Le démarrage avec métrique évalue uniquement les ressources IA génératives.
- Types d'actifs IA : modèles de messages
- Tâches d'IA générative :
- Synthèse de texte
- Génération de contenu
- Réponse aux questions
- Extraction d'entités
- Récupération augmentée de génération (RAG)
- Langues prises en charge : anglais
Scores et valeurs
L'indicateur starts with metric score indique si les lignes commencent par la sous-chaîne spécifiée.
- Plage de valeurs : 0.0-1.0
- Ratios :
- À 0 : Les lignes de prédiction ne commencent pas par la sous-chaîne spécifiée.
- À 1 : Les lignes de prédiction commencent par la sous-chaîne spécifiée.
Paramètres
- Seuils :
- Limite inférieure : 0
- Limite supérieure : 1
Sujet parent : Indicateurs d'évaluation
La rubrique a-t-elle été utile ?
0/1000