0 / 0
Retourner à la version anglaise de la documentation
Commence par la métrique d'évaluation
Dernière mise à jour : 07 mars 2025
Commence par la métrique d'évaluation

Le paramètre starts with evaluation metric détermine si les lignes de la prédiction commencent par la sous-chaîne spécifiée

Détails de l'indicateur

Starts with est une métrique de validation de contenu qui utilise des fonctions basées sur des chaînes de caractères pour analyser et valider le texte généré en sortie par LLM. L'indicateur n'est disponible que lorsque vous utilisez le SDK d' Python, pour calculer les indicateurs d'évaluation.

Portée

Le démarrage avec métrique évalue uniquement les ressources IA génératives.

  • Types d'actifs IA : modèles de messages
  • Tâches d'IA générative :
    • Synthèse de texte
    • Génération de contenu
    • Réponse aux questions
    • Extraction d'entités
    • Récupération augmentée de génération (RAG)
  • Langues prises en charge : anglais

Scores et valeurs

L'indicateur starts with metric score indique si les lignes commencent par la sous-chaîne spécifiée.

  • Plage de valeurs : 0.0-1.0
  • Ratios :
    • À 0 : Les lignes de prédiction ne commencent pas par la sous-chaîne spécifiée.
    • À 1 : Les lignes de prédiction commencent par la sous-chaîne spécifiée.

Paramètres

  • Seuils :
    • Limite inférieure : 0
    • Limite supérieure : 1

Sujet parent : Indicateurs d'évaluation