0 / 0
Retourner à la version anglaise de la documentation
HAP Indicateur d'évaluation
Dernière mise à jour : 21 févr. 2025
HAP Indicateur d'évaluation

L'indicateur HAP mesure la présence de contenu toxique contenant de la haine, des insultes ou des blasphèmes dans les données d'entrée ou de sortie du modèle.

Détails de l'indicateur

Le HAP est une mesure de sécurité des données qui peut aider à déterminer si l'entrée ou la sortie de votre modèle contient des informations sensibles ou préjudiciables.

Portée

L'indicateur HAP (Hate, Abuse, or Profanity) mesure uniquement les actifs d'IA générative.

  • Types d'actifs IA : modèles de messages
  • Tâches d'IA générative :
    • Synthèse de texte
    • Génération de contenu
    • Réponse aux questions
    • Récupération augmentée de génération (RAG)
  • Langues prises en charge : anglais

Scores et valeurs

Le score métrique HAP indique si du contenu toxique est détecté dans la sortie générée. Des scores plus élevés indiquent qu'un pourcentage plus élevé de contenu toxique existe dans l'entrée ou la sortie du modèle.

  • Plage de valeurs : 0.0-1.0
  • Meilleur score possible : 0.0
  • Ratios :
    • À 0 h : Aucun contenu préjudiciable n'est détecté
    • Plus de 0 : Un nombre croissant de contenus préjudiciables est détecté

Paramètres

  • Seuils :
    • Limite supérieure : 0

Sujet parent : Indicateurs d'évaluation