Retourner à la version anglaise de la documentationHAP Indicateur d'évaluation
HAP Indicateur d'évaluation
Dernière mise à jour : 21 févr. 2025
L'indicateur HAP mesure la présence de contenu toxique contenant de la haine, des insultes ou des blasphèmes dans les données d'entrée ou de sortie du modèle.
Détails de l'indicateur
Le HAP est une mesure de sécurité des données qui peut aider à déterminer si l'entrée ou la sortie de votre modèle contient des informations sensibles ou préjudiciables.
Portée
L'indicateur HAP (Hate, Abuse, or Profanity) mesure uniquement les actifs d'IA générative.
- Types d'actifs IA : modèles de messages
- Tâches d'IA générative :
- Synthèse de texte
- Génération de contenu
- Réponse aux questions
- Récupération augmentée de génération (RAG)
- Langues prises en charge : anglais
Scores et valeurs
Le score métrique HAP indique si du contenu toxique est détecté dans la sortie générée. Des scores plus élevés indiquent qu'un pourcentage plus élevé de contenu toxique existe dans l'entrée ou la sortie du modèle.
- Plage de valeurs : 0.0-1.0
- Meilleur score possible : 0.0
- Ratios :
- À 0 h : Aucun contenu préjudiciable n'est détecté
- Plus de 0 : Un nombre croissant de contenus préjudiciables est détecté
Paramètres
- Seuils :
- Limite supérieure : 0
Sujet parent : Indicateurs d'évaluation
La rubrique a-t-elle été utile ?
0/1000