Macro F1 score is a multi-label/class metric for generative AI quality evaluations that measures how well generative AI assets perform entity extraction tasks for multi-label/multi-class predictions.
範囲
Copy link to section
The macro F1 metric evaluates generative AI assets only.
AI 資産の種類: テンプレートを即座に表示
生成型AIのタスク :エンティティ抽出
対応言語 :英語
スコアと価値
Copy link to section
マクロの F1 メトリックスコアは、各クラスごとに個別に計算された F1 スコアの平均値を示します。 スコアが高いほど、予測の精度が高いことを示します。