0 / 0
資料の 英語版 に戻る
AI の意思決定バイアス・リスク

AI の意思決定バイアス・リスク

出力に関連するリスク
公平性
従来型の AI リスク

説明

モデルの決定により、あるグループが別のグループよりも不当に有利になる場合。

意思決定のバイアスがファウンデーション・モデルの関心事である理由

バイアスは、モデルの決定によって影響を受ける個人に悪影響を及ぼす可能性があります。 ビジネス・エンティティーは、罰金、評判の悪さ、運用の中断、およびその他の法的結果に直面する可能性があります。

入力に関連付けられたリスクの背景イメージ

不公平な恵まれないグループ

2018 年の Gender Shades の調査では、機械学習アルゴリズムが人種や性別などのクラスに基づいて判別できることが実証されています。 研究者は、Microsoft、 IBM、Amazon などの企業によって販売されている商業性分類システムを評価し、ダーク肌の女性が最も誤分類されたグループであることを示しました (エラー率は最大 35%)。 これに対して、薄空の誤差率は 1% を超えなかった。

親トピック: AI リスク・アトラス

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細