0 / 0
資料の 英語版 に戻る
AI の意思決定バイアス・リスク
最終更新: 2024年12月12日
AI の意思決定バイアス・リスク
フェアネス 公正リスクを表すアイコン。
出力に関連するリスク
フェアネス
従来型の AI リスク

説明

決定バイアスは、モデルの決定によって、あるグループが他のグループより不当に有利になる場合に発生する。 これはデータの偏りによるものかもしれないし、モデルのトレーニングの結果として増幅されたものかもしれない。

意思決定のバイアスがファウンデーション・モデルの関心事である理由

バイアスは、モデルの決定によって影響を受ける人々を傷つける可能性がある。

入力に関連付けられたリスクの背景イメージ

不公平な恵まれないグループ

2018 年の Gender Shades の調査では、機械学習アルゴリズムが人種や性別などのクラスに基づいて判別できることが実証されています。 研究者は、Microsoft、 IBM、Amazon などの企業によって販売されている商業性分類システムを評価し、ダーク肌の女性が最も誤分類されたグループであることを示しました (エラー率は最大 35%)。 これに対して、薄空の誤差率は 1% を超えなかった。

親トピック: AI リスク・アトラス

当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細