0 / 0
資料の 英語版 に戻る
AIのデータ・バイアス・リスク
最終更新: 2024年12月12日
AIのデータ・バイアス・リスク
フェアネス 公正リスクを表すアイコン。
インプットに関するリスク
トレーニングと調整段階
フェアネス
ジェネレーティブAIによる増幅

説明

データに存在する歴史的、社会的バイアスは、モデルの訓練と微調整に使用される。

なぜデータの偏りが基礎モデルの懸念材料になるのか?

歴史的あるいは社会的な偏見など、バイアスのかかったデータでAIシステムを訓練すると、偏った、あるいは歪んだ出力が得られ、特定のグループや個人を不当に代表したり、差別したりする可能性がある。

入力に関するリスクの背景画像

医療の偏見

データおよびAIアプリケーションを使用して医療格差を補強し、人々が医療を受ける方法を変えるという研究論文によれば、その努力の背後にあるデータほど強力である。 例えば、マイノリティの割合が低かったり、すでに不平等なケアを反映していたりするトレーニングデータを使用すると、健康格差が拡大する可能性がある。

親トピック: AIリスクアトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することで、読者は潜在的なリスクを理解し、軽減策を講じることができる。 これらの例を強調するのは説明のためである。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細