0 / 0
資料の 英語版 に戻る
AI のデータ・バイアス・リスク

AI のデータ・バイアス・リスク

入力に関連するリスク
トレーニングおよびチューニングのフェーズ
公平性
生成 AI による増幅

説明

モデルのトレーニングおよび微調整に使用されるデータに存在する履歴、表現、および社会的バイアスは、モデルの動作に悪影響を及ぼす可能性があります。

データ・バイアスがファウンデーション・モデルの関心事であるのはなぜですか?

履歴バイアスや表現バイアスなど、バイアスのあるデータに基づいて AI システムをトレーニングすると、特定のグループや個人を不当に表現したり、差別したりする可能性がある、偏りのある出力や偏りのある出力につながる可能性があります。 ビジネス・エンティティーは、負の社会的影響に加え、バイアスのあるモデルの結果から法的結果や評判の悪さに直面する可能性があります。

入力に関連付けられたリスクの背景イメージ

医療バイアス

データと AI のアプリケーションを使用して医療の格差を強化し、人々が医療を受ける方法を変革することについての研究論文によると、その取り組みの背後にあるデータと同程度の強さしかありません。 例えば、少数派の表現が悪いトレーニング・データや、既に治療が不平等であることを反映するトレーニング・データを使用すると、健康上の不平等が増大する可能性があります。

親トピック: AI リスク・アトラス

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細