0 / 0
資料の 英語版 に戻る
AI のデータ・バイアス・リスク

AI のデータ・バイアス・リスク

入力に関連するリスク
トレーニングおよびチューニングのフェーズ
公平性
生成 AI による増幅

説明

モデルのトレーニングおよび微調整に使用されるデータに存在する履歴、表現、および社会的バイアスは、モデルの動作に悪影響を及ぼす可能性があります。

データ・バイアスがファウンデーション・モデルの関心事であるのはなぜですか?

履歴バイアスや表現バイアスなど、バイアスのあるデータに基づいて AI システムをトレーニングすると、特定のグループや個人を不当に表現したり、差別したりする可能性がある、偏りのある出力や偏りのある出力につながる可能性があります。 ビジネス・エンティティーは、負の社会的影響に加え、バイアスのあるモデルの結果から法的結果や評判の悪さに直面する可能性があります。

入力に関連付けられたリスクの背景イメージ

医療バイアス

データと AI のアプリケーションを使用して医療の格差を強化し、人々が医療を受ける方法を変革することについての研究論文によると、その取り組みの背後にあるデータと同程度の強さしかありません。 例えば、少数派の表現が悪いトレーニング・データや、既に治療が不平等であることを反映するトレーニング・データを使用すると、健康上の不平等が増大する可能性があります。

親トピック: AI リスク・アトラス

当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細