資料の 英語版 に戻るAIのデータ・バイアス・リスク
AIのデータ・バイアス・リスク
最終更新: 2024年12月12日
説明
データに存在する歴史的、社会的バイアスは、モデルの訓練と微調整に使用される。
なぜデータの偏りが基礎モデルの懸念材料になるのか?
歴史的あるいは社会的な偏見など、バイアスのかかったデータでAIシステムを訓練すると、偏った、あるいは歪んだ出力が得られ、特定のグループや個人を不当に代表したり、差別したりする可能性がある。
例
医療の偏見
データおよびAIアプリケーションを使用して医療格差を補強し、人々が医療を受ける方法を変えるという研究論文によれば、その努力の背後にあるデータほど強力である。 例えば、マイノリティの割合が低かったり、すでに不平等なケアを反映していたりするトレーニングデータを使用すると、健康格差が拡大する可能性がある。
ソース:
親トピック: AIリスクアトラス
財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することで、読者は潜在的なリスクを理解し、軽減策を講じることができる。 これらの例を強調するのは説明のためである。