資料の 英語版 に戻るAI の出力バイアス・リスク
AI の出力バイアス・リスク
最終更新: 2024年9月26日
説明
生成されたコンテンツは、特定のグループまたは個人を不当に表している可能性があります。
出力バイアスがファウンデーション・モデルの問題となるのはなぜですか?
バイアスは、AI モデルのユーザーに悪影響を及ぼし、既存の差別的行動を拡大する可能性があります。
例
バイアスのある生成済みイメージ
Lensa AI は、ユーザー自身がアップロードした画像に基づいて「Magic Avatars」を生成できる、Stable Diffusion でトレーニングされた生成機能を備えたモバイル・アプリです。 ソース・レポートによると、一部のユーザーは、生成されたアバターが性化され、人種化されていることを発見しました。
親トピック: AI リスク・アトラス
当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。