資料の 英語版 に戻るAIにとって代表的でないデータのリスク
AIにとって代表的でないデータのリスク
最終更新: 2024年12月12日
説明
代表的でないデータとは、トレーニングデータまたは微調整データが、基礎となる母集団を十分に代表していない場合、または対象となる現象を測定していない場合に発生する。
なぜ、代表的でないデータが財団モデルの懸念材料となるのか?
データが代表的でなければ、モデルは意図したようには機能しない。
親トピック: AIリスクアトラス
財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。