0 / 0
資料の 英語版 に戻る
AIにとって代表的でないデータのリスク
最終更新: 2024年12月12日
AIにとって代表的でないデータのリスク
インプットに関するリスク
トレーニングと調整段階
正確性
従来のAIリスク

説明

代表的でないデータとは、トレーニングデータまたは微調整データが、基礎となる母集団を十分に代表していない場合、または対象となる現象を測定していない場合に発生する。

なぜ、代表的でないデータが財団モデルの懸念材料となるのか?

データが代表的でなければ、モデルは意図したようには機能しない。

親トピック: AIリスクアトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細