0 / 0
資料の 英語版 に戻る
AIのデータ汚染リスク
最終更新: 2024年12月12日
AIのデータ汚染リスク
インプットに関するリスク
トレーニングと調整段階
正確性
ジェネレーティブAIによる増幅

説明

データ汚染は、誤ったデータがトレーニングに使用された場合に発生する。 例えば、モデルの目的に合致していないデータや、テストや評価など他の開発タスクのためにすでに確保されているデータなどである。

なぜデータ汚染は財団モデルの懸念事項なのか?

意図したトレーニングデータと異なるデータは、モデルの精度を歪め、モデルの結果に影響を与える可能性がある。

親トピック: AIリスクアトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細