資料の 英語版 に戻るAIのデータ汚染リスク
AIのデータ汚染リスク
最終更新: 2024年12月12日
説明
データ汚染は、誤ったデータがトレーニングに使用された場合に発生する。 例えば、モデルの目的に合致していないデータや、テストや評価など他の開発タスクのためにすでに確保されているデータなどである。
なぜデータ汚染は財団モデルの懸念事項なのか?
意図したトレーニングデータと異なるデータは、モデルの精度を歪め、モデルの結果に影響を与える可能性がある。
親トピック: AIリスクアトラス
財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。