0 / 0
資料の 英語版 に戻る
AIにおける不確かなデータ出所リスク
最終更新: 2024年12月12日
AIにおける不確かなデータ出所リスク
透明度 透明性リスクを表すアイコン。
入力に関連するリスク
トレーニングおよびチューニングのフェーズ
透明度
生成 AI による増幅

説明

データの出所とは、データの所有者、出所、変換などの履歴をたどることを指す。 データの出所を確認するための標準化され確立された方法がなければ、そのデータが元の出所と同じであり、正しい使用条件を持っているという保証はない。

なぜ不確実なデータ実証が基礎モデルの懸念となるのか?

すべてのデータ・ソースが信頼できるわけではありません。 データが非倫理的に収集、操作、改ざんされているかもしれない。 データ量、データの複雑さ、データソースの多様性、データ管理の不備などの要因により、データ・プルーバンスの検証は困難である。 このようなデータを使用すると、モデルで望ましくない動作が発生する可能性があります。

親トピック: AI リスク・アトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。