AIへの過剰または過小依存のリスク

最終更新: 2025年2月06日
AIへの過剰または過小依存のリスク
価値の調整
出力リスク
生成 AI による増幅

説明

AIによる意思決定支援タスクでは、信頼度とは、人がモデルの出力をどれだけ信頼しているか(潜在的に行動しているか)を測るものである。 過度の信頼とは、モデルを信頼しすぎて、モデルの出力が間違っている可能性が高いにもかかわらず、モデルの出力を受け入れてしまうことである。 過少信頼とはその逆で、モデルを信頼していないが、信頼すべき状態である。

ファンデーションモデルにとって、なぜ過度な依存や過小な依存が懸念されるのか?

人間がAIベースの提案に基づいて選択を行うタスクでは、AIシステムに対する誤った信頼が原因で、過度/過少な信頼が意思決定を誤らせる可能性があり、意思決定の重要性が増すにつれて否定的な結果が生じる。

親トピック: AI リスク・アトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。