0 / 0
資料の 英語版 に戻る
AIへの過度または過小な依存リスク
最終更新: 2024年12月12日
AIへの過度または過小な依存リスク
整合 アライメント・リスクを表すアイコン。
出力に関連するリスク
価値の調整
生成 AI による増幅

説明

AIによる意思決定支援タスクでは、信頼度とは、人がモデルの出力をどれだけ信頼しているか(潜在的に行動しているか)を測るものである。 過度の信頼とは、モデルを信頼しすぎて、モデルの出力が間違っている可能性が高いにもかかわらず、モデルの出力を受け入れてしまうことである。 過少信頼とはその逆で、モデルを信頼していないが、信頼すべき状態である。

ファンデーションモデルにとって、なぜ過度な依存や過小な依存が懸念されるのか?

人間がAIベースの提案に基づいて選択を行うタスクでは、AIシステムに対する誤った信頼が原因で、過度/過少な信頼が意思決定を誤らせる可能性があり、意思決定の重要性が増すにつれて否定的な結果が生じる。

親トピック: AI リスク・アトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細