0 / 0
資料の 英語版 に戻る
AI の幻覚リスク

AI の幻覚リスク

出力に関連するリスク
価値の調整
生成 AI の新機能

説明

事実上不正確なコンテンツまたは不誠実なコンテンツの生成。

なぜ幻覚がファウンデーション・モデルの関心事なのか?

誤った出力により、ユーザーが誤解され、ダウンストリームの成果物に取り込まれ、誤った情報がさらに拡散する可能性があります。 偽の出力は、AI モデルの所有者とユーザーの両方に悪影響を与える可能性があります。 また、ビジネス・エンティティーは、罰金、評判の悪影響、業務の中断、およびその他の法的結果に直面する可能性があります。

入力に関連付けられたリスクの背景イメージ

偽の訴訟

この情報源の記事によると、ある弁護士は、連邦裁判所に提出された法律事務所で、 ChatGPT によって生成された偽のケースと引用を引用しました。 これらの弁護士は、 ChatGPT に相談して、航空事故の請求に関する法的調査を補完しました。 その後、弁護士は、提供されたケースが偽物かどうかを ChatGPT に尋ねました。 チャットボットは、それらは本物であり、「Westlaw や LexisNexisなどの法律研究データベースで見つけることができる」と回答しています。 弁護士は事件を確認せず、裁判所は判決を下した。

親トピック: AI リスク・アトラス

当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細