資料の 英語版 に戻るAI の幻覚リスク
AI の幻覚リスク
最終更新: 2024年12月12日
説明
幻覚は、モデルの学習データまたは入力に関して、事実と異なる、または真実でない内容を生成する。 これはまた、誠実さの欠如や地に足がついていないとも言われる。
なぜ幻覚がファウンデーション・モデルの関心事なのか?
幻覚は誤解を招くことがある。 このような誤った出力はユーザーを惑わし、下流の成果物に組み込まれ、さらに誤った情報を広めることになる。 偽の出力は、AI モデルの所有者とユーザーの両方に悪影響を与える可能性があります。 使用法によっては、幻覚が特に重大な影響を及ぼすことがある。
例
偽の訴訟
この情報源の記事によると、ある弁護士は、連邦裁判所に提出された法律事務所で、 ChatGPT によって生成された偽のケースと引用を引用しました。 これらの弁護士は、 ChatGPT に相談して、航空事故の請求に関する法的調査を補完しました。 その後、弁護士は、提供されたケースが偽物かどうかを ChatGPT に尋ねました。 チャットボットは、それらは本物であり、「Westlaw や LexisNexisなどの法律研究データベースで見つけることができる」と回答しています。 弁護士は事件を確認せず、裁判所は判決を下した。
ソース:
親トピック: AI リスク・アトラス
当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。