0 / 0
資料の 英語版 に戻る
AIの不完全な助言リスク
最終更新: 2024年12月12日
AIの不完全な助言リスク
整合 アライメント・リスクを表すアイコン。
出力に関するリスク
価値の調整
生成AIの初心者

説明

モデルが十分な情報を持たずにアドバイスを提供し、その結果、アドバイスに従った場合に損害が生じる可能性がある場合。

なぜ不完全なアドバイスが財団モデルの懸念材料になるのか?

人は、生成されたコンテンツの一般化されすぎた性質のために、不完全なアドバイスに基づいて行動したり、自分に当てはまらない状況を心配したりするかもしれない。 例えば、モデルが誤った医療、金融、法律に関するアドバイスや推奨を提供し、エンドユーザーがそのアドバイスに基づいて行動した結果、有害な行動を引き起こす可能性がある。

入力に関するリスクの背景画像

誤ったアドバイス

ソース記事によると、ニューヨーク市が中小企業経営者を支援するために作成したAIチャットボットは、地域の政策を誤って記載したり、企業に法律違反を勧めたりする、誤った、あるいは有害なアドバイスを提供した。 このチャットボットは、事業者はゴミを黒いゴミ袋に入れることができ、堆肥化する必要はないと誤って提案した。 また、げっ歯類にかじられたチーズをレストランで提供できるかという質問には、肯定的な回答をした。

親トピック: AIリスクアトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することで、読者は潜在的なリスクを理解し、軽減策を講じることができる。 これらの例を強調するのは説明のためである。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細