0 / 0
資料の 英語版 に戻る
AI の非開示リスク
最終更新: 2024年12月12日
AI の非開示リスク
誤用 誤用リスクを表すアイコン。
出力に関連するリスク
誤用
生成 AI の新機能

説明

コンテンツがAIによって生成されたものであることが明確に開示されていない可能性がある。

なぜ非開示がファウンデーション・モデルの関心事なのか?

ユーザーがAIシステムとインタラクションしているときは、ユーザーに通知されなければならない。 AIが作成したコンテンツを開示しないことは、透明性の欠如につながりかねない。

入力に関連付けられたリスクの背景イメージ

非公開の AI 対話

このソース記事によると、オンラインの感情サポート・チャット・サービスは、ユーザーに通知せずに GPT-3 を使用して約 4,000 人のユーザーに対して応答を増補または書き込みするための調査を実行しました。 共同ファウンダーは、既に脆弱なユーザーに対する AI 生成のチャットによって引き起こされる可能性がある損害について、非常に大きな国民の反発に直面しました。 彼は、この研究はインフォームド・コンセント法の "適用外 "だと主張した。

親トピック: AI リスク・アトラス

当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細