資料の 英語版 に戻るAI の非開示リスク
AI の非開示リスク
最終更新: 2024年12月12日
説明
コンテンツがAIによって生成されたものであることが明確に開示されていない可能性がある。
なぜ非開示がファウンデーション・モデルの関心事なのか?
ユーザーがAIシステムとインタラクションしているときは、ユーザーに通知されなければならない。 AIが作成したコンテンツを開示しないことは、透明性の欠如につながりかねない。
例
非公開の AI 対話
このソース記事によると、オンラインの感情サポート・チャット・サービスは、ユーザーに通知せずに GPT-3 を使用して約 4,000 人のユーザーに対して応答を増補または書き込みするための調査を実行しました。 共同ファウンダーは、既に脆弱なユーザーに対する AI 生成のチャットによって引き起こされる可能性がある損害について、非常に大きな国民の反発に直面しました。 彼は、この研究はインフォームド・コンセント法の "適用外 "だと主張した。
親トピック: AI リスク・アトラス
当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。