資料の 英語版 に戻るAI のための同意のない使用リスク
AI のための同意のない使用リスク
最終更新: 2024年12月12日
説明
生成AIモデルは、本人の同意なしに、ビデオ、画像、音声、その他のモダリティを使用し、ディープフェイクを通じて意図的に人を模倣するために使用される可能性がある。
同意しない場合にファウンデーション・モデルの問題が生じるのはなぜですか?
ディープケーキは人に関する情報を広めることができるため、その人の評判に悪影響を及ぼす可能性があります。 この可能性を持つモデルは、適切に管理される必要があります。
例
FBI のディープフェーク警告
FBI は最近、「被害者への嫌がらせやセクシュアル・スキームのため」に、合成された明確なコンテンツを作っている悪意のあるアクターに対して警告を発した。 AI の進歩により、このコンテンツの品質が向上し、カスタマイズ性が向上し、アクセスしやすくなったことに注目しています。
ソース:
例
オーディオ・ディープフォークス
関係者の記事によると、連邦通信委員会 (FCC) は人工知能によって生成された声を含む強奪を禁止した。 この発表は、AI によって生成された強盗が大統領の声を真似して、州内初の予備選挙での投票を人々に阻止しようとした後に行われた。
ソース:
親トピック: AI リスク・アトラス
当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。