資料の 英語版 に戻るAI の情報開示リスクの拡大
AI の情報開示リスクの拡大
最終更新: 2024年12月12日
説明
ジェネレーティブAIモデルは、ターゲットとする視聴者を欺いたり影響を与えたりするために、意図的に誤解を招いたり虚偽の情報を作成するために使用される可能性がある。
なぜ、情報の拡散がファウンデーション・モデルの関心事なのか?
偽情報の流布は、情報に基づいた意思決定を行う人間の能力に影響を与えるかもしれない。 この可能性を持つモデルは、適切に管理される必要があります。
例
偽情報の生成
引用されたニュース記事によると、生成 AI は、悪意のあるアクターが虚偽の内容を作成して選挙結果に広めることを容易にすることで、民主的な選挙に対する脅威となっています。 引用されている例には、以下のものがあります。
- ある候補者の声で生成されたロボカール・メッセージは、投票者に間違った日付に投票するよう指示した。
- 犯罪を自白したか、人種差別的な見解を表明した候補者の音声録音を合成しました。
- AI が生成したビデオ映像では、候補者が行ったことのないスピーチやインタビューを行ったことが示されています。
- ローカル・ニュース・レポートのように見えるように設計された偽のイメージ。
- ある候補者が立候補を辞退したという虚偽の主張をした。
親トピック: AI リスク・アトラス
当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。