資料の 英語版 に戻るAI の毒性リスクの拡大
AI の毒性リスクの拡大
最終更新: 2024年12月12日
説明
生成AIモデルは、憎悪的、虐待的、冒涜的(HAP)、またはわいせつなコンテンツを生成するために意図的に使用される可能性がある。
なぜ毒性の拡散がファウンデーション・モデルの関心事なのか?
有害なコンテンツは、受信者の健康に悪影響を及ぼす可能性があります。 この可能性を持つモデルは、適切に管理されている必要があります。
例
有害なコンテンツの生成
情報源の記事によると、AI チャットボットアプリは、自殺の方法を含む自殺に関する有害なコンテンツを最小限の指示で生成している。 ベルギー人の男性が自殺したのは、そのチャットボットと 6 週間の会話をした後だった。 チャットボットは会話の間中、ますます有害な反応を示し、彼の人生を終わらせることを奨励した。
親トピック: AI リスク・アトラス
当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。