0 / 0
資料の 英語版 に戻る
AI の危険な使用リスク
最終更新: 2024年12月12日
AI の危険な使用リスク
誤用 誤用リスクを表すアイコン。
出力に関連するリスク
誤用
生成 AI の新機能

説明

生成AIモデルは、人を傷つけることだけを意図して使用されるかもしれない。

なぜ危険な用途がファウンデーション・モデルの問題なのか?

大規模な言語モデルは、他人を傷つける情報を含む可能性のある、一般に入手可能な膨大な情報に基づいて学習されることが多い。 このような可能性を秘めたモデルは、そのような内容を注意深く評価し、適切に管理されなければならない。

入力に関するリスクの背景画像

AIによるサイバー攻撃

ソース記事によると、ハッカーたちはChatGPTやその他のAIツールを使った実験をますます増やしており、より幅広いアクターがサイバー攻撃や詐欺を実行できるようになっているという。 マイクロソフトは、国家に支援されたハッカーたちがOpenAI’s LLMを使用してサイバー攻撃を改善し、スクリプトを洗練させ、標的を絞ったテクニックを向上させていると警告しています。 この記事では、マイクロソフトとOpenAIが、政府機関を標的にしたサイバー攻撃の急増と攻撃者の試みを検知したという事例についても触れている。

入力に関するリスクの背景画像

AIによる生物学的攻撃

ソース記事にあるように、大規模な言語モデルは生物学的攻撃の計画と実行に役立つ可能性がある。 LLMを使って生物学的病原体を特定し、それらが人命に危害を及ぼす可能性を相対的に特定する、といったテストシナリオがいくつか挙げられている。 この記事はまた、LLMがネット上で容易に入手できる有害な情報以上の脅威をどの程度もたらすのかという未解決の問題にも焦点を当てている。

親トピック: AI リスク・アトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。