説明
生成AIモデルは、人を傷つけることだけを意図して使用されるかもしれない。
なぜ危険な用途がファウンデーション・モデルの問題なのか?
大規模な言語モデルは、他人を傷つける情報を含む可能性のある、一般に入手可能な膨大な情報に基づいて学習されることが多い。 このような可能性を秘めたモデルは、そのような内容を注意深く評価し、適切に管理されなければならない。
AIによるサイバー攻撃
ソース記事によると、ハッカーたちはChatGPTやその他のAIツールを使った実験をますます増やしており、より幅広いアクターがサイバー攻撃や詐欺を実行できるようになっているという。 マイクロソフトは、国家に支援されたハッカーたちがOpenAI’s LLMを使用してサイバー攻撃を改善し、スクリプトを洗練させ、標的を絞ったテクニックを向上させていると警告しています。 この記事では、マイクロソフトとOpenAIが、政府機関を標的にしたサイバー攻撃の急増と攻撃者の試みを検知したという事例についても触れている。
AIによる生物学的攻撃
ソース記事にあるように、大規模な言語モデルは生物学的攻撃の計画と実行に役立つ可能性がある。 LLMを使って生物学的病原体を特定し、それらが人命に危害を及ぼす可能性を相対的に特定する、といったテストシナリオがいくつか挙げられている。 この記事はまた、LLMがネット上で容易に入手できる有害な情報以上の脅威をどの程度もたらすのかという未解決の問題にも焦点を当てている。
親トピック: AI リスク・アトラス
財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。