0 / 0
資料の 英語版 に戻る
AI による人的機関のリスクへの影響
最終更新: 2024年12月12日
AI による人的機関のリスクへの影響
社会的影響 社会的影響リスクを表すアイコン。
非技術的リスク
社会的影響
生成 AI による増幅

説明

AIは、個人の選択や最善の利益のために自立した行動をとる能力に影響を与えるかもしれない。

ヒューマン・エージェンシーへの影響が基盤モデルにとって懸念材料になるのはなぜですか?

AIは、本物に見える偽の情報や誤解を招く情報を生成することができる 人間の思考や行動を操作することを意図して、リアルに見える偽の、あるいは誤解を招くようなコンテンツを生成する悪意ある行為者の能力を単純化する可能性がある。 AIによって生成された虚偽の、あるいは誤解を招くようなコンテンツが拡散されると、人々はそれが虚偽の情報であると認識できなくなり、真実に対する歪んだ理解につながる可能性がある。 虚偽の情報や誤解を招くような情報にさらされた場合、人は意思決定プロセスにおいて誤った仮定を用いる可能性があるため、エージェンシーが低下する可能性がある。

入力に関するリスクの背景画像

AIを利用した選挙における有権者の操作

ソース記事にあるように、ヨーロッパとアジアの選挙に関連したAIのディープフェイクの波が数ヶ月間ソーシャルメディアを駆け巡った。 ジェネレーティブAIの成長は、この技術が世界中の主要な選挙を混乱させるのではないかという懸念を抱かせている。 AIのディープフェイクでは、候補者のイメージを汚したり、和らげたりすることができる。 有権者は候補者に誘導されたり、候補者から遠ざかったりする。 しかし、おそらく民主主義にとって最大の脅威は、AIのディープフェイクの急増によって、見聞きするものに対する国民の信頼が損なわれることだと専門家は言う。

親トピック: AI リスク・アトラス

財団モデルのリスクの多くを説明するために、報道で取り上げられた例を提供する。 報道されたこれらの出来事の多くは、現在も進行中であるか、あるいは解決済みであり、それらを参照することは、読者が潜在的なリスクを理解し、軽減策を講じるのに役立つ。 これらの例を強調するのは説明のためである。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細