0 / 0
資料の 英語版 に戻る
AI のデータ・リスクにおける個人情報
最終更新: 2024年9月26日
AI のデータ・リスクにおける個人情報
個人情報について プライバシーリスクを表すアイコン。
入力に関連するリスク
トレーニングおよびチューニングのフェーズ
個人情報について
従来型の AI リスク

説明

モデルのトレーニングまたは微調整に使用されるデータに、個人の識別可能な情報 (PII) および機密個人情報 (SPI) を組み込んだり、存在したりすると、その情報が望ましくない形で開示される可能性があります。

データ内の個人情報がファウンデーション・モデルの関心事であるのはなぜですか?

機密データを保護するために適切に開発されていなければ、生成された出力に個人情報が含まれてしまう可能性がある さらに、個人情報や機微なデータは、プライバシーに関する法律や規則に従って検討され、取り扱われなければならない。

入力に関連付けられたリスクの背景イメージ

Training on Private Information

記事によると、 Google とその親会社 Alphabet は、膨大な量の個人情報と著作権のある資料を悪用したとして、集団訴訟で告発された。 この情報は、何億人ものインターネット・ユーザーから、会話型生成人工知能チャットボットである Bard を含む商用 AI 製品のトレーニングのために取得された。 このケースでは、メタ・プラットフォーム、Microsoft、および OpenAI に対して申し立てられた、個人データの誤用に関する同様の訴訟に従います。

親トピック: AI リスク・アトラス

当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細