0 / 0
資料の 英語版 に戻る
AI のデータ・リスクにおける個人情報

AI のデータ・リスクにおける個人情報

入力に関連するリスク
トレーニングおよびチューニングのフェーズ
個人情報について
従来型の AI リスク

説明

モデルのトレーニングまたは微調整に使用されるデータに、個人の識別可能な情報 (PII) および機密個人情報 (SPI) を組み込んだり、存在したりすると、その情報が望ましくない形で開示される可能性があります。

データ内の個人情報がファウンデーション・モデルの関心事であるのはなぜですか?

機密データを保護するために適切に開発されていない場合、モデルは生成された出力で個人情報を公開する可能性があります。 さらに、個人データまたは機密データは、プライバシーに関する法律および規制に関して検討および処理する必要があります。これは、ビジネス・エンティティーが違反で検出された場合、罰金、評判の悪影響、およびその他の法的結果に直面する可能性があるためです。

入力に関連付けられたリスクの背景イメージ

Training on Private Information

記事によると、 Google とその親会社 Alphabet は、膨大な量の個人情報と著作権のある資料を悪用したとして、集団訴訟で告発された。 この情報は、何億人ものインターネット・ユーザーから、会話型生成人工知能チャットボットである Bard を含む商用 AI 製品のトレーニングのために取得された。 このケースでは、メタ・プラットフォーム、Microsoft、および OpenAI に対して申し立てられた、個人データの誤用に関する同様の訴訟に従います。

親トピック: AI リスク・アトラス

当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細