資料の 英語版 に戻るAI のデータ・リスクにおける個人情報
AI のデータ・リスクにおける個人情報
最終更新: 2024年12月12日
説明
モデルのトレーニングまたは微調整に使用されるデータに、個人の識別可能な情報 (PII) および機密個人情報 (SPI) を組み込んだり、存在したりすると、その情報が望ましくない形で開示される可能性があります。
データ内の個人情報がファウンデーション・モデルの関心事であるのはなぜですか?
機密データを保護するために適切に開発されていなければ、生成された出力に個人情報が含まれてしまう可能性がある さらに、個人情報や機微なデータは、プライバシーに関する法律や規則に従って検討され、取り扱われなければならない。
例
Training on Private Information
記事によると、 Google とその親会社 Alphabet は、膨大な量の個人情報と著作権のある資料を悪用したとして、集団訴訟で告発された。 この情報は、何億人ものインターネット・ユーザーから、会話型生成人工知能チャットボットである Bard を含む商用 AI 製品のトレーニングのために取得された。 このケースでは、メタ・プラットフォーム、Microsoft、および OpenAI に対して申し立てられた、個人データの誤用に関する同様の訴訟に従います。
親トピック: AI リスク・アトラス
当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。