0 / 0
資料の 英語版 に戻る
AI のダウンストリームのリトレーニング・リスク

AI のダウンストリームのリトレーニング・リスク

入力に関連するリスク
トレーニングおよびチューニングのフェーズ
価値の調整
生成 AI の新機能

説明

リトレーニングの目的でダウンストリーム・アプリケーションからの望ましくない (不正確な、不適切な、ユーザーのコンテンツなど) 出力を使用する。

ダウンストリームのリトレーニングがファウンデーション・モデルの問題になるのはなぜですか?

適切な人間による審査を実装せずにモデルを再トレーニングするために下流の出力を再利用すると、望ましくない出力がモデルのトレーニング・データまたはチューニング・データに取り込まれる可能性が高くなります。 これにより、さらに望ましくない出力が生成される可能性があります。 不適切なモデルの動作により、ビジネス・エンティティーが法的結果や評判の悪さに直面する可能性があります。 データ転送法を遵守しないと、罰金やその他の法的結果が生じる可能性があります。

入力に関連付けられたリスクの背景イメージ

AI 生成コンテンツを使用したトレーニングによるモデルの省略

ソース記事に記載されているように、英国とカナダの研究者グループは、人間が生成したコンテンツではなく、AI が生成したコンテンツをトレーニングに使用するという問題を調査しました。 このテクノロジーの背後にある大規模な言語モデルは、AI によって生成された他のコンテンツでトレーニングされている可能性があることが判明しました。 生成されたデータがインターネット上に散らばっていくと、「モデルの崩壊」として生成されたイナ現象が発生する可能性があります。

親トピック: AI リスク・アトラス

当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。

生成 AI の検索と回答
これらの回答は、製品資料の内容に基づいて、 watsonx.ai のラージ言語モデルによって生成されます。 詳細