資料の 英語版 に戻るAI の人間による活用のリスク
AI の人間による活用のリスク
最終更新: 2024年12月12日
説明
ゴーストワーカーのようなAIモデルを養成する労働者に、適切な労働条件、公正な報酬、メンタルヘルスも含めた福利厚生が提供されない場合。
人間による搾取が基盤モデルの関心事であるのはなぜですか?
ファウンデーション・モデルは、モデルのトレーニングに使用されるデータの調達、管理、およびプログラミングを行うために、依然として人間の労力に依存しています。 これらの活動による人間の搾取は、社会や人間の福祉に悪影響を及ぼす可能性があります。
例
データ・アノテーションのための低賃金の労働者
TIMEメディアによる内部文書と従業員のインタビューによると、OpenAIに代わってアウトソーシング会社に雇われ、有害コンテンツを特定するデータラベラーたちの手取り賃金は、年功序列と業績に応じて、時給およそ1.32から2ドルだった。 TIME は、「児童性的虐待、性的虐待、殺人、自殺、拷問、自己傷害、近親相姦」のグラフィックの詳細を含む、有毒で暴力的な内容が示されているため、労働者は精神的に不足していると述べている。
ソース:
親トピック: AI リスク・アトラス
当社では、多くの基盤モデルのリスクを説明するために、プレス・モデルで扱われている例を提供しています。 報道機関によって扱われるこれらのイベントの多くは、まだ進化しているか解決されており、それらを参照することで、読者が潜在的なリスクを理解し、緩和に向けて取り組むことができるようになります。 これらの例を強調表示するのは、説明のみを目的としています。