AIトレーニング業務の裏側:過酷な労働環境とデータ流出リスク

シリコンバレーのAI産業を支える「見えない労働者」たちの実態が、次々と明るみに出ている。サンフランシスコ発のAI企業Mercorは、AIモデルのトレーニング業務を請け負わせるため、失業にあえぐ専門家たちを低賃金で雇用していた。しかし、その実態は過酷な労働条件と不透明な契約に包まれていた。

「誰のAIをトレーニングしているのか」も知らされず

Mercorは、教育を受けた専門家や就職難に直面する人材を積極的に採用していたが、彼らに対して「誰のAIをトレーニングしているのか」さえ明かしていなかった。ニューヨーク・マガジンの報道によると、シフトは極めて長時間に及び、管理職の多くは若く経験不足。さらに、契約は突然打ち切られるケースが後を絶たなかったという。

データ流出事件で浮き彫りとなったAIサプライチェーンの脆弱性

同社の顧客企業には、OpenAIやAnthropicといった大手AI企業が含まれていた。しかし、Mercorは先月、ハッキング被害に遭ったことを明らかにした。被害を受けたのは、オープンソースプロジェクト「LiteLLM」に関連する脆弱性を突かれたことによるものだった。TechCrunchが入手した流出データのサンプルには、SlackのデータやMercorのAIシステムと労働者間の会話映像が含まれていた。これは、顧客企業の機密情報が流出した可能性を示唆している。

「第三者のフォレンジック専門家による徹底的な調査を実施中です。顧客および契約労働者と直接連絡を取りながら、可能な限り迅速に問題解決に取り組みます」
— Mercor広報担当者

労働者からの訴訟が相次ぐ

状況はさらに悪化している。Business Insiderの報道によると、契約労働者らは既に5件の訴訟を起こしており、データプライバシーや消費者保護法違反を主張。流出した可能性のある情報には、社会保障番号や住所などの機密データが含まれる可能性があるという。

データ流出は珍しいことではないが、今回の事件は「AIモデルのトレーニングを担う過小評価された労働者の実態」を浮き彫りにした。Mercorの顧客企業も動揺を隠せない。Meta(旧Facebook)は、セキュリティインシデントに関する独自調査のため、Mercorとの業務を一時停止したとWiredが報じている。ただし、その動機は契約労働者の保護ではなく、自社のAIトレーニング手法が他社に漏れるリスクへの懸念が大きいとみられる。

過去の訴訟でも繰り返された問題

Mercorは今回のハッキング以前にも、労働者からの訴訟に見舞われていた。ニューヨーク・マガジンによれば、過去7カ月間で3件の集団訴訟が起こされており、独立請負業者として扱われた労働者らは、会社に対する発言力や業務内容の透明性が一切なかったと主張している。

さらに昨年11月には、契約労働者が突然解雇された後、別プロジェクトへの再雇用を打診されたものの、時給が大幅に引き下げられたケースも報告されている。こうした事例は、AI産業における「見えない労働」の実態を浮き彫りにしている。

AI産業の「闇」と今後の展望

AIモデルのトレーニング業務は、しばしば「低賃金で過酷な労働」と表現される。しかし、今回のMercorの事件は、そのリスクが単に労働環境だけにとどまらず、機密データの流出や企業の競争力低下といった深刻な問題に直結していることを示した。

専門家らは、AI産業が持続可能な形で発展するためには、労働者の権利保護とセキュリティ対策の強化が不可欠だと指摘する。一方で、顧客企業は今後、AIサプライチェーンの脆弱性を再評価せざるを得なくなるだろう。

出典: Futurism