AI開発の「新たな食物連鎖」:廃業スタートアップのデータがAIトレーニングに

テック業界では今、廃業したスタートアップのデジタル資産が新たなビジネスチャンスとして注目を集めている。特に、社内コミュニケーションツールのSlackやメールデータが、AIモデルのトレーニングに利用されるケースが増加。「デジタル遺骸」とも呼ばれるこれらのデータは、AIエージェントの学習環境構築に不可欠な「強化学習ジム(RLジム)」の材料として高い価値を持つ

フォーブスによると、AIモデルの構築には質の高いトレーニングデータが不可欠だが、AIブームの影響で有用なデータの入手が困難になっている。そんな中、実務に近い環境でAIを学習させる「RLジム」の需要が急増。実在の企業の業務データを模したシミュレーション環境は、AIが現実の業務を再現できるように設計されている。

10億ドル規模の市場が形成される

この動きは単なるトレンドにとどまらず、新たな産業として急成長。情報によると、AI企業 Anthropic は2024年にRLジム構築に10億ドルを投資する計画で、Prime Intellect や Fleet といったRLジム専門のスタートアップも同規模の評価額を獲得している。

廃業したスタートアップの創業者にとっても、これらのデータは貴重な収入源だ。SimpleClosure 社が提供する「Asset Hub」は、Slackのアーカイブやメール、コードライブラリを販売するプラットフォーム。同社のCEO、Dori Yona 氏によると、過去1年間で約100件の取引を仲介し、創業者に100万ドル以上の収益をもたらしたという。

プライバシーと倫理のジレンマ

しかし、このビジネスモデルには重大な懸念が存在する。社内の会話データを第三者に販売する行為は、倫理的に問題があるのではないか。実店舗で従業員の会話を録音して販売するのと同等の行為でありながら、デジタルツールを介した取引は「合理的なビジネス」として受け入れられつつある。

「従業員のプライバシーが侵害されるリスクは極めて大きい。Slackなどの社内ツールに依存する現代において、これは深刻な問題だ」
— Marc Roteberg, Center for AI and Digital Policy 代表

さらに、データの匿名化が不完全な場合、個人を特定できる情報が流出する可能性がある。専門家は、たとえ匿名化が施されたとしても、メタデータや文脈から個人が特定されるリスクを指摘している。

今後の規制と業界の動向

AI開発の加速に伴い、データの取り扱いに関する規制強化が求められる可能性が高い。特に、従業員のプライバシー保護とAIトレーニングデータの倫理的な利用について、業界全体で議論が進む見込みだ。

一方で、データ販売ビジネスは今後も拡大を続けると予想される。廃業スタートアップにとっては新たな収益源となり得る一方で、利用者や社会全体に与える影響について慎重な検討が必要となるだろう。

出典: Futurism