Mercor: Eine umstrittene KI-Trainingsfirma im Fokus
In der Tech-Branche hat sich ein neues Geschäftsmodell etabliert: Unternehmen wie die in San Francisco ansässige Firma Mercor werben hochqualifizierte, aber unterbeschäftigte Fachkräfte an, um KI-Systeme zu trainieren. Doch die Arbeitsbedingungen sind prekär – und jetzt kommt ein Hack hinzu.
Undurchsichtige Verträge und ausbeuterische Praktiken
Wie New York Magazine berichtet, rekrutiert Mercor gezielt Arbeitskräfte, die trotz ihrer Expertise keine Festanstellung finden. Die Verträge sind oft undurchsichtig: Die Angestellten wissen nicht, für welches Unternehmen sie eigentlich arbeiten. Zudem herrschen extreme Arbeitszeiten, Führungskräfte sind häufig unerfahren, und Verträge werden ohne Vorwarnung gekündigt.
Die Situation eskalierte nun: Mercor gab kürzlich bekannt, Opfer eines Hackerangriffs geworden zu sein. Wie TechCrunch berichtet, nutzten die Angreifer eine Schwachstelle in dem Open-Source-Projekt LiteLLM. Dabei wurden unter anderem Slack-Daten und Videos mit Gesprächen zwischen Mercors KI-Systemen und den Trainern gestohlen – sensible Informationen, die möglicherweise auch Mercors Kunden betrafen.
„Wir führen eine gründliche Untersuchung mit Unterstützung externer Forensik-Experten durch. Wir stehen in direktem Kontakt mit unseren Kunden und Auftragnehmern und setzen alle notwendigen Ressourcen ein, um den Vorfall schnellstmöglich zu klären.“
Mercor-Sprecher gegenüber TechCrunch
Fünf Klagen und massive Datenschutzverstöße
Die Folgen des Hacks sind gravierend: Wie Business Insider berichtet, haben fünf Auftragnehmer Mercor verklagt. Ihnen zufolge könnten sensible Daten wie Sozialversicherungsnummern oder Adressen an Dritte gelangt sein. Solche Klagen sind zwar nicht ungewöhnlich nach Datenpannen, doch sie unterstreichen erneut die Risiken, die mit der Auslagerung von KI-Trainingsprozessen an unterbezahlte und überlastete Freelancer einhergehen.
Kunden wie Meta ziehen Konsequenzen
Auch Mercors Kunden geraten unter Druck. Wie Wired berichtet, hat Meta die Zusammenarbeit mit Mercor vorläufig eingestellt, um den Vorfall intern zu prüfen. Allerdings geht es dabei weniger um den Schutz der ausgebeuteten Mitarbeiter als vielmehr um den Erhalt des eigenen Wettbewerbsvorteils. Denn die Gefahr, dass sensible Trainingsmethoden an Konkurrenzunternehmen durchsickern, ist groß.
Ein Muster an Ausbeutung und Intransparenz
Mercors Geschäftsmodell steht seit Langem in der Kritik. Bereits vor dem Hack musste sich das Unternehmen mit drei Sammelklagen auseinandersetzen, wie New York Magazine berichtet. Die Kläger werfen Mercor vor, systematisch auf unabhängige Auftragnehmer zu setzen, die kaum Mitspracherecht oder Einblick in ihre Arbeit haben.
Im November 2023 beschwerten sich Mitarbeiter zudem, dass sie entlassen und anschließend für ein anderes Projekt – allerdings zu deutlich schlechteren Konditionen – wieder eingestellt wurden. Solche Praktiken werfen grundsätzliche Fragen über die Ethik und Nachhaltigkeit von KI-Trainingsmodellen auf, die auf prekärer Arbeit basieren.
Fazit: Die dunkle Seite der KI-Entwicklung
Der Fall Mercor zeigt, wie fragil und undurchsichtig die Lieferketten in der KI-Branche sind. Während Tech-Konzerne wie OpenAI oder Anthropic auf externe Dienstleister setzen, um ihre Modelle zu trainieren, werden die humanen Kosten dieses Systems immer offensichtlicher. Datenlecks, Klagen und die Ausbeutung von Arbeitskräften sind nur einige der Konsequenzen. Die Branche steht vor der Herausforderung, ethisch vertretbare und sichere Alternativen zu entwickeln – bevor weitere Skandale an die Öffentlichkeit gelangen.