Kontraktörer vittnar om chockerande material från AI-glasögon

I februari rapporterade kontraktsanställda hos Meta i Kenya till svenska tidningar Svenska Dagbladet och Göteborgs-Posten om det krävande och känslomässigt påfrestande arbete de utförde. Deras uppgift var att granska inspelningar från Meta:s Ray-Ban AI-glasögon, som bland annat används för att förbättra AI-funktioner. Bland det material de tvingades analysera fanns bilder och videor av användare i privata, intima situationer – inklusive nakna personer, toalettbesök och sexuella scener.

En anställd beskrev situationen för tidningarna:

"Du förstår att det är någons privata liv du tittar på, men samtidigt förväntas du bara utföra arbetet. Du ska inte ifrågasätta det. Om du börjar ställa frågor, är du borta."

Meta avslutar kontrakt istället för att bemöta anklagelser

Två månader efter att rapporterna publicerades valde Meta att abrupt avsluta sitt samarbete med den kenyanska leverantören Sama, enligt uppgifter från BBC. Beslutet har dock ifrågasatts av en lokal arbetstagarorganisation, som hävdar att uppsägningen var en repressalieåtgärd mot de anställda som vågade tala ut. Meta har ännu inte kommenterat denna anklagelse.

I ett uttalande till BBC förklarade Meta att beslutet fattades eftersom Sama "inte uppfyller våra standarder". Företaget hävdade också att man tog de anställdas påståenden på allvar och betonade att användarnas integritet skyddas genom tydligt medgivande. En talesperson sa:

"Foton och videor är privata för användarna. Människor granskar AI-innehåll för att förbättra produktens prestanda, och för detta har vi tydligt användarmedgivande."

Sama försvarade sig dock och menade att man alltid uppfyllt de krav som ställts på säkerhet, kvalitet och sekretess.

"Sama har konsekvent uppfyllt alla operativa, säkerhets- och kvalitetsstandarder som krävs i våra uppdrag, inklusive hos Meta. Vi har aldrig fått någon indikation på att vi misslyckats med dessa krav, och vi står bakom kvaliteten och integriteten i vårt arbete."

AI-industrins mörka baksida: billig arbetskraft och integritetsfrågor

De här händelserna belyser de etiska och praktiska utmaningar som präglar AI-industrin. Många företag outsourcar datamärkning – en process där anställda manuellt klassificerar bilder, videor och annat innehåll för att träna AI-modeller – till lågkostnadsländer. Arbetarna utsätts ofta för extremt känslomässigt påfrestande material utan tillräckligt stöd eller ersättning.

För Ray-Ban AI-glasögonen handlar datamärkningen om att förbättra AI:ns förmåga att identifiera och reagera på olika situationer. Men rapporterna väcker också oro för huruvida glasögonen kan användas för att olagligen spela in människor utan deras vetskap. Även om glasögonen har en indikatorlampa som visar när de spelar in, har det rapporterats om sätt att kringgå denna funktion. Vissa användare kan dessutom omedvetet spela in sig själva i privata situationer.

En anställd förklarade:

"Människor kan spela in sig själva på fel sätt och inte ens vara medvetna om vad de spelar in."

Regulatoriska myndigheter reagerar

De uppseendeväckande rapporterna har fått myndigheter att agera. Storbritanniens informationskommissionärs kontor (ICO) har kontaktat Meta för att diskutera de oroande rapporterna. Dessutom har Kenyas dataskyddsmyndighet meddelat att man inleder en undersökning av eventuella integritetsbrott relaterade till Meta:s AI-glasögon.

Naftali Wambalo från Africa Tech Workers Movement har uttalat sig om situationen och påpekat att liknande problem är utbredda inom techindustrin i Afrika. Han menar att anställda ofta tvingas arbeta under oacceptabla förhållanden för att stödja globala techjättars AI-utveckling.

Vad händer nu?

  • Meta:s hantering av incidenten ifrågasätts av både myndigheter och arbetstagarorganisationer.
  • En undersökning om potentiella integritetsbrott inleds i Kenya.
  • Frågor om etisk AI-utveckling och anställdas arbetsvillkor i lågkostnadsländer fortsätter att diskuteras.
Källa: Futurism