Occhiali Ray-Ban AI: Meta sotto accusa per la visione di video intimi da parte dei lavoratori

Nel febbraio 2024, alcuni dipendenti di Meta in Kenya hanno raccontato a due quotidiani svedesi, Svenska Dagbladet e Göteborgs-Posten, di essere stati costretti a visionare video estremamente sensibili e disturbanti registrati dagli utenti degli occhiali smart Ray-Ban AI. Tra i contenuti visionati, alcuni hanno riferito di aver visto persone nude o mentre usavano il bagno. In un caso, un lavoratore ha dichiarato di aver assistito a una donna che si spogliava nella propria camera da letto, dopo che il marito aveva lasciato gli occhiali su un tavolo.

Le testimonianze, raccolte nell'ambito di un'inchiesta congiunta, rivelano che i dipendenti erano incaricati di analizzare anche scene di sesso esplicite. «Capisci che stai guardando la vita privata di qualcuno, ma allo stesso tempo sei tenuto a svolgere il tuo lavoro senza fare domande», ha dichiarato un dipendente ai giornali svedesi. «Se inizi a chiedere spiegazioni, vieni licenziato».

Meta risponde licenziando l'azienda locale

Due mesi dopo la pubblicazione delle denunce, Meta ha adottato una misura controversa: ha interrotto il contratto con l'azienda keniana Sama, responsabile dell'analisi dei dati, come riportato dalla BBC. Secondo un'organizzazione che rappresenta i lavoratori keniani, questa decisione sarebbe una ritorsione nei confronti di chi ha parlato pubblicamente. Meta non ha commentato direttamente l'accusa, ma ha dichiarato alla BBC di aver interrotto la collaborazione perché «Sama non soddisfa i nostri standard».

L'azienda ha aggiunto di aver preso «sul serio» le denunce dei lavoratori, sottolineando che «le foto e i video sono privati per gli utenti» e che «i contenuti vengono revisionati da umani per migliorare le prestazioni dei prodotti, previa chiara autorizzazione degli utenti».

Sama, dal canto suo, ha difeso i propri dipendenti: «Abbiamo sempre rispettato gli standard operativi, di sicurezza e di qualità richiesti dai nostri clienti, inclusa Meta. Non ci è mai stato segnalato alcun mancato rispetto di questi standard e sosteniamo con fermezza la qualità e l'integrità del nostro lavoro».

Il lato oscuro dell'industria AI: sfruttamento e privacy a rischio

Le accuse sollevano interrogativi sul funzionamento dell'industria tecnologica e dell'intelligenza artificiale, spesso basati su manodopera sottopagata all'estero e su una gestione dei dati poco trasparente. I lavoratori di Sama erano impegnati nell'annotazione dei dati, un processo che consiste nel classificare manualmente immagini, video e altri contenuti per addestrare i modelli di AI. Nel caso degli occhiali Ray-Ban, questo lavoro serve a migliorare il funzionamento dell'AI integrata.

Tuttavia, le denunce hanno anche evidenziato un altro problema: la percezione che gli occhiali Meta siano «occhiali da pervertito», in grado di registrare persone senza il loro consenso o conoscenza. Sebbene gli occhiali abbiano una spia luminosa che segnala quando sono in registrazione, questa può essere disattivata. Inoltre, alcuni utenti hanno trovato modi per coprirla. I lavoratori di Sama hanno riferito che alcuni utenti non erano nemmeno consapevoli di essere registrati: «Le persone possono registrarsi in modo errato senza sapere cosa stanno riprendendo».

Indagini in corso e pressioni sulle autorità

Le gravi accuse hanno portato a una serie di reazioni istituzionali. L'UK Information Commissioner's Office ha contattato Meta per chiedere chiarimenti sui «preoccupanti» rapporti. In Kenya, l'Ufficio del Commissario per la Protezione dei Dati ha annunciato un'indagine sulle potenziali violazioni della privacy legate agli occhiali Meta.

Naftali Wambalo, del Africa Tech Workers Movement, ha dichiarato di aver parlato con diversi lavoratori coinvolti nella vicenda, sottolineando la necessità di maggiore trasparenza e tutela per chi lavora nell'industria tecnologica.

La vicenda solleva dubbi sulla responsabilità di Meta e sull'etica dell'uso dell'AI nella vita quotidiana, soprattutto quando si tratta di dispositivi indossabili che raccolgono dati sensibili senza un controllo adeguato.

Fonte: Futurism