Narzędzie AI do ochrony znaków towarowych wykorzystane do cenzury

Festiwal SXSW w Austin, znany z połączenia technologii, muzyki i filmu, od lat budzi kontrowersje ze względu na swoją rosnącą komercjalizację. W tym roku organizatorzy posłużyli się narzędziem BrandShield – systemem opartym na sztucznej inteligencji, który automatycznie wykrywa i usuwa treści naruszające znaki towarowe na platformach społecznościowych. Według doniesień, system ten został wykorzystany do blokowania krytycznych postów dotyczących działań festiwalu.

Protest przeciwko polityce wobec bezdomnych

Grupa Vocal Texas, organizacja non-profit działająca na rzecz walki z ubóstwem, bezdomnością i wojną z narkotykami, zorganizowała 12 marca protest w centrum Austin. Aktywiści postawili symboliczną makietę obozu bezdomnych, aby zwrócić uwagę na problem usuwania ich dobytku podczas policyjnych „czyszczeń” terenów miejskich. W jednym z postów na Instagramie napisali: *„Dla bezdomnych mieszkańców Austin SXSW oznacza naloty policyjne, mandaty i aresztowania, podczas gdy miasto robi miejsce dla miliarderów i korporacji, które zbijają fortuny.”*

Mimo że post nie zawierał oficjalnych logo SXSW, system BrandShield automatycznie go usunął, uznając wzmiankę o festiwalu za naruszenie znaku towarowego. Według Cary Gagliano, prawniczki z Electronic Frontier Foundation (EFF), takie działanie jest przykładem nadmiernej cenzury.

„Możesz użyć nazwy firmy, aby o niej rozmawiać, prawda? Jak inaczej miałbyś to zrobić?” – powiedziała Gagliano w rozmowie z 404 Media. Prawo dotyczące znaków towarowych dopuszcza krytykę i dyskusję na temat marek, o ile nie służy ona reklamie lub wprowadzaniu w błąd.

SXSW a wolność słowa: precedens z 2024 roku

W marcu 2024 roku organizacja Austin for Palestine otrzymała wezwanie do zaprzestania naruszeń ze strony SXSW. Koalicja ta prowadziła protesty przeciwko sponsorowaniu festiwalu przez armię USA i publikowała posty z przerobionym logo SXSW, przedstawiającym m.in. samoloty bojowe i krew. EFF interweniowało w imieniu koalicji, a SXSW wycofało swoje zarzuty.

Gagliano podkreśliła jednak, że sprawa z Vocal Texas różni się od wcześniejszych incydentów. W przypadku wezwań do zaprzestania naruszeń, ich wycofanie chroni aktywistów przed konsekwencjami prawnymi. Natomiast automatyczne usuwanie treści przez systemy AI, takie jak BrandShield, pozbawia użytkowników możliwości obrony i naraża ich na całkowitą cenzurę.

Czy AI służy ochronie, czy cenzurze?

BrandShield, firma oferująca „cyfrową ochronę przed ryzykiem”, twierdzi, że jej narzędzie wykorzystuje sztuczną inteligencję do identyfikacji i usuwania nielegalnych treści. Jednak przypadki takie jak ten z Vocal Texas pokazują, że system może być nadużywany do tłumienia krytyki, nawet gdy nie dochodzi do rzeczywistego naruszenia znaku towarowego.

Eksperci podkreślają potrzebę większej transparentności i kontroli nad algorytmami AI stosowanymi przez korporacje i organizacje eventowe. W przeciwnym razie narzędzia te mogą stać się kolejnym narzędziem ograniczania wolności słowa w przestrzeni publicznej.

Źródło: 404 Media