Nowy precedens sądowy: AI nie chroni tajemnicy adwokackiej

Współczesne technologie, choć wygodne, stają się coraz bardziej podatne na ingerencję organów państwowych. Urządzenia takie jak Ring Doorbell dostarczały policji w Los Angeles nagrań z kamer bez nakazu sądowego, a FBI może wyciągać metadane z iPhone’ów, aby uzyskać dostęp do wiadomości na platformie Signal. Teraz do tej listy dołączyły sztuczne inteligencje.

Sędzia federalny z Nowego Jorku, Jed Rakoff, wydał niedawno przełomowy wyrok, który potwierdza, że rozmowy z chatbotami AI nie są objęte tajemnicą adwokacką. Sprawa dotyczyła Brada Heppnera, byłego prezesa firmy GWG Holdings, oskarżonego o oszustwa finansowe i wyłudzenia. Podczas przygotowań do obrony Heppner wprowadził poufne informacje do chatbota Claude firmy Anthropic, który następnie wygenerował wstępne raporty dla jego prawników.

Dlaczego to ważne?

Sędzia Rakoff jednoznacznie stwierdził, że między użytkownikiem a platformą AI nie istnieje relacja prawnik-klient, a co za tym idzie – żadne informacje przekazane sztucznej inteligencji nie są chronione. W efekcie Heppner został zobowiązany do przekazania sądowi 31 dokumentów wygenerowanych przez Claude.

W uzasadnieniu wyroku sędzia podkreślił, że AI nie może udzielać porad prawnych, a sama platforma zastrzega, że nie zapewnia wsparcia prawnego. Jak wyjaśnił Rakoff, gdy rząd zapytał Claude’a, czy może udzielać porad prawnych, sztuczna inteligencja odpowiedziała: *„Nie jestem prawnikiem i nie mogę udzielać formalnych porad prawnych. Powinieneś skonsultować się z wykwalifikowanym prawnikiem, który oceni twoją sytuację.”*

Konsekwencje dla użytkowników AI

Wyrok ma daleko idące implikacje. Prawnicy z firmy Sher Tremonte już zaktualizowali swoje kontrakty, dodając klauzulę ostrzegającą, że przekazywanie poufnych informacji do zewnętrznych platform AI może skutkować utratą tajemnicy adwokackiej.

To nie pierwszy raz, gdy firmy technologiczne udostępniają dane użytkowników organom państwowym – dobrowolnie lub pod przymusem. Jednak w dobie, gdy miliony osób „wylewają swoje umysły” do chatbotów, ten precedens otwiera nowy rozdział w kwestii prywatności i ochrony danych.

Czy AI to przyszłość, czy zagrożenie?

Choć sztuczna inteligencja rewolucjonizuje sposób pracy, jej wykorzystanie w kontekście prawnym niesie poważne ryzyko. Użytkownicy powinni być świadomi, że informacje wprowadzane do chatbotów mogą zostać ujawnione w postępowaniu sądowym. To kolejny dowód na to, że technologia, choć potężna, wymaga ostrożnego i świadomego stosowania.

Przypadek, który wstrząsnął branżą

Warto wspomnieć o niedawnym pozwie przeciwko OpenAI, w którym kobieta oskarżyła firmę o to, że ChatGPT „uwolnił” wobec niej stalkera i nie zareagował na jej prośby o pomoc. Sprawa ta dodatkowo pokazuje, jak nieprzewidywalne mogą być konsekwencje korzystania z narzędzi AI.

Źródło: Futurism