En ny afgørelse fra en føderal domstol i New York har afsløret en alvorlig juridisk risiko ved brug af AI-chatbots som ChatGPT eller Anthropics Claude. Dommeren fastslog nemlig, at oplysninger delt med sådanne systemer ikke er beskyttet af advokats fortrolighedspligt, hvilket betyder, at de kan bruges imod dig i retten.

Hvad skete der i sagen?

Sagen involverede Brad Heppner, tidligere formand for det finansielle selskab GWG Holdings, der stod over for anklager om værdipapir- og wirefraud. I forbindelse med sin forsvarsforberedelse indtastede Heppner forskellige rapporter i Anthropics chatbot Claude. Chatbotten genererede derefter foreløbige rapporter, som Heppners advokater anvendte i forsvaret.

Problemet opstod, da dommeren Jed Rakoff afgjorde, at disse dokumenter ikke var beskyttet af fortrolighedspligten. Ifølge dommeren eksisterer der hverken en advokats klient-relation mellem brugeren og chatbotten, ej heller kan en sådan relation opstå. Derudover understregede han, at Claude klart fraskriver sig ansvaret for at give juridisk rådgivning, da systemet blot er et værktøj og ikke en juridisk ekspert.

Hvilke konsekvenser har dommen?

Heppner blev tvunget til at udlevere 31 dokumenter genereret af Claude til retten, hvilket illustrerer den potentielle fare ved at stole på AI-systemer med følsomme oplysninger. Dommen har allerede fået advokatfirmaer til at revidere deres kontrakter for at advare klienter mod at dele fortrolige oplysninger med tredjeparts AI-platforme.

Et eksempel er det amerikanske advokatfirma Sher Tremonte, der nu har tilføjet en klausul i sine kontrakter, som lyder: "Deling af fortrolige kommunikationer med en tredjeparts AI-platform kan medføre et tab af advokats fortrolighedspligt."

Hvorfor er dette et problem?

Dommen sætter fokus på et stigende problem: Mange mennesker har i de senere år delt store mængder personlige og følsomme oplysninger med AI-chatbots. Disse oplysninger kan nu blive tilgængelige for myndighederne, enten gennem retslige påbud eller frivillig deling fra tech-virksomhederne.

Eksempler på dette er allerede set tidligere, hvor tech-giganter som Google og Apple har givet amerikanske myndigheder adgang til brugerdata. Ring-dørklokker har eksempelvis givet Los Angeles-politiet adgang til kundernes videomateriale uden retskendelse, og FBI kan udtrække metadata fra iPhones for at læse indholdet af Signal-beskeder.

Advarsel til AI-brugere

Eksperter opfordrer nu til øget forsigtighed ved brug af AI-chatbots. Alt, hvad du skriver til en chatbot, kan potentielt blive brugt imod dig i en retssag. Dette gælder uanset om du deler personlige tanker, juridiske overvejelser eller forretningshemmeligheder.

"Hvis du indtaster følsomme oplysninger i en chatbot, skal du være klar over, at disse oplysninger ikke er beskyttet. Det er vigtigt at overveje, hvilke oplysninger du deler, og om det er nødvendigt," siger en juridisk ekspert til Reuters.

Hvad kan du gøre for at beskytte dig?

  • Undgå at dele følsomme oplysninger med AI-chatbots, herunder juridiske, medicinske eller økonomiske detaljer.
  • Anvend chatbots med forsigtighed og overvej, om de oplysninger, du deler, kan have juridiske konsekvenser.
  • Gennemgå advokatkontrakter for at sikre, at de indeholder klare advarsler mod deling af fortrolige oplysninger med AI-platforme.
  • Vær opmærksom på tech-virksomheders praksis med deling af data med myndigheder, da mange selskaber frivilligt eller tvunget deler brugerdata.
Kilde: Futurism