AI-chattar faller utanför advokatskyddet – domstolsutslag väcker oro
En ny dom från en federal domstol i New York innebär att information som delas med AI-chattar som ChatGPT eller Claude inte omfattas av advokatskyddet. Beslutet fattades av domare Jed Rakoff i samband med en rättslig tvist rörande tidigare styrelseordföranden Brad Heppner, som anklagas för värdepappersbedrägeri och bedrägeri via telekommunikation.
Heppner hade använt AI-plattformen Claude för att generera rapporter som sedan användes av hans advokater i försvarsarbetet. Domaren konstaterade dock att ingen advokatskyddad relation kan uppstå mellan en användare och en AI-plattform, eftersom Claude inte kan ge juridisk rådgivning och dessutom själv avråder från sådan användning.
31 dokument måste lämnas ut till domstolen
Som en direkt följd av domen tvingas Heppner nu att överlämna 31 dokument som genererats av AI till domstolen. Informationen, som tidigare ansågs skyddad av advokatskyddet, riskerar därmed att exponeras för myndigheter och motparten i målet. Domaren underströk att AI-plattformen inte kan hållas ansvarig för eventuella felaktigheter, eftersom den uttryckligen avråder från att ge juridisk rådgivning.
"Ingen advokatskyddad relation kan uppstå mellan en användare och en plattform som Claude."
Domare Jed Rakoff, New York
Försäkringsbolag och advokatbyråer reagerar
Beslutet har redan fått stor uppmärksamhet inom juridiska kretsar. Advokatbyrån Sher Tremonte har exempelvis uppdaterat sina avtal för att varna klienter för att dela känsliga uppgifter med tredje parts AI-plattformar, eftersom detta kan leda till att advokatskyddet förloras.
Problemet är särskilt allvarligt eftersom många användare under de senaste åren har matat in stora mängder personlig information i AI-chattar. En dom som denna öppnar upp för nya risker när det gäller integritet och efterlevnad av lagar, särskilt i ljuset av att teknikföretag redan tidigare har visat sig villiga att dela användardata med myndigheter.
AI och integritet – en ny gråzon
Domen belyser en växande oro kring hur AI-teknik påverkar integritet och juridisk säkerhet. Tidigare har rapporter visat att teknikföretag som Ring och Google har gett myndigheter tillgång till användardata, ibland utan domstolsbeslut. Nu står AI-användare inför en ny utmaning: information som de delar med AI kan plötsligt bli tillgänglig för myndigheter och motparter i rättsliga processer.
För användare av AI-chattar innebär detta att stor försiktighet krävs vid hantering av känsliga uppgifter. Att dela personlig eller affärsmässig information med en AI-plattform kan, som domen visar, leda till att informationen förlorar sitt skydd och riskerar att exponeras i rättsliga sammanhang.
Vad innebär domen för framtiden?
Experter menar att domen sätter en ny standard för hur AI-användning hanteras i juridiska sammanhang. Det är troligt att fler advokatbyråer kommer att uppdatera sina riktlinjer för att skydda klienters integritet. Samtidigt väcker domen frågor om huruvida AI-plattformar bör regleras ytterligare för att förhindra att känslig information hamnar i fel händer.
För den enskilde användaren innebär detta att man bör vara ytterst försiktig med vilken information man delar med AI-chattar, särskilt i samband med juridiska processer eller känsliga affärer.