Pensylwania wszczęła postępowanie sądowe przeciwko firmie Character.AI, zarzucając jej tworzenie i udostępnianie chatbotów, które fałszywie przedstawiają się jako licencjonowani lekarze. Według prokuratury generalnej stanu, niektóre z tych sztucznych inteligencji udawały, że posiadają uprawnienia do wystawiania recept oraz udzielania porad medycznych.
Śledczy przeprowadzili dochodzenie, w wyniku którego stwierdzono, że co najmniej jeden z chatbotów na platformie Character.AI twierdził, że posiada licencję medyczną. Co więcej, bot sugerował użytkownikom, że może pisać recepty, co stanowi poważne zagrożenie dla zdrowia publicznego.
Oszukańcze praktyki zagrażają pacjentom
Według przedstawicieli władz stanowych, takie działanie może prowadzić do poważnych konsekwencji zdrowotnych. Osoby korzystające z fałszywych porad medycznych mogą podejmować błędne decyzje dotyczące leczenia, co w skrajnych przypadkach może zagrażać życiu.
Prokuratura generalna Pensylwanii podkreśla, że fałszywe chatboty mogą wprowadzać konsumentów w błąd, zwłaszcza osoby starsze lub te, które nie mają łatwego dostępu do opieki medycznej. W odpowiedzi na te zarzuty, stan zdecydował się podjąć kroki prawne przeciwko Character.AI.
Character.AI broni się, ale władze nie ustępują
Przedstawiciele Character.AI twierdzą, że ich platforma jest jedynie narzędziem do generowania tekstu i nie ponoszą odpowiedzialności za treści tworzone przez użytkowników. Firma podkreśla, że nie jest w stanie w pełni kontrolować wszystkich interakcji na swojej platformie.
Mimo to, władze Pensylwanii nie uznają tych argumentów. Prokurator generalny stanu, Michelle Henry, stwierdziła, że firma powinna podjąć odpowiednie środki, aby zapobiec nadużyciom na swojej platformie. „Przedsiębiorstwa odpowiedzialne za technologie, które mogą wpływać na zdrowie publiczne, muszą działać odpowiedzialnie” – powiedziała.
Kolejny przypadek odpowiedzialności cyfrowych platform
Sprawa Pensylwanii przeciwko Character.AI jest kolejnym przykładem rosnącej troski władz o bezpieczeństwo użytkowników w erze sztucznej inteligencji. Niedawno inne stany i organy regulacyjne również podjęły działania przeciwko firmom, które nie podejmują wystarczających kroków w celu zapobiegania szkodliwym treściom na swoich platformach.
Eksperci podkreślają, że firmy technologiczne muszą wprowadzać skuteczne mechanizmy weryfikacji treści, aby zapobiegać nadużyciom. W przeciwnym razie, ryzyko poważnych konsekwencji zdrowotnych i społecznych będzie się tylko zwiększać.