OpenAI har under det senaste året expanderat sitt arbete inom hälso- och sjukvården, men främst inom icke-reglerade områden. I januari lanserade företaget ChatGPT Health för konsumenter, följt av ChatGPT för Healthcare för sjukhus och ChatGPT för Clinicians för vårdpersonal.
I samband med lanseringen av det senaste verktyget publicerade OpenAI även en lista med policyrekommendationer. Företaget beskriver dokumentet som en blueprint för att frigöra AI:s potential inom hälso- och sjukvården. Experter som granskat förslagen anser att de är delvis rimliga, men att de samtidigt gynnar OpenAI i alltför stor utsträckning.
”De försöker ha kakan och äta den också”, säger David Blumenthal, tidigare nationell koordinator för hälso-IT och professor i hälsopolitik vid Harvard University. ”De försöker framstå som ansvarsfulla aktörer i den pågående debatten, samtidigt som de vill hålla marknaden öppen för sina egna produkter.”
Experterna understryker att OpenAIs policyförslag, trots sina brister, kan bidra till viktiga diskussioner om AI:s roll inom vården. Samtidigt varnar de för att företagets inflytande riskerar att skapa en snedvriden konkurrenssituation, där mindre aktörer har svårt att hävda sig mot en jättelik aktör som OpenAI.
Frågan om reglering och etik inom AI-driven hälsovård står nu i centrum. OpenAI:s förslag inkluderar bland annat:
- Ökad transparens kring hur AI-modeller tränas och används inom vården.
- Standardiserade utvärderingsmetoder för att säkerställa säkerhet och effektivitet hos AI-verktyg.
- Stöd för innovation genom att underlätta för nya aktörer att komma in på marknaden.
Samtidigt kritiseras OpenAI för att undvika tydliga regleringar som skulle kunna begränsa företagets egna affärsmöjligheter. Kritiker menar att förslagen i första hand syftar till att skapa en gynnsam miljö för OpenAI, snarare än att främja en rättvis och säker utveckling av AI inom vården.