AI-løfter som ikke holder mål

AI-selskaper bruker store summer på markedsføring av revolusjonerende helsetjenester. Alphabet-eide Isomorphic påstår at «frontier AI» kan «frigjøre dypere vitenskapelige innsikter, akselerere gjennombrudd og skape livreddende medisiner». Lila lover «raskere oppdagelser innen alle felt der banebrytende vitenskap betyr mest».

Men det avgjørende spørsmålet er: Har disse AI-verktøyene faktisk fungert for mennesker? Har de skapt medisiner som har reddet liv? Svaret er nei – i hvert fall for de fleste. Når vi ser på antall godkjente behandlinger, er resultatene magre: Isomorphic? Ingen. Lila? Ingen.

Markedsføringen overlever sjelden møtet med virkeligheten. Å utvikle ekte medisinske gjennombrudd er nemlig ekstremt krevende. En ny behandling må gjennom en fase 3-studie, som typisk tar 10 år og koster 2 milliarder dollar. En ny diagnostisk løsning må vise klinisk nytte, bestå strenge tredjepartstester og bygge opp et fullstendig kvalitetssystem før den får tillatelse til klinisk bruk. Å oppdage og bevise ny menneskelig biologi kan ta tiår med forskning.

Hva skal til for å lukke gapet?

Bransjen må slutte å snakke og begynne å handle. Det krever å lukke gapet mellom hvor AI-modellene trenes og hvor medisinen faktisk blir til virkelighet. Noen selskaper har allerede tatt grep:

  • Insilico Medicine og Recursion: Disse selskapene har avansert AI-oppdagede legemidler gjennom kliniske studier.
  • Owkin: Har tatt sitt onkologimidikament OKN4395 inn i fase 1a-studien INVOKE. I tillegg har de trent AI på reelle pasientdata i flere år og fått MSIntuit CRC godkjent for klinisk bruk i Europa gjennom CE-merking.

Dette er hardt arbeid, men det lønner seg. Når AI bringes ut til pasienter, tvinges teknologien til å bli bedre. Owkin erfarte dette da de først tok diagnostisk AI i klinisk bruk. Modellene viste seg å ikke generalisere godt nok på tvers av populasjoner eller skanningsutstyr. Løsningen ble å utvikle robuste metoder for å tilpasse modellene til lokale forhold og teknologier.

Forbedre feedback-løkken i sanntid

Vi mener at «realitetssjekken» – å teste AI-modellene på ekte pasienter – er så viktig at vi har bygget det inn i strukturen på vår INVOKE-studie. Tradisjonelle studier fokuserer kun på essensielle suksessindikatorer, og mellomresultater avgjør om studien skal fortsette. Men i INVOKE-studien bruker vi kontinuerlig data fra pasientdeltakere til å forbedre AI-modellen vår.

Når AI-modellens prediksjoner om pasientresponser bommer, retreiner vi den på reelle data for å forbedre ytelsen. Dette skaper en positiv feedback-loop: Jo mer informasjon vi får fra reelle studier, desto bedre blir AI-en, desto bedre fungerer den for pasienter, og desto flere modeller kan vi teste.

Dette er fremtiden for AI i helsevesenet. Det handler ikke om å lage de mest avanserte modellene, men om å utvikle de som faktisk fungerer i den virkelige verden.

«Å bringe AI til pasienter tvinger teknologien til å bli bedre. Det er her den reelle verdien ligger – ikke i markedsføringen, men i klinisk dokumentert effekt.»