Firmy zajmujące się sztuczną inteligencją chętnie głoszą rewolucyjne deklaracje dotyczące medycyny. Alphabet, poprzez swoją spółkę Isomorphic, twierdzi, że „przyszłościowe modele AI mogą odblokować głębsze wglądy naukowe, szybsze przełomy i leki, które zmienią ludzkie życie”. Z kolei Lila reklamuje swoje AI jako narzędzie do „szybszego odkrywania w każdej dziedzinie, gdzie przełomowa nauka ma znaczenie”. Wydają przy tym miliony, jakby wierzyły w te obietnice – niedawno Anthropic przejął stealthową firmę Coefficient Bio za 400 milionów dolarów.
Jednak prawdziwym sprawdzianem skuteczności AI w medycynie jest jedno pytanie: Czy faktycznie działa u ludzi? Czy doprowadziła do powstania leku, który uratował czyjeś życie? Odpowiedź jest brutalna – większość firm jeszcze tego nie osiągnęła. Spójrzmy na liczbę zatwierdzonych terapii: Isomorphic? Zero. Lila? Też zero. Obietnice marketingowe rzadko wytrzymują kontakt z rzeczywistością.
Dlaczego tak się dzieje? Bo postęp w medycynie jest niezwykle trudny. Aby przetestować nowe leczenie, trzeba przeprowadzić fazę 3 badań klinicznych – proces, który trwa średnio 10 lat i kosztuje około 2 miliardów dolarów. Aby zweryfikować diagnostykę, należy udowodnić jej kliniczną korzyść, przejść rygorystyczne testy zewnętrzne i zbudować kompletny system zarządzania jakością – zanim produkt zostanie dopuszczony do klinik. Odkrycie i udowodnienie nowych mechanizmów biologicznych może zająć dziesięciolecia badań naukowych.
Jak zamknąć lukę między AI a medycyną?
Przemysł AI musi zmniejszyć dystans między szkoleniem modeli a rzeczywistym zastosowaniem w medycynie. To ciężka praca, którą podejmują najlepsze firmy w branży. Przykłady? Insilico Medicine i Recursion prowadzą kliniczne testy leków odkrytych dzięki AI. Z kolei Owkin wprowadził swój lek onkologiczny OKN4395 do fazy 1a badania klinicznego INVOKE. Ponadto firma trenowała swoje modele na rzeczywistych danych pacjentów przez lata i wprowadziła MSIntuit CRC – narzędzie do patologii – na rynek europejski po uzyskaniu certyfikatu CE.
To trudne zadanie, ale niesie ogromne korzyści: testowanie AI na pacjentach zmusza ją do doskonalenia. Z naszego doświadczenia wynika, że pojawiają się nieoczekiwane wyzwania. Podczas wdrażania diagnostyki AI do klinik zauważyliśmy, że modele słabo generalizowały w różnych populacjach lub przy różnych ustawieniach skanerów. Musieliśmy opracować proste, ale solidne metody adaptacji modeli do lokalnych warunków i technologii.
Ulepszanie pętli sprzężenia zwrotnego w czasie rzeczywistym
Uważamy, że ten „sprawdzian rzeczywistości” – testowanie modeli na rzeczywistych pacjentach – jest tak ważny, że wbudowaliśmy go w strukturę badania INVOKE. W tradycyjnych badaniach klinicznych projekt koncentruje się jedynie na kluczowych wskaźnikach sukcesu, a wyniki pośrednie decydują o kontynuacji lub przerwaniu testów. Nic więcej.
My robimy to inaczej: wykorzystujemy bieżące dane od uczestników badania, aby ulepszać nasze AI. Tam, gdzie przewidywania modelu dotyczące reakcji pacjentów okazały się błędne, retrainowaliśmy go na rzeczywistych danych, aby poprawić jego działanie. To pozytywna pętla sprzężenia zwrotnego: im więcej informacji pochodzi z rzeczywistych badań, tym lepiej działa AI, co przynosi korzyści pacjentom i pozwala testować więcej modeli. Tak wygląda przyszłość tej dziedziny.