Anthropic: AI wkracza w nową erę samorozwoju
Laboratorium Anthropic, znane z ostrzegania przed zagrożeniami związanymi z rozwojem sztucznej inteligencji, informuje o pierwszych oznakach, że AI nie tylko tworzy własne produkty, ale także buduje same siebie. Według współzałożyciela firmy, Jacka Clarka, istnieje ponad 60% szans, że do końca 2028 roku powstanie model AI zdolny do samodzielnego trenowania swojego następcy.
„Wyślij polecenie, a AI się ulepszy”
Clark, który kieruje Instytutem Anthropic, wyjaśnił w rozmowie z mediami: „Obserwuję trend technologiczny, w którym tempo rozwoju może jeszcze przyspieszyć.” W nowym dokumencie badawczym, opublikowanym w czwartek, firma wskazuje na oznaki „wkładu AI w przyspieszanie badań i rozwoju samego siebie” – procesu znanego jako rekurencyjne samoulepszanie.
„Moje przewidywanie brzmi: do końca 2028 roku istnieje większe niż 50% prawdopodobieństwo, że powstaną systemy AI, do których można powiedzieć: »Stwórz lepszą wersję siebie« – i zrobią to całkowicie samodzielnie.”
Eksplozja inteligencji: szansa czy zagrożenie?
Dokument ostrzega przed możliwą „eksplozją inteligencji” – terminem dotychczas używanym głównie w kręgach zajmujących się bezpieczeństwem AI. Teraz po raz pierwszy znalazł się w oficjalnym opracowaniu Anthropic.
Clark wyjaśnia, że eksplozja inteligencji to sytuacja, w której systemy AI zaczynają gwałtownie się ulepszać. Może to prowadzić zarówno do pozytywnych zmian – np. przyspieszenia postępu w medycynie czy naukach przyrodniczych – jak i poważnych zagrożeń, takich jak cyberataki czy niekontrolowane zagrożenia biologiczne.
Cztery kluczowe obszary badań
Instytut Anthropic, działający zarówno jako zaplecze badawcze, jak i system wczesnego ostrzegania, koncentruje się na czterech głównych obszarach:
- Dyfuzja ekonomiczna: wpływ AI na rynek pracy, produktywność i podział korzyści.
- Zagrożenia i odporność: cyberataki, zagrożenia biologiczne, nadzór masowy.
- Systemy AI w środowisku: autonomiczne agenty i ich regulacja.
- R&D napędzane AI: pytania o rekurencyjne samoulepszanie się systemów.
Przezroczystość jako priorytet
Anthropic zobowiązuje się do publikowania szczegółowych informacji na temat wpływu nowych narzędzi AI na własne badania oraz implikacji rekurencyjnego samoulepszania. Jak podkreśla Clark: „Jesteśmy na etapie, w którym laboratorium AI po raz pierwszy oficjalnie przyznaje, że maszyna może zacząć budować samą siebie.”
Czy firmy AI staną się zbędne?
Mimo postępującej autonomii AI, Clark podkreśla, że rola firm takich jak Anthropic pozostanie kluczowa: „Naszym zadaniem jest wykorzystanie tej technologii do dobroczynnych celów – wspierania medycyny, biologii czy innych dziedzin.”