Firmy na całym świecie masowo sięgają po narzędzia oparte na sztucznej inteligencji, aby generować ogromne ilości kodu. Z zewnątrz wygląda to na przełom w wydajności pracy programistów. Jednak za kulisami sytuacja przybiera nieco bardziej komiczny, a zarazem niepokojący obrót. Programiści, zamiast odczuwać ulgę, muszą teraz mierzyć się z lawiną niedopracowanego kodu, który muszą sprawdzać i poprawiać.

Przykład? Jeden z gigantów z branży finansowej, korzystający z popularnego narzędzia Cursor, zanotował dziesięciokrotny wzrost produkcji kodu po wdrożeniu AI. Według Joni Klippert, dyrektor generalnej startupu StackHawk współpracującego z tą firmą, efektem było milion linii kodu do ręcznej weryfikacji. I to nie koniec problemów. Niezależnie od źródła, zły kod — zarówno ten stworzony przez człowieka, jak i przez AI — może prowadzić do poważnych zakłóceń w działaniu oprogramowania oraz luk w zabezpieczeniach.

Sytuacja staje się tak poważna, że nawet giganci tacy jak Amazon i Meta doświadczyli niedawno awarii spowodowanych nieautoryzowanymi działaniami narzędzi AI. „Ilość generowanego kodu oraz wzrost liczby podatności są tak duże, że firmy nie są w stanie nadążyć z ich kontrolą”, przyznała Klippert w rozmowie z „The New York Times”. Dodała również, że ten chaos generuje ogromny stres w innych działach, takich jak sprzedaż czy marketing, które muszą radzić sobie z konsekwencjami niedopracowanego oprogramowania.

Znajdujemy się obecnie w kluczowym momencie, w którym wpływ AI na rynek pracy staje się coraz bardziej widoczny. Narzędzia oparte na sztucznej inteligencji są często wykorzystywane jako usprawiedliwienie dla redukcji etatów. Według raportów, w zeszłym roku AI było przyczyną ponad 54 tysięcy zwolnień na całym świecie. W tym roku do tej listy dołączyły takie firmy jak Block Jacka Dorseya czy Atlassian, które zwolniły tysiące pracowników, jednocześnie ogłaszając przejście na strategię opartą na AI.

Paradoksalnie, podczas gdy AI prowadzi do redukcji miejsc pracy, jednocześnie tworzy nowe zadania, które wymagają interwencji człowieka. Kto powinien je wykonywać? Programiści, którzy obecnie są zajęci głównie „nakłanianiem” AI do pracy, nie mają czasu na testowanie i weryfikację kodu. „Na świecie brakuje tylu inżynierów ds. bezpieczeństwa aplikacji, aby sprostać potrzebom nawet amerykańskich firm”, podkreślił Joe Sullivan, doradca firmy Costanoa Ventures, cytowany przez „The New York Times”.

Co więcej, AI może paradoksalnie utrudniać pracę programistom. Oczekiwanie, że będą generować więcej kodu, jednocześnie nadzorując narzędzia AI, prowadzi do szybkiego wypalenia zawodowego. Zjawisko to zostało nawet opisane w badaniach jako „mózgowe smażenie” (brain fry) — termin użyty w jednej z trwających analiz dotyczących wpływu AI na zdrowie psychiczne pracowników.

Firmy nadal szukają sposobów na opanowanie tego chaosu. „Błogosławieństwo i przekleństwo AI polega na tym, że teraz każdy w firmie staje się programistą”, stwierdził Michele Catasta, prezes i szef działu AI w startupie Replit. Z kolei Sachin Kamdar, założyciel startupu Elvix zajmującego się agentami AI, jest zdania, że każdy wygenerowany kod musi być ręcznie sprawdzony przez człowieka, ponieważ późniejsze poprawki byłyby znacznie trudniejsze i kosztowniejsze.

Źródło: Futurism