W ostatnich tygodniach branża sztucznej inteligencji znowu znalazła się w centrum uwagi – tym razem nie ze względu na kolejne przełomowe modele, lecz z powodu apokaliptycznych wizji dotyczących przyszłości AI. Anthropic, twórca popularnego modelu Claude, opublikowało niedawno raport, w którym ostrzega przed nadchodzącą „eksplozją inteligencji” – scenariuszem, w którym systemy AI będą mogły samodzielnie tworzyć swoje ulepszone wersje, bez udziału człowieka.

Według współzałożyciela Anthropic, Jacka Clarka, istnieje ponad 50% szans, że do końca 2028 roku powstaną autonomiczne systemy AI zdolne do samodoskonalenia. „Moje przewidywania wskazują, że do końca 2028 roku bardziej prawdopodobne niż nie jest, że będziemy mieli system AI, któremu można powiedzieć: »Stwórz lepszą wersję siebie«. I zrobi to całkowicie samodzielnie” – stwierdził Clark w rozmowie z Axios.

To nie pierwszy raz, gdy Anthropic ostrzega przed ryzykiem związanym z AI. Jak zauważa Axios, firma od samego początku buduje swoją markę wokół głoszenia zagrożeń płynących z rozwoju sztucznej inteligencji. Jednak nie jest osamotniona. Również OpenAI, twórca ChatGPT, regularnie publikuje komunikaty o potencjalnych niebezpieczeństwach, jednocześnie prowadząc agresywną ekspansję rynkową i gromadząc rekordowe środki finansowe.

Przypadek? W ubiegłym tygodniu Wall Street Journal poinformował, że OpenAI umożliwiło obecnym i byłym pracownikom sprzedaż udziałów o wartości nawet 30 milionów dolarów. Ponad 600 osób skorzystało z tej możliwości, a łączna wartość transakcji wyniosła 6,6 miliarda dolarów.

Paradoks branży: ostrzeżenia idą w parze z ekspansją

Obserwowany paradoks jest trudny do przeoczenia. Firmy rozwijające AI jednocześnie ostrzegają przed katastrofalnymi scenariuszami a przyspieszają wdrażanie nowych rozwiązań, walcząc o dominację w tym, co nazywane jest najważniejszą technologiczną rewolucją w historii ludzkości. W wyścigu uczestniczą nie tylko korporacje, ale także rządy, które w pośpiechu integrują AI w systemach wojskowych, edukacyjnych i administracyjnych.

Wszyscy uczestnicy tej rywagi publicznie przyznają, że stoją przed ogromnymi wyzwaniami i zagrożeniami, a jednocześnie nikt nie może sobie pozwolić na zatrzymanie postępu. Takie podejście doskonale ilustruje esej CEO Anthropic, Dario Amodei, zatytułowany „Dojrzewanie technologii”, opublikowany w styczniu tego roku. Autor nawiązuje w nim do dzieła Carla Sagana Kontakt, porównując obecny moment w rozwoju AI do punktu zwrotnego w historii ludzkości – momentu, w którym stoimy u progu nowej cywilizacji, ale także na krawędzi pięciu kluczowych zagrożeń egzystencjalnych:

  • Bunt autonomicznych systemów AI – scenariusz, w którym sztuczna inteligencja wymyka się spod kontroli człowieka;
  • Celowe wykorzystanie AI do masowego zniszczenia – np. w formie broni autonomicznej lub manipulacji informacją;
  • Autorytarne przejęcie AI – wykorzystanie technologii do wzmacniania kontroli politycznej i tłumienia wolności obywatelskich;
  • Zaburzenia gospodarcze – masowe bezrobocie wynikające z automatyzacji pracy;
  • Koncentracja bogactwa – pogłębienie nierówności społecznych na niespotykaną skalę.

Amodei przewiduje również występowanie nieprzewidywalnych, kaskadowych skutków ubocznych, których jeszcze nie jesteśmy w stanie sobie wyobrazić.

Od ostrzeżenia do inwestycji: jak groźba staje się szansą

Siedemnaście dni po publikacji eseju „Dojrzewanie technologii” Anthropic ogłosiło pozyskanie 30 miliardów dolarów nowego finansowania, co podniosło jego wycenę do 380 miliardów dolarów. Tydzień później, niemal w tym samym czasie, gdy Axios publikowało swój artykuł, Financial Times doniósł, że firma planuje pozyskać kolejne dziesiątki miliardów dolarów jeszcze w tym roku, z celem osiągnięcia wyceny rzędu biliona dolarów – co byłoby wyższe niż obecna wycena OpenAI (852 miliardy dolarów).

Ta zbieżność nie jest przypadkowa. Esej Amodei nie jest bowiem jedynie ostrzeżeniem, ale także pitch deckiem – dokumentem, który ma przyciągnąć inwestorów. Stwierdzenie, że AI to „najważniejsza technologia w historii ludzkości”, jest zarówno apelem o ostrożność, jak i obietnicą ogromnych zysków. Twierdzenie, że „jesteśmy odpowiedzialni”, służy zarówno celom moralnym, jak i budowaniu przewagi konkurencyjnej. Wzmianka o tym, że „Chiny nadrabiają”, jest jednocześnie powodem do niepokoju geopolitycznego i argumentem, który ma sprawić, że kolejna runda finansowania wyda się patriotycznym obowiązkiem.

„To, co nazywamy odpowiedzialnym rozwojem AI, jest jednocześnie najbardziej dochodową inwestycją w historii. Groźba katastrofy staje się najlepszym sposobem na przekonanie świata, że potrzebujemy więcej pieniędzy – i to szybko.”

Kto naprawdę zyskuje na apokaliptycznych scenariuszach?

Choć firmy takie jak Anthropic i OpenAI prezentują się jako strażnicy bezpieczeństwa ludzkości, ich działania zdają się przeczyć temu wizerunkowi. Zamiast spowolnić rozwój AI, intensyfikują go, pozyskując miliardy na kolejne projekty. Czy zatem ich ostrzeżenia są szczere, czy raczej stanowią element strategii marketingowej i lobbingowej?

Niektórzy eksperci zwracają uwagę, że apokaliptyczna retoryka może służyć kilku celom jednocześnie:

  • Przyciągnięcie uwagi mediów i opinii publicznej – im większe zagrożenie, tym więcej dyskusji i zainteresowania;
  • Uzyskanie wsparcia regulacyjnego – ostrzeżenia mogą pomóc w kształtowaniu przepisów, które będą korzystne dla największych graczy;
  • Przyciągnięcie inwestorów – groźba katastrofy sprawia, że finansowanie wydaje się koniecznością, a nie wyborem;
  • Budowanie marki – pozycjonowanie się jako „odpowiedzialni innowatorzy” wzmacnia wiarygodność w oczach społeczeństwa.

Niezależnie od motywów, jedno jest pewne: branża AI stoi na rozdrożu. Z jednej strony mamy realne zagrożenia związane z rozwojem sztucznej inteligencji, z drugiej – ogromne korzyści ekonomiczne i społeczne, które może ona przynieść. Pytanie brzmi, czy firmy rozwijające AI są w stanie pogodzić te dwa cele, czy też ich apokaliptyczne wizje są jedynie narzędziem do osiągnięcia przewagi rynkowej.