Nowy zakaz w systemowym prompcie GPT-5.5

OpenAI wprowadziło nietypową zmianę w systemowym prompcie najnowszego modelu GPT-5.5. Wśród standardowych instrukcji znalazł się wyraźny zakaz wymieniania określonych stworzeń, takich jak gobliny, chochliki, szopy, trolle, olbrzymy, gołębie oraz innych zwierząt lub istot, chyba że są one absolutnie i jednoznacznie istotne dla zapytania użytkownika.

Skąd taka decyzja?

Ograniczenie zostało ujawnione w zeszłym tygodniu w ramach nowej wersji open source kodu Codex CLI, opublikowanej na GitHubie. Zakaz pojawia się dwukrotnie w instrukcjach o długości ponad 3500 słów, obok innych, bardziej typowych ostrzeżeń, takich jak zakaz używania emotikonów lub myślników półpauzy bez wyraźnego polecenia, a także zakaz stosowania destrukcyjnych komend Git, takich jak git reset --hard.

Warto zauważyć, że wcześniejsze wersje systemowych promptów dla starszych modeli nie zawierały podobnego zakazu wobec wymienionych stworzeń. To sugeruje, że OpenAI boryka się z nowym problemem, który pojawił się w najnowszej wersji modelu.

Dlaczego akurat te stworzenia?

Choć firma nie wyjaśniła oficjalnie powodów wprowadzenia takiego ograniczenia, analiza społecznościowa wskazuje na rosnące problemy z nadmiernym skupieniem się modelu na tematyce fantasy w zupełnie niezwiązanych kontekstach. Użytkownicy donoszą na forach i mediach społecznościowych o przypadkach, w których GPT-5.5 nieoczekiwanie nawiązuje do goblinów, trolli lub innych stworzeń, nawet podczas rozmów o zupełnie innych tematach.

Przykłady niepożądanych zachowań modelu

  • Podczas pisania kodu do prostego kalkulatora, model wspomina o „algorytmie goblinów do sortowania danych”.
  • W odpowiedzi na pytanie o pogodę, GPT-5.5 nawiązuje do „trolli z górskich szczytów”.
  • Podczas dyskusji o gotowaniu, model sugeruje użycie „mielonych szopów zamiast mielonego mięsa”.

Czy to problem tylko dla GPT-5.5?

Obecnie zakaz dotyczy wyłącznie najnowszego modelu, co może wskazywać na próbę OpenAI rozwiązania specyficznego problemu związanego z nadmiernym „fantasy bias”. Starsze modele, takie jak GPT-4 czy GPT-3.5, nie są objęte tym ograniczeniem, co sugeruje, że firma stara się opanować niepożądane zachowania nowej generacji AI.

Reakcje społeczności

Wprowadzenie zakazu spotkało się z mieszanymi reakcjami. Część użytkowników docenia próbę ujednolicenia odpowiedzi modelu, inni natomiast uważają, że jest to zbyt arbitralne i ogranicza kreatywność AI. Na Reddit i Twitterze pojawiają się zarówno komentarze popierające decyzję, jak i te krytykujące ją za brak transparentności.

„To dziwne, że OpenAI musiało wprowadzić zakaz wymieniania goblinów, żeby AI zachowywało się profesjonalnie. Może powinni skupić się na lepszym trenowaniu modeli, zamiast na cenzurze?” – napisał jeden z użytkowników na forum.

„W końcu AI przestało wtrącać się do rozmowy o podatkach z niepotrzebnymi odniesieniami do fantasy. To krok w dobrą stronę.” – skomentował inny internauta.

Co dalej z GPT-5.5?

Obecnie nie wiadomo, czy zakaz dotyczący wymieniania określonych stworzeń pozostanie na stałe w systemowym prompcie. OpenAI może zdecydować się na dalsze dostosowywanie instrukcji w zależności od reakcji użytkowników i wyników testów. Firma nie wydała jeszcze oficjalnego oświadczenia na ten temat.

Tymczasem użytkownicy mogą spodziewać się, że w najbliższym czasie model GPT-5.5 będzie bardziej restrykcyjny w kwestii tematyki fantasy, co może wpłynąć na jakość i naturalność odpowiedzi w niektórych przypadkach.

Źródło: Ars Technica