Nowy Jork Times wzmacnia zakaz używania AI przez freelancerów
W odpowiedzi na serię kontrowersji związanych ze sztuczną inteligencją, "New York Times" wysłał w zeszłym tygodniu do swoich freelancerów okolicznościowe przypomnienie o obowiązującej polityce dotyczącej AI. Dokument, do którego odesłano współpracowników, jest jasny: wszystkie teksty i materiały wizualne przesyłane do gazety muszą być efektem ludzkiej pracy.
W przesłanym e-mailu, który został przeanalizowany przez Futurism, redakcja stwierdza jednoznacznie: „Wszystkie materiały dostarczane przez freelancerów muszą składać się wyłącznie z oryginalnych reportaży, tekstów oraz innych prac autorstwa autorów. Niedopuszczalne jest przesyłanie jakichkolwiek treści wygenerowanych, zmodyfikowanych lub ulepszonych przez narzędzia AI, a także wprowadzanie do nich danych w celu ich wygenerowania.”
Zakaz używania narzędzi AI do tworzenia treści
Dokument precyzuje, że korzystanie z AI jest dozwolone jedynie na etapie wysokopoziomowego brainstormingu. Freelancerzy nie mogą jednak używać narzędzi generatywnych do pisania jakiejkolwiek części artykułu. Wszelkie próby wykorzystania AI do tworzenia, redagowania, poprawiania lub ulepszania tekstów są surowo zabronione.
Lista zakazanych narzędzi obejmuje między innymi:
- Czatboty, takie jak Gemini, Claude, ChatGPT i Perplexity;
- Produkty wyszukiwania napędzane AI, np. Google AI Overviews;
- Generatory obrazów, w tym Adobe Firefly, DALL-E i MidJourney.
Seria skandali związanych z AI w "New York Times"
Przypomnienie o zakazie używania AI pojawiło się wkrótce po kolejnych incydentach, które ujawniły problemy z jakością treści generowanych przez sztuczną inteligencję. W marcu redakcja "Modern Love" stanęła w ogniu krytyki, gdy okazało się, że jedna z autorek użyła AI do napisania osobistego eseju. Autorka przyznała później, że korzystała z czatbotów zarówno podczas koncepcyjnej, jak i edytorskiej fazy pracy.
W kwietniu gazeta zakończyła współpracę z freelancerem, który przyznał się do użycia AI do napisania recenzji książki. Po publikacji okazało się, że tekst zawierał liczne przypadki plagiatu. Niedawno, w zeszłym tygodniu, redakcja musiała wprowadzić poważną korektę do artykułu, którego autorem był szef biura w Kanadzie. Okazało się, że cytat przypisany politykowi został wygenerowany przez AI i błędnie przedstawiony jako autentyczny.
„Artykuł z 15 kwietnia dotyczący sukcesów Marka Carney’ego, premiera Kanady z ramienia Partii Liberalnej, w budowaniu sojuszy ponad podziałami politycznymi został zaktualizowany po tym, jak »New York Times« dowiedział się, że wypowiedź przypisana Pierre’owi Poilievre’owi, liderowi Partii Konserwatywnej, była w rzeczywistości podsumowaniem jego poglądów na politykę kanadyjską, wygenerowanym przez AI i przedstawionym jako cytat. Reporter powinien był zweryfikować dokładność zwróconych przez narzędzie AI informacji.”
"New York Times" nie odpowiedział na pytanie, czy takie przypomnienia są standardową praktyką, ani czy mają związek z ostatnimi skandalami związanymi z AI.
Dlaczego "New York Times" tak mocno reaguje na użycie AI?
Gazeta, uznawana za jeden z najbardziej prestiżowych dzienników na świecie, od lat stawia na rzetelność i wiarygodność. Wykorzystanie AI do tworzenia treści budzi obawy o jakość dziennikarstwa oraz możliwość pojawienia się błędów, które mogą zaszkodzić reputacji redakcji. Niedawne przypadki fałszywych cytatów i plagiatu pokazują, jak łatwo narzędzia AI mogą wprowadzić w błąd nawet doświadczonych dziennikarzy.
Eksperci podkreślają, że choć AI może wspierać procesy redakcyjne, nie może zastępować ludzkiej pracy w kluczowych obszarach, takich jak badania, weryfikacja faktów czy tworzenie treści. Redakcje na całym świecie borykają się z podobnymi wyzwaniami, starając się znaleźć równowagę między wykorzystaniem nowych technologii a utrzymaniem standardów dziennikarskich.