W jednym z ostatnich filmików na TikToku Jason Yeager, założyciel firmy technologicznej i twórca treści, wcielił się w postać satyrycznego szefa MyTechCeo. W skeczu jego bohater stwierdza: „Nie muszę już czytać e-maili, dobrze? Chcę, żeby moja AI czytała moje e-maile wygenerowane przez AI – i odpowiadała za mnie”. To oczywiście żart, ale tylko pozornie. Bo korzystanie z narzędzi AI do pisania wiadomości staje się coraz powszechniejsze.
W październiku Ryan Roslansky, dyrektor generalny LinkedIn, przyznał, że używa AI do pisania niemal każdej „wyjątkowo ważnej” wiadomości. Według badania przeprowadzonego przez firmę ZeroBounce, zajmującą się weryfikacją e-maili, aż 25% respondentów przyznaje, że codziennie korzysta z AI do redagowania lub tworzenia własnych wiadomości. Na forach internetowych, takich jak Reddit, pracownicy dzielą się historiami o szefach, którzy używają AI do odpowiadania na wszystkie e-maile w pracy, sądząc, że nikt tego nie zauważa – lub takich, którzy komunikują się wyłącznie za pomocą wiadomości generowanych przez sztuczną inteligencję, co wywołuje u nich stres.
Gdy nie wiadomo, jak zareagować, najłatwiejszym rozwiązaniem wydaje się pójście za ciosem: wklejenie wiadomości do czatu, poprawienie jej i odesłanie. Ale co, jeśli otrzymasz wiadomość, która prawdopodobnie została napisana przez AI? Zwłaszcza w trakcie sporów czy trudnych rozmów, da się to wyczuć. Brzmi zbyt płynnie. Ton jest wyważony i neutralny. Problemy są poruszane, ale brakuje w nich czegoś istotnego: głosu drugiej osoby. Największym dowodem na to, że tekst powstał przy pomocy AI, jest pozostawiony w nim prompt.
Czy AI ułatwia, czy utrudnia komunikację?
E-maile dzięki AI mogą brzmieć bardziej profesjonalnie, ale eksperci ostrzegają, że powierzanie sztucznej inteligencji trudnych rozmów może osłabiać budowanie relacji w miejscu pracy. Gdy prosimy czatbota o napisanie wiadomości w bardziej „zwięzłej” lub „profesjonalnej” formie, ryzykujemy utratę emocjonalnego ładunku wymiany zdań – a to może negatywnie wpłynąć na przyszłość pracy, tworząc pokolenie specjalistów, którzy nie potrafią ze sobą rozmawiać.
„Społeczne odciążanie” – kiedy AI zastępuje, a nie wspiera
Niektóre korzyści płynące z ćwiczenia trudnych rozmów z AI są niezaprzeczalne. Można ją wykorzystać jako narzędzie do przećwiczenia tematu przed prawdziwą rozmową, co pozwala na bardziej klarowne i pewne się wypowiedzenie. Jednak gdy AI staje się substytutem, a nie wsparciem, sytuacja się komplikuje. Gdy jedna osoba pisze wiadomość przez ChatGPT, a druga odpowiada za pomocą Claude, powstaje dystans, który może być trudny do pokonania.
To z kolei stoi w sprzeczności z celami, jakie firmy stawiają sobie przy powrocie do biur: kreatywnością, współpracą i budowaniem silniejszych relacji między pracownikami. Leena Rinne, wiceprezeska ds. przywództwa, biznesu i coachingu w platformie Skillsoft, wyjaśnia w rozmowie z Fast Company, że powierzanie AI trudnych rozmów prowadzi do osłabienia umiejętności interpersonalnych. Rinne określa to zjawisko mianem „społecznego odciążania”.
Problem ten jest szczególnie widoczny w przypadku liderów, którzy uciekają się do takich praktyk. Według Rinne, może to prowadzić do regresu w ich zdolności do prowadzenia trudnych rozmów:
„Gdy AI zajmuje się trudną rozmową, człowiek nigdy nie ćwiczy tej umiejętności. To nie tylko sprawia, że interakcja wydaje się sztuczna – bo taka jest – ale także niszczy zaufanie między stronami.”
To problem, który dotyka wszystkich: szef traci umiejętność jasnego komunikowania się, a pracownik czuje się oderwany od rzeczywistości. W efekcie, zamiast budować silne relacje, tworzymy środowisko pracy, w którym ludzie coraz mniej potrafią ze sobą rozmawiać – a to może mieć poważne konsekwencje dla przyszłości zawodowej.