„Keine E-Mails mehr lesen, verstanden?“ Mit dieser sarkastischen Aussage seines fiktiven Chefs MyTechCeo parodiert Tech-Unternehmer und Content-Creator Jason Yeager in einem TikTok-Sketch eine wachsende Realität: KI-generierte E-Mails sind auf dem Vormarsch. Was als Satire beginnt, wird in vielen Unternehmen zur Praxis. LinkedIn-CEO Ryan Roslansky gab kürzlich zu, fast alle „hochriskanten“ E-Mails mit KI zu verfassen. Eine Umfrage des Anbieters ZeroBounce ergab zudem, dass jeder vierte Befragte täglich KI für das Verfassen oder Überarbeiten von E-Mails nutzt.

Wenn der Ton zu perfekt klingt

In Online-Foren wie Reddit berichten Angestellte von Vorgesetzten, die jede E-Mail mit KI beantworten – und glauben, niemand bemerke es. Andere klagen über Führungskräfte, die ausschließlich über KI-generierte Nachrichten kommunizieren und damit bei Mitarbeitenden Ängste auslösen. Die Versuchung ist groß: Wer unsicher ist, greift ebenfalls zur KI. Eine Nachricht wird in den Chatbot eingegeben, leicht angepasst und versendet. Doch wer eine KI-generierte Antwort erhält – besonders in Konfliktsituationen –, erkennt sie oft sofort. Der Text wirkt zu glatt, der Ton neutral und ausgewogen. Die Probleme werden angesprochen, doch etwas fehlt: die persönliche Note des Absenders. Ein untrügliches Zeichen? Wenn der ursprüngliche Prompt noch im Text enthalten ist.

Gefahr für zwischenmenschliche Beziehungen

E-Mails mögen durch KI professioneller wirken, doch Experten warnen vor den Folgen. Wer schwierige Gespräche an Algorithmen delegiert, umgeht nicht nur die Beziehungspflege, sondern gefährdet auch die Arbeitskultur. Wenn eine KI eine Nachricht „präziser“ oder „professioneller“ formulieren soll, geht dabei oft die emotionale Tiefe verloren – ein Trend, der die Arbeitswelt nachhaltig prägen könnte. Eine Generation von Fachkräften, die nicht mehr miteinander reden kann, entsteht.

KI als Übungstool – aber nicht als Ersatz

Es gibt durchaus Vorteile, KI für schwierige Gespräche vorzubereiten. Wer etwa eine unangenehme Nachricht mit einem Chatbot durchspielt, gewinnt an Sicherheit. Doch wenn die KI die gesamte Kommunikation übernimmt, wird aus einem Hilfsmittel ein Hindernis. Statt echter Zusammenarbeit entstehen Distanzen – etwa wenn eine Person mit ChatGPT schreibt und die andere mit Claude antwortet. Das widerspricht dem, was viele Unternehmen mit der Rückkehr ins Büro anstreben: mehr Kreativität, bessere Zusammenarbeit und stärkere zwischenmenschliche Bindungen.

„Wenn die KI das schwierige Gespräch führt, baut der Mensch nie die Fähigkeit auf, es selbst zu tun.“
Leena Rinne, Vice President für Führungskompetenz bei Skillsoft

Rinne bezeichnet diese Praxis als „soziales Outsourcing“. Besonders problematisch sei es, wenn Führungskräfte darauf zurückgreifen. „Sie verlieren die Fähigkeit, in schwierigen Momenten präsent zu sein und klar zu kommunizieren“, erklärt Rinne. „Das schadet nicht nur der Beziehung zum Gegenüber, sondern auch dem eigenen Führungsvermögen.“

Wer profitiert – und wer verliert?

Das Problem betrifft beide Seiten: Die Führungskraft entwickelt keine Fähigkeit zur klaren Kommunikation, und die Mitarbeitenden fühlen sich durch unpersönliche KI-Nachrichten entfremdet. Statt echter Dialoge entstehen sterile Texte, die Konflikte zwar ansprechen, aber keine Lösungen bieten. Die Arbeitswelt steht damit vor einer paradoxen Situation: KI soll Prozesse effizienter machen, doch sie untergräbt genau das, was Teams wirklich zusammenhält – die menschliche Verbindung.