Der Vergleich mit der Tabakindustrie ist naheliegend: Als ein kalifornisches Geschworenengericht im März Meta und Google für die Gestaltung süchtig machender Plattformen verantwortlich machte, die Kinder schädigen, sprachen viele von einem „Big-Tobacco-Moment“ für soziale Medien. Doch die Parallele ist weniger triumphierend, als sie auf den ersten Blick scheint – und sie wirft wichtige Fragen für die Zukunft auf.
Was die Tabakindustrie mit sozialen Medien verbindet
Die klassische Erzählung der Tabakindustrie klingt nach einem Sieg der Gerechtigkeit: Ein skrupelloses Unternehmen wurde zur Rechenschaft gezogen, Opfer erhielten Genugtuung, und ein gefährliches Produkt unterliegt heute strengen Regulierungen. Doch dieser Narrativ blendet einen entscheidenden Faktor aus: Die Tabakindustrie wurde nicht wegen der Suchtgefahr ihrer Produkte verurteilt, sondern wegen systematischer Täuschung. Jahrzehntelang wussten die Konzerne um die gesundheitsschädlichen Folgen des Rauchens und die suchterzeugende Wirkung von Nikotin – und verschwiegen diese Erkenntnisse gezielt.
Erst als diese Vertuschung aufgedeckt wurde und gesetzliche Offenlegungspflichten eingeführt wurden, setzte sich wieder das Narrativ der persönlichen Verantwortung durch: Erwachsene, die rauchen, kennen die Risiken und entscheiden sich bewusst dafür. Ein ähnlicher Verlauf lässt sich in der Lebensmittelindustrie beobachten. In den 1970er-Jahren versuchte die US-Verbraucherschutzbehörde FTC, Werbung für ungesunde Lebensmittel an Kinder einzuschränken. Die Industrie wehrte sich vehement – und setzte schließlich durch, dass Fast-Food-Konzerne nicht für Fettleibigkeit haftbar gemacht werden können. Die Botschaft war klar: Übergewicht ist eine Frage der Willenskraft, nicht der Umweltfaktoren.
Warum der aktuelle Fall gegen Meta und Google kein Wendepunkt ist
Der jüngste Urteilsspruch gegen Meta und Google wird oft als Bruch mit diesem Muster gefeiert. Doch die historischen Beispiele legen nahe, dass der Weg für soziale Medien ähnlich verlaufen könnte: Nach der Aufdeckung interner Forschungen, die die Schäden für jugendliche Nutzerinnen offenlegten, folgt nun eine Phase der Offenlegung und Warnungen. Die Verantwortung wird wieder auf die Nutzer:innen oder deren Eltern abgewälzt – während die grundlegenden Designentscheidungen, die ein Geschworenengericht als unverantwortlich einstufte, unverändert bleiben.
Die diskutierten Lösungsansätze wie Altersverifikation, elterliche Kontrollen oder Benachrichtigungseinstellungen folgen diesem Muster exakt. Sie verlagern die Last des Schutzes auf Einzelne, während die Plattformen selbst – entworfen von hochqualifizierten Teams mit Milliardenbudgets – weiterhin darauf ausgelegt sind, möglichst lange genutzt zu werden. Dieses „Notice-and-Consent“-Modell, das seit Jahrzehnten die US-Verbraucherschutzgesetze dominiert, dient vor allem der Industrie: Sie kann Haftungsrisiken minimieren, ohne ihr Geschäftsmodell ändern zu müssen.
Die Illusion der Wahlfreiheit
Das zentrale Problem dieses Modells: Es setzt voraus, dass Nutzer:innen informierte Entscheidungen treffen können – obwohl soziale Medien gezielt darauf ausgelegt sind, genau das zu verhindern. Algorithmen, Push-Benachrichtigungen und endlose Scroll-Mechanismen machen es nahezu unmöglich, sich bewusst gegen die Nutzung zu entscheiden. Die Industrie profitiert davon, dass ihre Produkte nicht reguliert werden, während sie gleichzeitig die Verantwortung für deren Folgen auf die Nutzer:innen abwälzt.
„Das System funktioniert gut für Unternehmen, die Haftung vermeiden wollen, ohne ihr Geschäftsmodell zu ändern. Für die Menschen, die eigentlich geschützt werden sollen, ist es jedoch eine Farce.“
Was kommt als Nächstes? Drei mögliche Szenarien
- Szenario 1: Oberflächliche Reformen
Altersverifikation, Warnhinweise und elterliche Kontrollen werden eingeführt – doch die süchtig machenden Mechanismen bleiben bestehen. Die Plattformen passen sich an, ohne ihr Kerngeschäft zu gefährden. - Szenario 2: Teillösungen mit begrenzter Wirkung
Einige Staaten oder Regionen führen strengere Regeln ein, etwa durch Algorithmen-Transparenzpflichten oder Limits für personalisierte Werbung. Doch globale Konzerne wie Meta und Google werden diese Maßnahmen umgehen oder verwässern. - Szenario 3: Ein radikaler Wandel?
Selten, aber nicht unmöglich: Wenn sich der öffentliche und politische Druck weiter erhöht, könnten tiefgreifende strukturelle Änderungen erzwungen werden – etwa ein Verbot bestimmter Design-Praktiken oder eine Zerschlagung der Monopole. Doch dieser Weg erfordert einen fundamentalen Wandel im Umgang mit digitalen Plattformen.
Fazit: Der Kampf um die Zukunft sozialer Medien hat gerade erst begonnen
Der Vergleich mit der Tabakindustrie zeigt: Selbst wenn soziale Medien ihren „Big-Tobacco-Moment“ erleben, ist das kein Garant für echten Wandel. Die Branche wird versuchen, mit minimalen Anpassungen weiterzumachen – während die eigentlichen Probleme ungelöst bleiben. Die Frage ist nicht, ob die Plattformen jemals zur Verantwortung gezogen werden, sondern wie lange es dauert, bis die Gesellschaft erkennt, dass persönliche Verantwortung allein nicht ausreicht, um gegen ein System zu kämpfen, das von Anfang an auf Sucht und Manipulation ausgelegt ist.