Brand Safety durch Systematik: Mit der Moderations-Matrix gegen Hate Speech vorgehen

Tanja Laub31.3.2026

Mit Systematik und der Moderations-Matrix konsistent gegen Hate Speech in Kommentaren vorgehen

Inhalt
  1. Was ist Brand Safety – und warum ist sie für Unternehmen heute wichtiger denn je?
  2. Welche Arten von problematischen Inhalten gefährden Brand Safety?
  3. Warum ist Hate Speech gefährlich für die Brand Safety?
  4. Warum ist eine strukturierte Moderation entscheidend für Brand Safety?
  5. Welche Ziele verfolgt eine Moderations-Matrix und wie funktioniert sie?
  6. Wie verbessert eine Moderations-Matrix die Brand Safety konkret?
  7. Welche Tools helfen bei der Sicherstellung von Brand Safety?
  8. Fazit und Ausblick
Das Wichtigste in Kürze
  • Hate Speech in den eigenen Kommentarspalten gefährdet die Brand Safety und untergräbt das aufgebaute Markenvertrauen, da das Stehenlassen als Toleranz gewertet wird.
  • Eine strukturierte Moderations-Matrix ist das zentrale Werkzeug, um konsistente und schnelle Entscheidungen im Umgang mit problematischen Inhalten zu gewährleisten.
  • Die Matrix schafft einen klaren Rahmen durch die Moderationsleitlinie, den Moderationsprozess und das Moderationsschema.
  • Ein strukturierter Prozess reduziert die psychische Belastung des Teams und sichert die Entscheidungen bei schwerwiegenden Fällen ab.
 
 
Best-of
Wissen von den Besten: Dieser Artikel stammt von sorgfältig ausgewählten Branchen-Expert*innen. Unser Anspruch: fundierte Insights und praxiserprobte Tipps, die dich und dein Projekt wirklich weiterbringen. Erfahre hier mehr über die Autor*innen.
Brand Safety und Hate Speech – beide Themen sind nicht neu. Und trotzdem wird Hate Speech in Bezug auf Brand Safety noch immer unterschätzt.
Was unter einem Markenpost passiert, ist Teil der Marke. Du bist Gastgeberin dieses Raumes und was Nutzer*innen in den Kommentaren schreiben, fällt auf das Unternehmen zurück. Ein Hasskommentar kann den monatelangen Aufbau von Markenvertrauen in Stunden zunichtemachen. Wenn er stehen bleibt, sendet er ein klares Signal: Dieses Unternehmen toleriert das. Schweigen wird zur Kommunikation.
In einer Welt, in der Sichtbarkeit und Polarisierung Hand in Hand gehen, ist Brand Safety eines der dringlichsten Themen im Social Media Marketing.

Was ist Brand Safety – und warum ist sie für Unternehmen heute wichtiger denn je?

Brand Safety beschreibt ursprünglich den Schutz von Marken vor imageschädigenden Werbeumfeldern. Der BVDW definiert es als "Prävention und Verhinderung imagegefährdender und/oder rechtsverletzender Werbeplatzierungen innerhalb eines Werbeumfelds." Neben welchen Inhalten soll meine Werbung nicht erscheinen? Neben extremistischen, sexistischen oder rechtsverletzenden Inhalten zum Beispiel. Aber auch dort, wo der eigene Tonfall fehl am Platz wäre: Ein fröhlicher Werbespot neben einer Katastrophenmeldung wirkt zynisch und schadet der Marke.
Die Frage ist weiterhin relevant. Aber sie reicht nicht aus. Ein markenschädigendes Umfeld entsteht auch direkt unter dem eigenen Content, in den eigenen Kommentarspalten

Welche Arten von problematischen Inhalten gefährden Brand Safety?

Die Bezeichnung "Hass im Netz" ist ein Sammelbegriff und zu unpräzise, um die verschiedenen Phänomene zu beschreiben, die Brand Safety gefährden. Das Workbook "Wir haben ja jetzt einen sicheren Hafen" unterscheidet zwischen folgenden Formen digitalisierter Gewalt:
Hate Speech bezeichnet diskriminierende Aussagen gegen marginalisierte Gruppen – wegen ihrer Identität, Herkunft oder ihres Geschlechts. Hate Speech ist nicht immer offensichtlich. Sie kann sich hinter scheinbar harmlosen Witzen, Sarkasmus oder Anspielungen verbergen. Hate Speech wirkt bedrohend, ausgrenzend oder herabsetzend. Sie tarnt sich zunehmend: Codes, Emojis und Zahlenfolgen werden bewusst eingesetzt, um Plattform-Filter zu umgehen. So steht beispielsweise ein 🚪- Holztür-Emoji in manchen Kreisen für die Leugnung des Holocausts. 
Fear Speech ist eine Form indirekter Hate Speech, die nicht offen aggressiv gegen Gruppen hetzt, sondern darauf abzielt, in der Gesellschaft Angst vor marginalisierten Gruppen zu schüren. Fear Speech wirkt oft harmloser, ist aber genauso gefährlich.
Beispiele:  "Man kann ja nicht mehr sicher auf die Straße" (mit verstecktem Bezug auf bestimmte Gruppen) oder verallgemeinernde Aussagen wie "In deutschen Innenstädten fühlt man sich nicht mehr wie in Deutschland."
Dangerous Speech ruft zu Gewalt gegen Personen oder Gruppen auf, auch solche, die nicht von Diskriminierung betroffen sind, wie Journalist*innen oder Politiker*innen.
Online Incivility (digitale Unhöflichkeit) umfasst soziales Fehlverhalten wie Beleidigungen und unsachliche Kommentare, bedingt durch Online-Enthemmungseffekte und Empörungsökonomie. Sie sind oft weniger gezielt als Hate Speech, aber dennoch schädlich für das Diskussionsklima.
Laut einer Umfrage von SocialHub begegnet jede*r fünfte*n Social Media Manager*in täglich Hasskommentare. Bei Organisationen mit 250 bis 999 Beschäftigten beobachtet fast die Hälfte eine steigende Anzahl. 
Die Folgen sind weitreichend. Mehr als die Hälfte der Befragten bekennt sich seltener im Internet zur eigenen politischen Meinung (57 %) oder beteiligt sich seltener an Diskussionen (55 %) aus Angst vor Hass im Netz. Bei Menschen, die bereits Hass erlebt haben, steigt dieser Verstummungseffekt auf 70 %.
Neben direkten Angriffen gibt es toxische Diskursstrategien: Schuldumkehr, bei der das Täter-Opfer-Verhältnis umgekehrt wird. Framing, das durch bewusste Sprach- oder Bildauswahl Emotionen schürt. Whataboutism, der vom Problem ablenkt. False Balance, die durch Fake Accounts bestimmte Meinungen künstlich verstärkt.
Zusätzlich beeinträchtigen andere Kommentarstrategien das Markenumfeld: Desinformationen, die gezielt Falschinformationen verbreiten und Trolling, bei dem absichtlich Diskussionen gestört werden. Ohne Interesse an einem Diskurs. 
Auch berechtigte Kritik erfordert eine professionelle Moderation. Nicht weil sie per se schadet, sondern weil ein unsouveräner Umgang damit die Brand Safety gefährden kann. 

Warum ist Hate Speech gefährlich für die Brand Safety?

Was in einer Kommentarspalte passiert, ist öffentlich sichtbar und wird mit der Marke assoziiert. In öffentlichen Räumen antwortet ein Unternehmen nie nur einer Person, sondern schreibt immer für die breitere Öffentlichkeit. Der Schaden entsteht nicht nur durch die Existenz problematischer Kommentare, sondern durch das Signal, das ihr Stehenlassen sendet: Dieses Unternehmen toleriert das. 
Soziale Netzwerke verstärken die Dynamik. Algorithmen bevorzugen emotionale Inhalte und die sogenannte Empörungsökonomie sorgt dafür, dass kontroverse Kommentare größere Reichweite erhalten als sachliche. Diese Phänomene werden verstärkt durch teilweise Anonymität, fehlende nonverbale Kommunikation und Enthemmungseffekte.
Die Frage ist daher nicht ob, sondern wie Unternehmen auf Hate Speech reagieren.

Warum ist eine strukturierte Moderation entscheidend für Brand Safety?

Eine Moderation ohne Struktur belastet die tägliche Arbeit, gerade in der Zusammenarbeit von Teams. Jede Entscheidung muss neu getroffen werden, Unsicherheit entsteht und diese Inkonsistenz schadet der Glaubwürdigkeit des Unternehmens.
Drei Werkzeuge schaffen den Rahmen: Die Moderationsleitlinie definiert Werte und Prinzipien und beschreibt, welche Verhaltensweisen und Inhalte nicht toleriert werden. Der Moderationsprozess bietet einen standardisierten Entscheidungsbaum für typische Situationen nach einem Ja-Nein-Schema. Und das Moderationsschema liefert konkrete Handlungsempfehlungen für verschiedene Beitragsarten.
7.4 Werkzeugkasten-1.png
Diese Werkzeuge schaffen Konsistenz und Transparenz. Sie entlasten Community Manager*innen, weil nicht jede Entscheidung individuell getroffen werden muss. Bei Hate Speech ist das besonders wichtig: Klare Regeln definieren, welche Verhaltensweisen nicht toleriert werden und welche konkreten Maßnahmen zu ergreifen sind und schützt so Brand Safety durch einheitliche Standards.
Eine strukturierte Moderation bedeutet auch Schutz für das Team. Schwerwiegende Fälle werden nicht von Einzelpersonen entschieden, sondern durch definierte Prozesse abgesichert. Das reduziert die psychische Belastung.

Welche Ziele verfolgt eine Moderations-Matrix und wie funktioniert sie?

Eine Moderations-Matrix verfolgt ein klares Ziel: Sie schafft einen systematischen Rahmen, damit Unternehmen konsistent und schnell auf problematische Inhalte reagieren können. 
Bildschirmfoto 2026-03-29 um 14.33.56.png
Sie ist das zentrale Werkzeug im Community-Management-Werkzeugkasten und besteht aus drei ineinandergreifenden Elementen:
  • Die Moderationsleitlinie: Das interne Grundlagendokument. Es baut auf der öffentlich sichtbaren Netiquette auf und beschreibt für das Team, welche Verhaltensweisen nicht toleriert werden und welche konkreten Maßnahmen in welchen Situationen zu ergreifen sind. Sie schafft einen einheitlichen Werterahmen für alle, die in der Community aktiv sind.
  • Der Moderationsprozess: Ein standardisierter Entscheidungsbaum im Ja-Nein-Schema. Er beantwortet die Frage: Was tue ich jetzt mit diesem Kommentar? Braucht er eine Reaktion? Ist er faktisch falsch? Verstößt er gegen Regeln? Muss das Krisenteam eingeschaltet werden? Der Prozess nimmt Entscheidungsdruck ab.
  • Das Moderationsschema: Eine konkrete Reaktionstabelle für verschiedene Beitragsarten. Sie legt fest: Auf einen positiven Kommentar reagiere ich so, auf eine Beschwerde so, auf einen Hasskommentar so. Das Schema verhindert, dass jede*r im Team eine eigene Antwortkultur entwickelt und sichert Konsistenz als Markenwert.
7.3_Moderationsprozess.png
Ergänzend ist ein Krisenkommunikationsplan unverzichtbar: Er legt vorab fest, wann ein Vorfall zur Krise wird, wer dann zuständig ist und über welche Kanäle kommuniziert wird. Alle diese Werkzeuge bilden kein starres Korsett, sondern ein lebendiges System, das regelmäßig auf Basis von Erfahrungen angepasst wird.
7.5 Moderationsschema.png
Zusätzlich zur eigenen Matrix lohnt es sich, die Handreichung der Landesanstalt für Medien NRW zu kennen. Ihre Matrix unterscheidet zwischen zwei unterschiedlichen Strategien im Umgang mit Hate Speech: bestärkenden Strategien (Empowerment) und regulierenden Strategien (Dis-Empowerment).
Bestärkende Strategien stärken konstruktive Stimmen. Wer Verständnis zeigt und nachfragt, ermöglicht tieferen Austausch. Der vermittelnde Dialog führt Diskussionen immer wieder auf die Sachebene zurück. Das Umarmen und Motivieren konstruktiver Stimmen verstärkt positive Beiträge. Die Solidarisierung durch klare Positionierung kann die Loyalität der Community stärken. Ironie oder Humor können Spannungen lösen, bergen aber das Risiko von Missverständnissen.
Regulierende Strategien entfernen oder begrenzen problematische Inhalte. Dazu gehört das Ausblenden, Blockieren oder Löschen von Kommentaren – wobei eine transparente Begründung wichtig ist, um Zensurvorwürfe zu vermeiden. Der bewusste Aufmerksamkeitsentzug nach dem Prinzip "Don't feed the troll" kann wirksam sein bei Personen, die nur den Diskurs stören wollen. Bei strafrechtlich relevanten Inhalten ist gezielte Bestrafung durch Anzeigen und Sanktionen notwendig. Aktive Gegenrede setzt Fakten und alternative Perspektiven gegen problematische Aussagen. Die aufwändigste Strategie ist die Dekonstruktion, bei der Hasskommentare detailliert widerlegt werden – als Zeichen für die Community und darüber hinaus. Sie ist eine hilfreiche Ergänzung zum eigenen Werkzeugkasten.

Wie verbessert eine Moderations-Matrix die Brand Safety konkret?

Eine Moderations-Matrix verbessert Brand Safety durch drei Mechanismen:

Konsistenz im Team

Ohne Matrix entscheidet jede*r Community Manager*in unterschiedlich. Was heute gelöscht wird, bleibt morgen stehen. Diese Inkonsistenz schadet der Glaubwürdigkeit und sendet widersprüchliche Signale. Eine Moderations-Matrix schafft einheitliche Standards: Alle Community Manager*innen wissen, welche Inhalte wie behandelt werden. Das stellt sicher, dass Hate Speech konsequent gehandhabt wird,  unabhängig davon, wer moderiert.

Geschwindigkeit der Reaktion

Hate Speech, die stundenlang sichtbar bleibt, schadet der Marke. Eine Moderations-Matrix ermöglicht schnelle Entscheidungen, weil Community Manager*innen nicht jede Situation neu bewerten müssen. Klare Handlungsempfehlungen für verschiedene Beitragsarten beschleunigen den Prozess. Das Vier-Augen-Prinzip bei schwerwiegenden Verstößen bleibt bestehen, aber die Grundentscheidung – löschen, Gegenrede, ignorieren – ist vordefiniert.

Entlastung und Schutz des Teams

Die ständige Konfrontation mit Hate Speech belastet Community Manager*innen psychisch. Schwerwiegende Fälle werden durch definierte Prozesse abgesichert, nicht von Einzelpersonen entschieden. Das reduziert Unsicherheit und schützt das Team.
Brand Safety hängt davon ab, dass problematische Inhalte konsistent und schnell behandelt werden. Eine Moderations-Matrix schafft den Rahmen dafür.

Welche Tools helfen bei der Sicherstellung von Brand Safety?

Eine gute Moderations-Matrix braucht die richtigen Werkzeuge, um in der Praxis zu funktionieren. 
Tools, wie beispielsweise swat.iosocialHub und Fanpage Karma, die Kommentare zentral sammeln und filtern, beschleunigen die Moderation. Sie ermöglichen schnelle Reaktionen auf problematische Inhalte, priorisieren verdächtige Kommentare und dokumentieren Moderationsentscheidungen. 
Social Listening Tools verfolgen zudem Markenerwähnungen in Echtzeit. Sie erkennen aufkommende Diskussionen und potenzielle Krisen, bevor sie eskalieren. Sentiment-Analysen zeigen zudem auf, wie über die Marke gesprochen wird.
Kein Tool ersetzt das System dahinter. Erst wenn Leitlinie, Prozess und Schema stehen, können Tools ihr volles Potenzial entfalten.

Fazit und Ausblick

Brand Safety ist kein Selbstläufer. Sie erfordert aktive, systematische Arbeit. Täglich und nicht nur im Krisenfall. Die Moderations-Matrix ist dabei ein Instrument, das Sicherheit schafft: für die Marke, für das Team und für die Community.
Das Thema Hate Speech wird in Unternehmenskontexten noch immer unterschätzt. Viele Entscheider*innen denken, es reicht, problematische Kommentare zu löschen. Aber löschen allein ist keine Strategie. Es braucht Haltung, Konsistenz und Vorbereitung. Und es braucht Menschen, die diese Arbeit machen – und die dabei geschützt werden.
Mein Ausblick: Die Anforderungen an Brand Safety werden weiter steigen. KI-generierte Inhalte, Deep Fakes und koordinierte Desinformationskampagnen machen es schwieriger, echte von manipulierten Inhalten zu unterscheiden. Gleichzeitig entstehen neue KI-gestützte Moderation-Tools, die bei der Vorfilterung helfen. KI filtert vor, Menschen entscheiden. Denn die Deutungshoheit über die eigene Marke liegt beim Menschen. Dort sollte sie auch bleiben.
 
 
Gastautor*innen Aufruf

Werde Gastautor*in: Du hast in einem bestimmten Bereich richtig Ahnung und möchtest dein Wissen teilen? Dann schreibe uns einfach an reviews-experten@omr.com und bring deine Expertise ein. Wir freuen uns auf spannende Einblicke direkt aus der Praxis.

Tanja Laub

anja Laub ist Pionierin des deutschen Community Managements und Autorin des Buchs „Community". Sie berät Unternehmen beim strategischen Aufbau lebendiger Communities und der Entwicklung von Kommunikationsstrategien. Basierend auf 20 Jahren Community-Erfahrung mit Unternehmen wie SAP, Lufthansa, ETH Zürich, Ärzte ohne Grenzen, SBB und Flughafen München vermittelt sie einen systematischen Ansatz von der strategischen Planung bis zur messbaren Erfolgskontrolle. Als ehemalige Vorsitzende des Bundesverbandes Community Management (BVCM) kennt sie die Herausforderungen der Branche aus erster Hand. Ihre Expertise teilt sie als Hochschuldozentin, in ihrem Podcast „Einhorn und Glitzer" und als Gründerin der Community Glitz.

Alle Artikel von Tanja Laub

Im Artikel erwähnte Softwares

Im Artikel erwähnte Software- oder Service-Kategorien

Ähnliche Artikel