Richtlinien, die festlegen, was in der Facebook-App gestattet ist und was nicht.
Richtlinien für Werbeinhalte und Business-Assets.
Weitere Richtlinien, die für Meta-Technologien gelten.
So aktualisieren wir unsere Richtlinien, messen wir Ergebnisse, arbeiten wir mit anderen zusammen und leisten vieles mehr.
So tragen wir dazu bei, Einmischung zu verhindern, Menschen zum Wählen zu befähigen und vieles mehr zu ermöglichen.
So arbeiten wir mit unabhängigen Faktenprüfern und anderen zusammen, um Falschmeldungen zu identifizieren und diesbezüglich Maßnahmen zu ergreifen.
So prüfen wir Inhalte auf ihren Nachrichtenwert.
So reduzieren wir problematische Inhalte im News Feed.
Ein vierteljährlicher Bericht darüber, wie gut uns die Durchsetzung unserer Richtlinien in der Facebook-App und auf Instagram gelingt.
Bericht darüber, wie wir Personen helfen, ihr geistiges Eigentum zu schützen.
Bericht über Behördenanfragen nach Nutzerdaten.
Bericht über Sperrungen von Inhalten, die uns wegen Verstoßes gegen vor Ort geltendes Recht gemeldet werden.
Bericht über absichtliche Beeinträchtigungen des Internets, die die Fähigkeit der Nutzer einschränken, auf das Internet zuzugreifen.
Ein vierteljährlicher Bericht darüber, was sich die Menschen auf Facebook ansehen, darunter Inhalte, die im Quartal am weitesten verbreitet waren.
Lade aktuelle und frühere regulatorische Berichte für Facebook und Instagram herunter.
Änderungsprotokoll
Änderungsprotokoll
Aktuelle Version
Mobbing und Belästigung treten vielerorts und in den unterschiedlichsten Formen auf, angefangen bei Drohungen und dem Veröffentlichen von personenbezogenen Informationen, bis hin zum Versenden von Drohnachrichten und zur unerwünschten Kontaktaufnahme mit negativen Absichten. Wir tolerieren diese Art von Verhalten nicht, da sie verhindert, dass sich die Menschen auf Facebook sicher und respektiert fühlen.
Wir unterscheiden zwischen Personen des öffentlichen Lebens und Privatpersonen, denn wir möchten Diskussionen zulassen, bei denen es häufig auch um kritische Kommentare zu Personen geht, über die in den Nachrichten berichtet wird oder die über ein großes öffentliches Publikum verfügen. Bei Personen des öffentlichen Lebens entfernen wir Inhalte mit schwerwiegenden Angriffen sowie mit solchen Angriffen, bei denen die Person des öffentlichen Lebens direkt in dem Beitrag oder Kommentar markiert wird.
Für Privatpersonen geht unser Schutz noch weiter: Wir entfernen Inhalte, die darauf abzielen, die Person zu erniedrigen oder bloßzustellen, wie beispielsweise Behauptungen über die sexuellen Aktivitäten einer Person. Wir wissen, dass sich Mobbing und Belästigung gerade auf Minderjährige emotional auswirken können. Deshalb bieten wir mit unseren Richtlinien einen erhöhten Schutz für Nutzer zwischen 13 und 18 Jahren.
Natürlich kommt es beim Teilen von Inhalten stets auf den Kontext und die Absichten an. Deswegen gestatten wir das Posten und Teilen von Beiträgen, wenn dies eindeutig dazu dient, Mobbing und Belästigung zu verurteilen oder darauf aufmerksam zu machen. In bestimmten Fällen benötigen wir eine Eigenmeldung der betroffenen Person, damit wir besser verstehen können, dass sie sich gemobbt oder belästigt fühlt. Wir ermutigen jeden, ein solches Verhalten und derartige Inhalte zu melden und sich mithilfe der auf Facebook zur Verfügung stehenden Tools davor zu schützen.
Unser Mobbing-Präventionshub dient als Anlaufstelle für Jugendliche, Eltern und Pädagogen, die Hilfe bei Problemen im Zusammenhang mit Mobbing oder anderen Konflikten benötigen. Er bietet Schritt-für-Schritt-Anleitungen, einschließlich Informationen, um Gespräche über wichtige Themen wie Mobbing anzustoßen. Erfahre hier mehr darüber, was wir zum Schutz der Nutzer vor Mobbing und Belästigung unternehmen.
Hinweis: Diese Richtlinie gilt nicht für Personen, die Teil einer von der Richtlinie bezüglich gefährlicher Personen und Organisationen abgedeckten Organisation sind, und Personen, die vor 1900 verstorben sind.
Stufe 1: Böswilliges Abzielen auf eine Person durch:
Stufe 2: Abzielen auf Privatpersonen, sogenannte „Limited Scope Public Figures“ (wie Personen, die primär aufgrund ihres Aktivismus berühmt sind, Journalisten oder Personen, die unfreiwillig in der Öffentlichkeit stehen) oder minderjährige Personen des öffentlichen Lebens durch:
Stufe 3: Gezielter Angriff auf Personen des öffentlichen Lebens durch:
Stufe 4: Abzielen auf Privatpersonen, sogenannte „Limited Scope Public Figures“ (wie Personen, die primär aufgrund ihres Aktivismus berühmt sind, Journalisten oder Personen, die unfreiwillig in der Öffentlichkeit stehen) durch:
Stufe 5: Abzielen auf erwachsene Privatpersonen (Eigenmeldung durch diese erforderlich) oder minderjährige Privatpersonen oder minderjährige Personen, die unfreiwillig in der Öffentlichkeit stehen, durch:
Stufe 6: Veröffentlichung von Folgendem bezüglich einer minderjährigen Privatperson:
Stufe 7: Abzielen auf Privatpersonen (Eigenmeldung durch diese erforderlich) durch:
Das Folgende ist untersagt:
Hier einige Beispiele dafür, wie die Durchsetzung für Facebook-Nutzer aussieht: So sieht es aus, wenn eine Person etwas meldet, das nach ihrer Meinung nicht auf Facebook sein sollte, wenn einer Person mitgeteilt wird, dass sie gegen unsere Gemeinschaftsstandards verstoßen hat, und wenn eine Warnmeldung für bestimmte Inhalte angezeigt wird.
Hinweis: Wir nehmen ständig Verbesserungen vor. Deshalb könnte das, was hier zu sehen ist, im Vergleich zu dem, was wir zurzeit verwenden, nicht mehr ganz aktuell sein.
Prozentualer Anteil der Häufigkeit, mit der Personen unzulässige Inhalte gesehen haben
Anzahl der unzulässigen Inhalte, gegen die wir Maßnahmen ergriffen haben
Prozentualer Anteil der unzulässigen Inhalte, die wir erkannt haben, bevor Nutzer sie gemeldet haben
Anzahl der Inhalte, gegen die Personen Einspruch erhoben haben, nachdem wir Maßnahmen ergriffen hatten
Anzahl der Inhalte, die wir wiederhergestellt haben, nachdem wir zuvor Maßnahmen gegen sie ergriffen hatten
Prozentualer Anteil der Häufigkeit, mit der Personen unzulässige Inhalte gesehen haben
Anzahl der unzulässigen Inhalte, gegen die wir Maßnahmen ergriffen haben
Prozentualer Anteil der unzulässigen Inhalte, die wir erkannt haben, bevor Nutzer sie gemeldet haben
Anzahl der Inhalte, gegen die Personen Einspruch erhoben haben, nachdem wir Maßnahmen ergriffen hatten
Anzahl der Inhalte, die wir wiederhergestellt haben, nachdem wir zuvor Maßnahmen gegen sie ergriffen hatten
Wir haben die Möglichkeit, Posts, Kommentare, Storys, Nachrichten oder anderes zu melden.

Wir helfen Menschen dabei, Dinge zu melden, die ihrer Meinung nach von der Plattform entfernt werden sollten.

Wir bitten die meldenden Personen dann, zu beschreiben, worum es geht. Das hilft uns dabei, Meldungen an die richtigen Stellen weiterzuleiten.

Anschließend reichen wir den Bericht ein. Wir sagen auch, was als Nächstes passieren wird.

Nach unserer Prüfung des Berichts senden wir dem meldenden Nutzer eine Benachrichtigung.

Im Support-Postfach stellen wir nähere Informationen zu unserer Prüfungsentscheidung bereit. Wir benachrichtigen die jeweiligen Personen darüber und senden ihnen einen entsprechenden Link zu.

Wenn eine Person glaubt, dass unsere Entscheidung falsch ist, kann sie eine weitere Prüfung verlangen.

Nachdem wir den Inhalt erneut geprüft haben, senden wir unsere endgültige Antwort wieder an das Support-Postfach.

Wenn ein Nutzer etwas postet, das gegen unsere Gemeinschaftsstandards verstößt, werden wir ihn darüber informieren.

Wir gehen dann auch auf verbreitete Irrtümer rund um die Durchsetzung ein.

Wir erklären dem Nutzer in einfachen Worten, warum seine Inhalte entfernt wurden.

Nachdem wir den Kontext unserer Entscheidung dargelegt und unsere Richtlinie erklärt haben, fragen wir die betroffene Person, was sie als Nächstes tun möchte. Unter anderem fragen wir sie, ob wir ihrer Meinung nach einen Fehler gemacht haben.

Wenn die jeweilige Person nicht mit unserer Entscheidung einverstanden ist, bitten wir sie, uns dies genauer zu erläutern.

An dieser Stelle legen wir dar, was als Nächstes passieren wird.

In News Feed und auf anderen Oberflächen verdecken wir bestimmte Inhalte, damit Menschen selbst entscheiden können, ob sie diese Inhalte sehen möchten.

In diesem Beispiel geben wir mehr Kontext dazu, warum wir das Foto verdeckt haben. Der Kontext enthält Informationen von unabhängigen Faktenprüfern.

Weltweit gelten für alle Facebook-Nutzer dieselben Richtlinien.
Unser globales Team aus über 15.000 Reviewern arbeitet jeden Tag daran, die Facebook-Nutzer zu schützen.
Externe Experten, Wissenschaftler, NGOs und Politiker helfen dabei, die Facebook-Gemeinschaftsstandards mitzugestalten.
Informationen dazu, was du tun kannst, wenn du etwas auf Facebook siehst, das gegen unsere Gemeinschaftsstandards verstößt.