Politiques qui définissent ce qui est autorisé et ce qui ne l’est pas sur l’application Facebook.
Politiques qui définissent ce qui est autorisé et ce qui ne l’est pas sur l’application Instagram.
Politiques relatives au contenu publicitaire et aux éléments professionnels.
Autres politiques applicables aux technologies Meta
Comment nous mettons à jour nos politiques, mesurons des résultats, collaborons et bien d’autres choses.
Comment nous supprimons les réseaux antagoniques coordonnés afin de protéger les personnes utilisant nos services
Défis que nous étudions et relevons à travers le monde
Recherche en sécurité autour des réseaux antagoniques que nous avons supprimés depuis 2017
Comment nous contribuons à empêcher les interférences, encourageons des personnes à voter et bien d’autres choses.
Comment nous collaborons avec des médias de vérification indépendants et autres pour identifier les fausses informations et intervenir.
Comment nous évaluons la pertinence du contenu.
Notre stratégie pour limiter la diffusion de contenus problématiques dans le fil d’actualité.
Comment nous développons les systèmes d’IA.
Accès complet aux données publiques depuis Facebook et Instagram
Base de données complète et consultable de toutes les publicités actuellement diffusées sur les technologies Meta
Outils supplémentaires pour la recherche approfondie sur les technologies et programmes Meta
Rapport trimestriel sur l’efficacité de la mise en application de nos politiques sur les applications Facebook et Instagram.
Rapport sur notre efficacité à aider nos utilisateurs à protéger leur propriété intellectuelle.
Rapport sur les demandes gouvernementales de données.
Rapport concernant les cas de restriction du contenu qui nous est signalé comme enfreignant des lois nationales.
Rapport sur les perturbations intentionnelles d’Internet qui limitent la capacité des utilisateurs à se connecter à Internet.
Rapport trimestriel sur ce que les personnes voient sur Facebook, y compris les contenus qui bénéficient de la plus large diffusion au cours du trimestre.
Télécharger les rapports réglementaires actuels et précédents pour Facebook et Instagram.
Changelog
Changelog
Version actuelle
Nous pensons que les personnes s’expriment et interagissent plus librement lorsqu’elles ne se sentent pas attaquées en fonction de leur identité. C’est la raison pour laquelle nous interdisons tout type de discours haineux sur Facebook. Ces derniers créent un environnement intimidant et excluant et peuvent, dans certains cas, faire l’apologie de la violence hors ligne.
Nous définissons les discours haineux comme une attaque directe contre des personnes, plutôt que contre des concepts ou des institutions, fondée sur ce que nous appelons des caractéristiques protégées : l’origine ethnique, l’origine nationale, le handicap, la religion, la caste, l’orientation sexuelle, le sexe, l’identité de genre, et les maladies graves. Nous définissons une attaque comme un discours violent ou déshumanisant, des stéréotypes offensants, une déclaration d’infériorité, une expression de mépris, de dégoût ou de rejet, une insulte ou un appel à l’exclusion ou à la ségrégation. Nous interdisons également l’utilisation de stéréotypes préjudiciables, que nous définissons comme des comparaisons déshumanisantes historiquement utilisées pour attaquer, intimider ou exclure des groupes spécifiques et souvent liées à la violence hors ligne. Nous considérons l’âge comme une caractéristique protégée lorsqu’il est mentionné parallèlement à une autre caractéristique protégée. Nous protégeons également les réfugiés, les migrants, les immigrants et les demandeurs d’asile contre les attaques les plus graves, bien que nous autorisions les commentaires et les critiques sur les politiques d’immigration. Dans le même ordre d’idées, nous protégeons certaines caractéristiques, comme la profession, lorsqu’elles sont mentionnées parallèlement à une caractéristique protégée. En fonction des nuances locales, nous prenons parfois en considération certains mots ou certaines phrases, comme les termes fréquemment utilisés pour désigner les groupes de CP.
Nous interdisons également les insultes qui sont utilisées pour attaquer des personnes sur la base de leurs caractéristiques protégées. Toutefois, nous reconnaissons que les utilisateurs partagent parfois des contenus incluant des insultes ou des discours haineux de quelqu’un d’autre pour les condamner ou sensibiliser l’opinion publique. Dans d’autres cas, des discours, y compris des insultes, qui pourraient enfreindre nos standards peuvent être utilisés de manière autoréférentielle ou de manière valorisante. Nos politiques sont conçues pour permettre ce type de discours, mais nous demandons aux utilisateurs d’indiquer clairement leur intention. Nous nous réservons le droit de supprimer le contenu concerné lorsque l’intention n’est pas claire.
En savoir plus sur notre approche en matière de discours haineux.
Niveau 1
De contenu ciblant une personne ou un groupe de personnes (y compris tous les groupes, sauf ceux considérés comme des groupes non protégés décrits comme ayant commis des crimes violents ou de nature sexuelle ou représentant moins de la moitié d’un groupe) qui partage l’une des caractéristiques ou statuts d’immigration protégés susmentionnés avec :
Niveau 2
Contenu ciblant une personne ou un groupe de personnes du fait de leur(s) caractéristique(s) protégée(s) par :
Niveau 3
Contenu ciblant une personne ou un groupe de personnes du fait de leur(s) caractéristique(s) protégée(s) par l’un des moyens suivants :
Le contenu qui décrit ou cible négativement des personnes par des injures ; ces dernières étant définies comme des mots qui créent intrinsèquement une atmosphère d’exclusion et d’intimidation à l’encontre de personnes sur la base d’une caractéristique protégée, souvent parce que ces mots sont liés à une discrimination, une oppression et une violence historiques. Lorsqu’il vise quelqu’un qui n’est pas membre du groupe PC que l’insulte vise intrinsèquement.
Ne publiez pas :
Dans certains cas, nous autoriserons du contenu qui pourrait enfreindre les Standards de la communauté lorsque celui-ci est considéré comme satirique. Le contenu sera uniquement autorisé si les éléments en infraction du contenu sont satiriques ou attribués à une chose ou une personne afin de se moquer d’elle ou de la critiquer.
Découvrez quelques exemples d’une mise en application pour les utilisateurs de Facebook : comme le signalement d’un élément qui selon vous n’a pas sa place sur Facebook, la notification que vous avez enfreint nos Standards de la communauté, ou encore un écran d’avertissement sur un contenu donné.
Remarque : Nous nous améliorons en permanence : ce que vous voyez ici peut ne pas correspondre à la version actuelle.
Pourcentage de fois où les utilisateurs ont vu des contenus en infraction
Nombre de contenus en infraction pour lesquels nous avons pris des mesures
Pourcentage de contenus en infraction que nous avons identifiés avant qu’ils ne soient signalés
Nombre de contenus ayant fait l’objet d’un appel après notre intervention
Nombre de contenus que nous avons restaurés après avoir pris des mesures initiales
Pourcentage de fois où les utilisateurs ont vu des contenus en infraction
Nombre de contenus en infraction pour lesquels nous avons pris des mesures
Pourcentage de contenus en infraction que nous avons identifiés avant qu’ils ne soient signalés
Nombre de contenus ayant fait l’objet d’un appel après notre intervention
Nombre de contenus que nous avons restaurés après avoir pris des mesures initiales
Nous proposons une option d’appel, que cet appel porte sur une publication, un commentaire, une story, un message ou un autre élément.

Nous aidons les utilisateurs·trices à signaler tout élément qu’ils ou elles estiment ne pas avoir sa place sur notre plate-forme.

Nous demandons aux personnes de nous en dire plus sur ce qui ne va pas. Cela nous permet d’envoyer le rapport au bon endroit.

Suite à ces étapes, nous soumettons le rapport. Nous expliquons ensuite les étapes suivantes.

Une fois que nous avons examiné le rapport, nous enverrons un rapport à l’utilisateur·trice ayant effectué le signalement.

Nous partagerons davantage de détails au sujet de notre décision dans l’Espace Assistance. Nous notifierons les personnes de la présence de cette information à cet endroit, et leur enverrons un lien.

Si la personne estime que notre décision est erronée, elle peut demander un nouvel examen.

Nous enverrons une réponse définitive dans l’Espace Assistance après avoir examiné le contenu.

Lorsqu’une personne publie un contenu qui n’observe pas nos règles, nous l’en informons.

Nous gérons également les idées reçues courantes et expliquons pourquoi nous prenons la décision de cette mise en application.

Nous expliquons en termes simples la règle qui s’applique.

Si des personnes ne sont pas d’accord avec la décision, elles peuvent demander un nouvel examen et fournir davantage d’informations.

Nous définissons des attentes sur ce qui se produira après la soumission de l’examen.

Nous couvrons certains contenus dans le fil d’actualité et à d’autres endroits, afin que les personnes puissent choisir de les voir ou non.

Dans cet exemple, nous donnons davantage de contexte au sujet de la raison pour laquelle nous avons couvert la photo, à l’aide de médias de vérification indépendants.

Nous appliquons les mêmes politiques dans le monde entier, pour chaque utilisateur de Facebook.
Notre équipe internationale compte plus de 15 000 examinateurs qui mettent chaque jour tout en œuvre pour protéger les utilisateurs de Facebook.
Des spécialistes externes, des universitaires, des ONG et des responsables politiques contribuent à l’élaboration des Standards de la communauté Facebook.
Découvrez ce que vous pouvez faire si vous voyez quelque chose sur Facebook qui va à l’encontre de nos Standards de la communauté.