Facebook a instauré de nouvelles règles ce matin: qu’est-ce qui a changé ?

Le plus grand réseau social du monde a mis à jour ces « Standards de la communauté », un ensemble de (nouvelles) règles à suivre pour la publication de contenu. Il s’agit plus d’une clarification et d’une explication de la méthode de Facebook, plus transparent désormais dans la modération des contenus.

Explications.

Régulièrement, le plus grand réseau social du monde met à jour ses règles du jeu. Depuis quelques années, il se concentrait surtout sur sa fameuse « politique de confidentialité ». Le but était d’apprendre aux utilisateurs à maîtriser la manière dont ils partageaient leur vie privée en publiant des photos, des vidéos ou des messages.

Mais depuis les départs en Syrie de nombreux candidats djihadistes issu du monde occidental, et les attentats contre Charlie Hebdo, Facebook est confronté à un autre problème: comment gérer la propagande d’un groupe terroriste, ou l’apologie de ses activités ?

Le sujet est brûlant, c’est pourquoi le réseau social américain a clarifié les choses en publiant des « Standards de la communauté », lundi matin. Il s’agit d’un ensemble de règles et de conseils pour les publications sur Facebook. Ou plutôt d’une bonne mise au point car, comme l’a rappelé le géant californien, il n’a jamais autorisé les contenus faisant l’apologie de la violence et continuera à les modérer.

Donner plus d’informations

« Concrètement, rien n’a changé dans notre politique de contrôle des contenus », a expliqué Monika Bickert, responsable du contrôle des contenus sur Facebook, au journal français Le Figaro. « Il s’agit de donner plus d’informations sur notre travail ».

Les règles sont donc présentées plus clairement, et il suffit en effet de se rendre sur cette page pour s’en apercevoir. Elles vous aideront à comprendre le type de contenu pouvant être partagé sur Facebook, et celui susceptible d’être signalé et supprimé.

On remarque tout de même l’apparition de nouveaux concepts explicitement détaillés: « organisations dangereuses », « attaque contre des figures publiques », « activité criminelle » ou « violence et exploitation sexuelle ». Si vous souhaitez les détails, il faut lire entièrement la page susmentionnée. Mais nous avons fait un petit condensé…

Quatre principes clés

Assurer la sécurité des utilisateurs: tolérance zéro vis-à-vis des comportements qui mettent les utilisateurs en danger, qu’il s’agisse d’organiser ou d’encourager la violence dans le monde réel, ou de harceler d’autres personnes.

Encourager un comportement respectueux: vous devez tenir compte de votre audience lorsque vous partagez un contenu susceptible d’offenser autrui. Facebook permet à chacun de décider facilement qui peut voir le contenu partagé, et ses règles interdisent les contenus sexuellement explicites, les propos haineux et la violence.

Reconnaître la diversité culturelle: pour garantir que les règles reflètent la diversité de sa grande communauté, Facebook recherche et examine « les avis de spécialistes mondiaux », ainsi que les commentaires des utilisateurs.

Mettre à disposition des outils pour contrôler ce que vous voyez: Facebook propose depuis longtemps des outils pour contrôler ce que vous voyez, effectuer des signalements, ou communiquer avec les utilisateurs qui publient des contenus qui vous déplaisent ou que vous désapprouvez. Tout cela continue et se peaufine avec le temps.

Un milliard d’avis différents

Le réseau social rappelle enfin qu’il est utilisé « par une communauté de plus d’un milliard de personnes ».

Il est donc délicat, on l’imagine, de mettre des règles qui plaisent à New-York comme à Moscou, à Jérusalem comme à Kinshasa, à Bruxelles comme à Buenos Aires, à Rome comme à Tokyo.

Il y aura donc des frustrés et des mécontents, c’est certain.

Mathieu Tamigniau