Facebook avertit désormais si un ami devient un « extrémiste ». La dernière mesure de Facebook contre l’extrémisme surprend les utilisateurs. Détectez et signalez le contenu extrémiste.

Dans l’une des décisions les plus controversées de l’année dernière, Facebook a mis en place une nouvelle fonctionnalité qui indique à l’utilisateur qu’il peut avoir consommé du contenu considéré comme nuisible, et qu’il pourrait avoir des amis sur le réseau social devenus extrémistes.

Cette décision intervient des mois après que Facebook a été utilisé comme base par divers groupes pro-Donald Trump pour organiser l’invasion du Capitole des États-Unis, dans une tentative apparente d’empêcher Joe Biden de voter en tant que nouveau président. La société a d’abord réagi en supprimant Trump de sa plate-forme, considérant que la déclaration qu’elle a publiée encourageait l’attaque.

Mais ce n’était pas la première fois, loin de là, que le rôle de Facebook dans la formation des extrémistes était révélé. Maintenant, la société a mis en place une fonctionnalité avec laquelle elle essaie d’informer les utilisateurs que ces groupes et contenus peuvent être trouvés. Certains utilisateurs aux États-Unis ont reçu deux types de messages contextuels, les avertissant qu’ils pourraient interagir avec du contenu et des personnes « extrémistes ».

Un message demande directement à l’utilisateur « Craignez-vous que quelqu’un que vous connaissez soit devenu un extrémiste ? », tandis que l’autre met en garde plus directement : « Vous avez peut-être récemment été exposé à un contenu extrémiste préjudiciable.

Facebook indique maintenant de l’aide si vous pensez qu’un ami devient extrémiste ????

Dans les deux cas, le message affiche un bouton qui vous permet d’obtenir de l’aide, qui redirige vers des ressources et des informations sur le contenu extrémiste sur le réseau. Il s’agit notamment de groupes de soutien aux militants de groupes violents d’extrême droite.

Il s’agit d’un programme pilote, auquel seuls quelques utilisateurs participent pour le moment. Facebook a confirmé qu’il faisait partie de son engagement envers le sommet de l’Appel à l’action de Christchurch, né en réponse à l’attentat à la bombe en Nouvelle-Zélande de 2019, qui s’est terminé par le meurtre de 51 personnes dans une mosquée. Le responsable a diffusé le meurtre sur les réseaux sociaux et a acquis une grande popularité parmi les groupes extrémistes.

Il est à noter que Facebook n’affiche pas d’informations sur quel contenu a activé ce message, ni lequel de nos amis est celui qui consomme ce type de messages et de vidéos.

De plus, rien n’indique qu’elle supprime le contenu qu’elle juge « violent » et qu’elle a activé le message, soulignant seulement que l’entreprise « se soucie de prévenir l’extrémisme sur Facebook ». En février, la société a affirmé avoir pris des mesures contre 26,9 millions de messages haineux sur sa plateforme.