Le 7 janvier 2025, le PDG de Meta, Mark Zuckerberg, a annoncé la suppression de la vérification des faits sur des plateformes comme Instagram, Facebook et Threads, ainsi qu’une réduction de la modération (c’est-à-dire la suppression de contenus problématiques). Cette décision risque de laisser circuler davantage de commentaires haineux, sous couvert de liberté d’expression — analyses fiables impossibles à obtenir en raison du manque de transparence. L’assimilation de la modération à de la « censure », telle que défendue dans son annonce, comporte des risques considérables pour le débat en ligne et la société dans son ensemble.
La modération de contenu n’équivaut pas à une restriction de la liberté d’expression. Elle protège notamment les utilisateur-rices contre la diffamation et la discrimination ciblée. Sans directives claires, les groupes marginalisés deviennent plus vulnérables aux discours haineux, ce qui limite leur participation au débat public.
Il est vrai que la modération représente un défi et que sa surutilisation peut nuire à la liberté d’expression et au bon fonctionnement de la démocratie. Mais la solution n’est pas de la supprimer. La responsabilité d’un échange respectueux ne peut pas reposer uniquement sur les utilisateur-rices. Les plateformes comme Meta ont une responsabilité centrale pour les contenus qu’elles diffusent et autorisent.
Ce dont nous avons besoin, ce sont des règles contraignantes, de la transparence dans les décisions de modération et des responsabilités clairement définies, afin de créer un espace numérique où la haine et la désinformation ne dominent pas le débat.
Pour plus d'informations sur le sujet: Meta gibt Menschen zur Jagd frei sur Annabelle.ch (en allemand)