Am 7. Januar 2025 kündigte Meta-CEO Mark Zuckerberg an, den Faktencheck auf Plattformen wie Instagram, Facebook und Threads abzuschaffen und die Moderation (also das Löschen von Inhalten) zu reduzieren. Dies hat zur Folge, dass unter dem Deckmantel der Meinungsfreiheit mehr Hasskommentare stehen gelassen werden könnten (verlässliche Analysen sind aufgrund von fehlender Transparenz nicht verfügbar). Diese Entscheidung - und die in seiner Ankündigung vertretene Gleichsetzung von Moderation und Zensur - birgt erhebliche Risiken für den digitalen Diskurs und die Gesellschaft insgesamt.
Die Moderation von Inhalten bedeutet nicht automatisch eine Einschränkung der Meinungsfreiheit. Moderation sichert auch den Schutz von User:innen vor gezielter Diffamierung und Diskriminierung. Ohne klare Moderationsrichtlinien werden insbesondere marginalisierte Gruppen noch stärker zur Zielscheibe von Hassrede, was wiederum ihre Teilhabe am öffentlichen Diskurs einschränkt.
Gleichzeitig ist unbestritten, dass Moderation herausfordernd ist und insbesondere Übermoderation auch problematisch für die Meinungsfreiheit und damit eine funktionierende Demokratie sein kann. Doch die Lösung kann nicht darin bestehen, Moderation abzuschaffen. Die Verantwortung für einen respektvollen Austausch darf und kann nicht allein auf die Nutzenden abgewälzt werden. Plattformbetreiber wie Meta tragen eine zentrale Verantwortung für die Inhalte, die sie auf ihren Seiten zulassen und verbreiten.
Was es braucht, sind verbindliche Regeln, Transparenz seitens der Plattformbetreiber über Moderationsentscheide und klare Verantwortlichkeiten, um einen digitalen Raum zu schaffen, der nicht von Hetze und Desinformation dominiert wird.
Mehr zum Thema: Meta gibt Menschen zur Jagd frei in Annabelle.ch