Ich kann mich noch gut an die Anfänger von Socialmedia erinnern. Damals waren es der Bildschirmtext (BTX – nicht mit BMX zu verwechseln) und die Mailboxen, mit denen man sich wahlweise via Akustikkoppler oder Modem über die analoge Telefonleitung eingewählt hat. Die Eltern mussten schon einmal damit leben, dass sie den ganzen Nachmittag nicht telefonieren konnten, wenn Junior am surfen war. Das war auch die Zeit der teuren Fernbeziehungen, deren Wert sich über die monatliche Telefonrechnung beziffern ließ.

Anfänge, soziale Strukturen und das Fidonet

Die damaligen Mailboxen waren niemals unabhängig von sozialen Strukturen, sie waren lokale soziale Strukturen, die sich über Usertreffen pflegten und die in das übergeordnete Fidonet eingeordnet wurden. Eine Mailbox hatte einige User, vielleicht im unteren zweistelligen Bereich. Man traf sich zu Sportveranstaltungen oder anderen Aktivitäten. Die Altersstruktur war heterogen, aber gefahrlos, da sie nicht außerhalb gemeinschaftlicher Strukturen existierte. Onlineeskalationen ließen sich vermeiden, weil das nächste Usertreffen schon auf der Matte wartete. Dieser Vorläufer des „Internets“ war also nichts, was an den örtlichen Strukturen vorbeiging oder diese durchkreuzte, es war ein eingebetteter Teil sozialer Strukturen. Über das Fidonet gab es wiederum die Anbindung ans Usenet.

FidoNet
Das FidoNet ist ein Mailboxnetz, das sich in den 1980er und 1990er Jahren über die ganze Welt verbreitete, dann aber durch das Internet sehr stark verdrängt wurde. Mit Stand 2004 gibt es immer noch weltweit einige Tausend aktiv am FidoNet beteiligte Systeme.
https://de.wikipedia.org/wiki/FidoNet

Moderation war nichts, was im luftleeren Raum existierte. Natürlich gab es Moderation, aber im Regelfall verlagerten sich grundlegende Ansagen auf die Treffen. Das zu verstehen ist hilfreich, dass es einmal eine Struktur im virtuellen Raum gab, die sich nicht wie eine Parallelwelt entwickelte.

Das Fediverse als Fortführung des sozialen Gedankens

Der Sprung ist jetzt etwas groß, aber thematisch sind wir bei einem Vorteil, den viele Fediverse Plattformen besitzen. Eine Instanz hat einen örtlichen oder thematischen Schwerpunkt. Menschen, die in München ins Fediverse gehen, können sich beispielsweise auf muenchen.social anmelden. Neben den privaten Kontakten gibt es eine lokale Timeline, in der sich Menschen aus München treffen. Es ist Abbild einer örtlichen sozialen Struktur. Danach folgen weitere Kreise, die sich aus den Kontakten der Menschen ergeben, und aus der Föderation der Verbindungen der Nutzerinnen. Es ist vergleichbar mit dem Fidonet, weil es soziale Anbindungen hat und ein soziales Gefüge darstellen kann. Entsprechend existiert Moderation nicht nur im virtuellen Raum, sondern auch auf Stammtischen. Verhält sich jemand auf seiner Instanz völlig daneben, kann das zu einem Eingriff der Moderation führen, die das Gefüge erhalten und schützen will. Wir müssen immer daran denken, dass es eine lokale Struktur ist. Die Moderation wendet sich in solchen Situationen an das Innenleben der Instanz. Es gibt wiederum auch Eingriffe von föderierten Instanzen, deren Nutzerinnen oder die Instanz selbst gegen den gemeinsamen Wertekonsens verstoßen, was in der härtesten Form zur Sperrung der Instanz durch andere Instanzen führen kann. Moderation wirkt in diesem Fall als Abwehr nach Außen. Handelt es sich um Einzelfälle von Zerwürfnissen, können auch Nutzerinnen andere Accounts blocken oder muten. Viele Menschen vertreten die Auffassung, dass Muten ein milderes Mittel wäre. Ich halte es tatsächlich für ein härteres als einen Block, weil die betroffene Person nichts davon mitbekommt und vielleicht weiter Mühe in Beiträge investiert, weil sie davon ausgeht, dass diese noch gelesen werden. Man muss berücksichtigen, dass es nicht selten Missverständnisse sind, die zur Zerwürfnissen führen und es trotzdem möglich machen, andere Menschen, die hinter der Tastatur sitzen, als Menschen mit wertvoller Zeit wahrzunehmen, insofern ist ein Block radikaler, aber ehrlicher und wertschätzend. Das ist auch der Grund, warum ich selten stummschalte, sondern blocke: ich respektiere trotz allen Unterschiedlichkeiten, Meinungsdifferenzen oder Situationen, dass die Zeit des anderen Menschen nicht verschwendet werden muss. Außerdem sind die wenigsten Menschen monothematische Wesen, worauf ich später noch einmal zurückkommen werde, wenn es um bestimmte Moderationstools geht.

Moderationsverständnis

Moderation ist eine Ansatz, Daten und Nachrichten zu filtern und zu steuern, Gespräche in geregelte Bahnen zu bringen, und vielleicht die extremeren Punkte zu kappen, die zu einer grundsätzlichen Störung der Kommunikation führen könnten. Vom Ursprung stammt der Begriff Moderation aus dem Lateinischen und bedeutet „die Mitte finden“. In dieser Mitte bewegen sich Gespräche, die von allen Gesprächspartnern getragen werden können. Dieser Punkt ist wichtig für die Frage, welche Bedeutung eine Community haben sollte, denn Kommunikation bewegt sich im konsensualen Rahmen von Gruppen. Es gibt kulturell unterschiedliche Formen der Streitkultur und Gesprächsführung. Die Problematik autoritärer Kommunikation liegt darin, dass der Konsens der Gruppe missachtet und die Gruppe nach den eigenen Kriterien gesteuert wird. Das führt dort zu Konflikten, wo marginalisierte Gruppen von einer autoritären Administration eine Moderation erwarten, die nicht mit der Wertekonsens der Administration übereinstimmt. Wenn die Moderation selbst nicht zu dieser Gruppe gehört, wird sie zwangsläufig erst dann handeln können, wenn die Gruppe sie auf Probleme aufmerksam macht. Einfach weil sie Erfahrungen, die marginalisierte Gruppen oft machen mussten, nicht teilt und deshalb keinen Zugang dazu hat. Es könnte nun helfen, Betroffene dieser Gruppen zu Moderatoren zu machen, allerdings bedeutet es nicht zwangsläufig, dass diese Gruppe Erfahrungen anderer Minderheiten teilt. Eine autoritäre Moderation erweist sich generell als schwierig.

Zwischen Autorität, Individuum und Community

Dieser Punkt ist wichtig, weil die Frage, ob wir Moderation autoritär oder gemeinschaftlich (Community Standards) gestalten wollen, maßgeblich die Frage unserer Netzwerke betrifft. Eine autoritäre Moderation benötigt eine autoritäre Handlungsstruktur, ein zentralistisches System, das Moderationsmaßnahmen „top to down“ durchsetzen kann. Ein dezentrales System, das die Daten auf verschiedene Systeme, Knotenpunkte und Rechner verteilt, eignet sich nicht für autoritäre Moderationsmaßnahmen. Gleichzeitig erwarten Menschen von dezentralen Systemen manchmal autoritäre Moderation, was zu einer in sich widersprüchlichen Position führt, da die Förderung und Entwicklung dezentraler Systeme gleichbedeutend mit der Reduzierung oder gar Verunmöglichung zentraler Moderationsstrukturen ist. Nicht selten erwarten Menschen zentrale Moderation, wenn sie mit dem zu moderierenden Inhalt nicht übereinstimmen, lehnen aber jeden Eingriff gegen Inhalte ab, wenn diese ihren Überzeugungen entsprechen. Übrigens kein virtuelles Problem, sondern im Alltag beobachtbar: Menschen, die jede Freiheit für sich beanspruchen wollen, schreien oft am Lautesten, wenn der Nachbar einen Gartenzwerg zu viel in seinem Garten zu stehen hat. Wir reden hier über keine Besonderheiten, sondern über die Frage des Zusammenlebens und dem Maß an Regulierungen, die wir in unseren Gesellschaften haben wollen. So sind in den Vereinigten Staaten transfeindliche Aussagen oft von der Meinungsfreiheit gedeckt, während wir in Deutschland Konsens darüber haben, dass solche Äußerungen inakzeptabel sind, weil sie Menschen abwerten, beleidigen, diskriminieren und verletzen, und ganz davon abgesehen in den meisten Fällen unwissenschaftlich und gar wissenschaftsfeindlich sind.

Wie ist es aber möglich, autoritär gegen solche Äußerungen vorzugehen, wenn wir gleichzeitig dezentrale Strukturen aufbauen wollen, die jeglichen autoritären Eingriff verunmöglichen? Ich möchte zwei Beispiele aus der jüngeren Geschichte von ATmosphere geben. Auf Bluesky hatte sich ein amerikanischer Journalist registriert, der für seine transfeindlichen Äußerungen bekannt sein soll. Obwohl dieser Journalist schon einmal gesperrt war, wurde er vom Bluesky Team wieder freigeschaltet. Die Begründung war, dass diese Person nicht gegen die Community Richtlinien verstoßen hätte.

Paul Frazee's avatar
Paul Frazee
@pfrazee.com

There's the substance of the signal issue, and then there's the pattern of behavior that jay was responding to -- the constant, _constant_ off topic responses that make this tedious. On the substance, it's really just that the guy didn't violate the ToS. I'm sorry, that's just it

Ein Großteil der Community sah das offensichtlich anders und forderte von Bluesky, die Person zu sperren, was Bluesky ablehnte.

banning people in regards to saying things about charlie kirk, changing their TOS retroactively to protect a transphobe named Jesse Singal, the ceo was genuinely mocking trans people voicing their complaints about the hypocrisy

Es wurde hier ein autoritärer Eingriff erwartet, den Bluesky mit dem Verweis auf die Moderationstools, die jeder Nutzerin zur Verfügung stehen, ablehnte. Gleichzeitig hatte Bluesky in anderen Fällen überhaupt kein Problem damit, autoritär einzugreifen. Ein Beispiel ist die Sperrung von 72 Benutzerkonten auf Druck der türkischen Regierung.

Zensur auf Bluesky: Wie die Plattform der Türkei nachgab – und warum das nicht das Ende ist
Die Social-Media-Plattform Bluesky, einst als Hoffnungsträger für eine offenere Alternative zu X (ehemals Twitter) gefeiert, hat nun eine erste Kratzer im Lack: Das Unternehmen hat auf Druck der türkischen Regierung reagiert – und dabei 72 Nutzerkonten gesperrt. Doch es gibt einen Umweg, der betroffenen Nutzer:innen dennoch Zugang ermöglichen könnte.
https://www.gizmodo.de/zensur-auf-bluesky-wie-die-plattform-der-tuerkei-nachgab-und-warum-das-nicht-das-ende-ist-2000021688

Es gab noch einen anderen Fall, als Bluesky Nachrichten gelöscht hat, die sich vermeintlich abfällig über den Tod von Charly Kirk äußerten.

Bluesky issues warning to any users celebrating Charlie Kirk assassination
Charlie Kirk, a conservative commentator, died on Wednesday after being shot in the neck during a speech in Orem, Utah.
https://www.newsweek.com/bluesky-chariie-kirk-assassination-warning-2128023

Die Erklärung, die dafür nicht selten gefunden wurde war, dass Bluesky noch unter dem Druck der Trump Administration stehen würde und dieses Problem zu lösen versuche, indem sie einen Teil ihrer Daten in die Schweiz auslagern wollen. Das mag auf den ersten Blick plausibel klingen, dennoch bleibt ein fader Beigeschmack: denn das würde bedeuten, Bluesky hätte auch unter dem Druck der türkischen Regierung gestanden, so what? Neben diesen Sperrungen kam es auch zur Sperrung eines prominenten Blacksky Community Mitglieds.

Rudy wants revolution.'s avatar
Rudy wants revolution.
@rude1.blacksky.team

I hear and see your concerns. Over the weekend, a couple users hosted on Blacksky's PDS were banned from the Bluesky app and thus the Bluesky API servers. This was a weakness of our system I've been aware of and hoped we had more time to address before any kind of public incident. 1/11

Obwohl Blacksky seine eigenen Server hat und autark agiert, schien es einen Grund zu geben, warum die Sperrung bei Bluesky auch dazu führte, dass der Nutzer nicht auf Blacksky angezeigt wurde. Der Grund war schnell gefunden. Blacksky hatte zu diesem Zeitpunkt noch auf die AppView (jetzt Applikation) von Bluesky zurückgegriffen.

Paul Frazee's avatar
Paul Frazee
@pfrazee.com

Applications that use the Bluesky backend (aka "appview") are still affected by Bluesky's moderation There is a pretty aggressive push to make it easier to run your own backend, so that fewer apps end up reusing Bluesky's

Aber auch hier, die Frage von dezentraler und zentraler Moderation. Denn wenn es unabhängige AppViews gibt, obliegt es den Communitys, Moderation gemäß ihrer Überzeugungen und ihres Gruppenkonsens eigenständig zu gestalten. Das kann dazu führen, dass innerhalb einer Community Menschen schreiben werden, die von anderen Communitys abgelehnt werden. Auch der typische Instanzblock, den das Fediverse in diesen Fällen einsetzt, ist ein Eingriff in die Dezentralität, indem man ganze Instanzen vom Routing ausschließt. Ein solcher Block ist weiterhin ein Eingriff in die Kommunikationswege aller Accounts, die auf dieser Instanz sind. Für die Nutzer existiert in diesem Moment die Erfahrung eines autoritären Eingriffs. Es löst übrigens das Problem nicht: denn der Instanzblock unterbindet zwar die Kommunikation, aber lässt die Kommunikation im isolierten Rahmen weiter bestehen. Die Ideen sind nicht aus der Welt. Als Trump sich den Mastodon Code schnappte und daraus Truth Social bastelte, führte das zum Block durch einen Großteil der Fediverse Instanzen. Trotzdem existiert Truth Social weiterhin und damit eine Plattform, die diese Ideen verbreitet.

Moderation als Individuum oder Community

Ich habe dieses Beispiel angeführt, weil das ein häufiger Vorwurf von jenen ist, die meinen „Blocken ist nicht ausreichend, weil der Account im System noch sein Unwesen treibt". Es ist aber nicht anders als wenn eine Instanz geblockt wird, weil die Ideen auf dieser Instanz trotzdem noch im Umlauf sind. Ein Block muss also so programmiert werden, dass er nicht nur die Kommunikation zwischen geblockten und blockendem Account unterbricht, er sollte auch verhindern, dass der Beitrag für andere Accounts sichtbar ist und damit eine gewisse Schutzfunktion erfüllen.

Bei Twitter war es leider so, dass der Beitrag einer Person auch nach einem Block weiterhin sichtbar war und teilweise durch einen selbst aufgeklappt werden konnte. In einer solchen Umgebung ist blocken wirklich nicht ausreichend. Auch das beliebte Einklappen von Beiträgen ist nicht ausreichend, wenn wir Wörter stummschalten. Es sollten darüber hinaus weitere Tools zur Verfügung stehen, durch die eine Community den Informationsfluss gestalten kann, auch ohne auf eine zentralistische Autorität zurückgreifen zu müssen. Zentrale, autoritäre Systeme kennen insofern nur die Administration, die von oben wirkt, und auf der anderen Seite das Individuum, das sich von toxischen Einflüssen fernhalten muss. Eine autoritäre, zentrale Organisation hinterlässt das Individuum tatsächlich in der Vereinzelung und der Idee, dass es sich um sich selbst kümmern müsse. Wenn es sich aber selbst darum kümmern muss, die Beiträge zu blocken, die ihm emotional schaden, ist nichts gewonnen, weil es diese Beiträge gelesen hat und damit einer Verletzung ausgesetzt war. Gleichzeitig bedeutet aber eine Moderation durch die Community, dass die Moderation eben durch die Menschen der Community erfolgt, die damit gleichzeitig diesen Verletzungen ausgesetzt werden. Rudy Fraser erwähnte in einem Talk, wie stolz er auf sein Moderationsteam von Blacksky ist, weil sie sich den ganzen rassistischen und misogynen Kram geben müssen, den sie zum Schutz der Community filtern.

Wir brauchen Tools und wir brauchen Programmierer, die uns diese Tools zur Verfügung stellen. Nur in zentralistischen Systemen brauchen die Nutzerinnen keine Tools. Die Moderation übernimmt das zentrale System. Die Aufgabe von Programmierern ist nicht, für uns die Moderation zu übernehmen, sondern uns Tools zu geben, damit wir unsere Communitys schützen können. Die Forderung nach autoritären Eingriffen ist dann unnötig, wenn uns die Autorität Tools zur Verfügung gestellt hat, mit denen wir als Community – und das bedeutet eben nicht als Einzelmenschen – Alles aus unserer gemeinsamen Erfahrung und damit aus der Erfahrung der Individuen unserer Community ausschließen können, was unsere seelische Gesundheit gefährdet. Das bedeutet, toxische Individuen aus unserer gemeinsamen Erfahrung ausblenden zu können.

Muss das durch die Programmierer und Administratoren erfolgen oder reichen hierfür die schon angesprochenen Tools ? Das klassische Konzept von sozialen Medien ist eine Machtkonzentration von Administration, Moderation und technischer Infrastruktur. Dieses Konzept bindet Moderation und Administration an einen konkreten Server, einem Server, auf dem unsere Daten liegen. Von so einer Struktur können wir autoritäres Handeln erwarten. Man sperrt einen Nutzer aus, der hat damit keinen Zugriff mehr auf seine Daten und keinen Zugang mehr, um seine Beiträge zu verbreiten. Ein dezentrales System kann das im Kleinen abbilden, indem die einzelnen Instanzen an einen eigenen Server, mit eigener Moderation und den Beiträgen der Nutzer gebunden sind und dort wiederum autoritär agieren. Kürzlich gab es im Fediverse einen Fall, als ein Nutzer problematische Accounts, die gegen die Community-Richtlinien der Instanz verstoßen hatten, gemeldet hat (tatsächlich also kein explizites Bluesky Problem, wie es manche Meinungsmacher gerne darstellen wollen) und daraufhin selbst vom Admin gesperrt wurde, weil der Admin mit den Überzeugungen der gemeldeten Accounts übereinstimmte. Somit existiert innerhalb dezentraler Netzwerke nicht minder eine Möglichkeit zum autoritären Handeln. Der meldende Nutzer war daraufhin alle seine Beiträge und seine Kontakte los. Das war im Grunde nur möglich, weil es zu einer Bündelung von Daten gekommen ist. Beiträge, die nicht dem Nutzer gehörten, sondern auf dem Server einer anderen Person gespeichert waren und keine Exportmöglichkeit hatten. Weiterhin das Fehlen einer unabhängigen Moderation. Moderatoren sind in den meisten Fällen an die Server gebunden, die sie moderieren, und mit ihren Daten und Kontakten genauso gebunden wie die restlichen Nutzerinnen des Servers. Im Fediverse gibt es den Ansatz einer nomadischen Identität innerhalb der Hubzilla-Familie ((streams)/Forte), die dieses Problem der Datensicherheit bereits angegangen ist und eine Realität gegen die Willkür von Admins (oder druckausübender Dritter) setzen.

Nomadic identity, brought to you by Hubzilla
If you haven’t heard of Hubzilla yet, it is an advanced platform for online communications and content publishing powered by a…
https://medium.com/@tamanning/nomadic-identity-brought-to-you-by-hubzilla-67eadce13c3b

Ein Vorteil ist, durch die dauerhafte Synchronisierung von geklonten Kanälen sind die jeweiligen Kanäle immer Up-to-date und es entfällt der Schritt eines Export-Import-Vorgangs. Allerdings obliegt die Moderation hier ebenfalls dem Einzelnen und die Möglichkeit eines Schutzes für den Einzelnen, wie ich ihn bereits beschrieben hatte, ist nicht möglich.

Du bist der Moderator! - Hubzilla KnowledgeDB
Viele heiße Diskussionen bezüglich des Fediverse drehen sich rund ums Thema Moderation. Es geht darum, unangemessene Beiträge zu entfernen, Verfasser ggf. zu sanktionieren, Themen auszublenden, Nutzer ggf. zu sperren oder zu blockieren... es geht um die Kontrolle, ob Gesetze eingehalten werden oder ob die Community- (Server-) Regeln beachtet werden.
https://info.hubzilla.hu/de/du_bist_der_moderator.html

Kompetenzfragen von Moderationsteams

Es entsteht noch eine ganz andere Problematik bei Moderationen, die an einen Server gebunden sind, unabhängig von der Frage, ob die technische Administratorin gleichzeitig die Moderatorin ist oder mit einem Team an Nutzerinnen arbeitet, die auf dem Server wirken. Die Kompetenz. In klassischen Socialmedia Systemen hat die Moderation Befugnisse, um Nutzerinnen oder Beiträge aus dem Kommunikationsfluss des Servers auszublenden. Die damit verbundene Frage ist die Kompetenz der Moderation. Für Menschen, die ihren eigenen Server (Single Instance) betreiben, ist das irrelevant. Sie entscheiden selbst, was sie aus ihrem Nutzungserleben ausblenden und haben keine Verantwortung für die sachliche Richtigkeit ihrer Maßnahmen, da sie ausschließlich selbst betroffen sind. Bei Socialmedia Servern, die sich explizit an eine Zielgruppe richten, ist die Problematik ebenfalls gering, dass falsche Entscheidungen getroffen werden, weil die eingesetzten Moderatorinnen in die Zielgruppe betreffenden Fragen erfahren genug sind und die Auswahl der Moderation auf dieser Erfahrung beruhen dürfte.

The Moderation article
From the very beginning, the internet was antiblack.
https://blog.rudyfraser.com/the-moderation-article/

In den ersten Abschnitten dieses Blogbeitrags hatte ich darauf verwiesen, dass Menschen keine monothematischen Wesen sind, sie gehören verschiedenen Kontexten, sozialen Gruppen etc. an. Entsprechend sind Diskriminierungserfahrungen vielschichtig und eine Moderation, die in einer Diskriminierungsform Sachkenntnis hat, diese identifizieren und sanktionieren kann, hat möglicherweise in einem anderen Bereich einen grauen Fleck. Mit der Zeit ergeben sich auch wissenschaftliche Fragen. Wie sieht es mit Informationen zur Covid19-Pandemie aus, zur kompetenten Beurteilung von Information aus dem Nahen Osten oder anderen Krisengebieten, zu unverfälschten Hintergrundinformationen in welchem Gebiet auch immer? Zwar hatte ich die Diskriminierungserfahrung etwas deutlicher hervorgehoben, es geht aber auch um die Problematik von Falsch- und Desinformation im Rahmen des Medienkonsums. Die meisten Kriege sind heutzutage Medienkriege. Wir werden dieses Thema nur angehen können, wenn wir die Möglichkeit haben, Moderation durch spezialisierte Teams übernehmen zu lassen, völlig unabhängig von den Servern, über die wir kommunizieren. Das funktioniert nur, wenn wir die klassischen Strukturen aufbrechen.

Dezentralität

Wir müssen Dezentralität mit einer Niedrigschwelligkeit betrachten, weshalb sich das Fediverse als dezentrales System praktisch bewährt hat. Natürlich ist ATmosphere dezentral, aber es nicht niedrigschwellig genug. Ein eigener PDS sichert mir die Eigentümerschaft und die Verfügbarkeit meiner Daten zu, aber um innerhalb eines Systems wirksam werden zu können, brauche ich eine Plattform, durch die ein PDS überhaupt ans Netz gehen kann. Das Fediverse hat hier einen praktischen Vorteil. Gleichzeitig müssen wir aber Dezentralität weiter denken und die Moderation mit einbeziehen, nur dann wird es langfristig eine Möglichkeit geben, die verschiedenen Notwendigkeiten medialer und sozialer Herausforderungen zu bewältigen.

Paul Frazee's avatar
Paul Frazee
@pfrazee.com

The only consistent thing about decentralization, since I started in 2012, has been this: nobody agrees on the definition

Warum komme ich zu diesem Community Gedanken an dieser Stelle zurück? Weil ich hier bewusst eine Brücke zu den Anfängen der technischen Möglichkeiten schlagen möchte, die dem Internet voraus gingen.

An dieser Stelle schließe ich den ersten Teil dieses Beitrags. Teil 2 wird demnächst folgen.