Social-Media-Plattformen sind längst Teil unseres Alltags. Viele Menschen sind dort täglich, viele junge Menschen sogar stündlich unterwegs und posten Bilder, Texte oder schreiben mit Freund*innen. Social-Media-Plattformen sind ein Ort für alles, für süße Tierbilder und Updates aus dem Freund*innenkreis, aber sie sind auch ein zentraler Ort für politische Debatten und Meinungsbildung. Die Wichtigkeit von Social-Media-Plattformen für die politische Kommunikation und Meinungsbildung dürfte spätestens deutlich sein, seit der US-Präsident Drohnenangriffe twittert und die CDU auf YouTube zerstört wird.
Social-Media-Plattformen bieten dabei – zumindest theoretisch – auch marginalisierten Stimmen die Möglichkeit sich Gehör zu verschaffen und politische Argumente einzubringen und Debatten außerhalb der etablierten Medien- und Politikakteur*innen anzustoßen. So ermöglichen sie es, dass sich Leute in autoritären Regimen leichter organisieren können, wie Beispiele aus dem Arabischen Frühling zeigen. Aber auch in Demokratien vernetzen sich Bewegungen online und können so ihren Protest beispielsweise bei Fridays For Future oder den Black-Lives-Matter-Protesten schneller gemeinsam auch in die Offline-Welt übertragen. Allerdings zeigen sich auch deutliche Nachteile dieser offenen Debattenorte.
Hate Speech
So hetzten AfD-Anhänger*innen und andere Rechtsradikale* in den digitalen Kommentarspalten, Menschen werden bedroht und eingeschüchtert, sodass sie sich oft aus den digitalen Debatten zurückziehen. Auch wenn die Barrieren, Hate Speech im Internet zu verbreiten deutlich niedriger sind, so stellt Hate Speech kein rein digitales Problem dar, sondern ist es Symptom für menschenverachtendes Verhalten, welches nach wie vor auf allen Ebenen angegangen werden muss. Im Allgemeinen führt Hate-Speech immer wieder zu einer Debatte darüber, was in sozialen Medien stehen darf. Soziale Netzwerke werden dabei politisch viel zu oft als eine Art ‚Wilder Westen‘ dargestellt, in dem Gesetze nicht gelten. Dieses Bild entsteht vermutlich dadurch, dass Hasskommentare oft nicht geahndet werden, auch wenn sie zur Anzeige gebracht werden. Der Umfang von Hate Speech lässt sich weit definieren. Betroffene erfahren Abwertung, Angriffe oder gegen sie wird zu Hass und Gewalt aufgerufen. Hassrede adressiert regelmäßig bestimmte Personen und Personengruppen und ist Ausdruck struktureller Diskriminierung und gruppenbezogener Menschenfeindlichkeit. Die Begriffsbestimmung von Hate Speech ist bedeutend für die strafrechtliche Bewertung. Dass bspw. antisemitische, rassistische oder frauen*feindliche Aussagen mit fadenscheinigen Begründungen als zulässige Meinungsäußerungen geurteilt werden, ist kein neues Phänomen. Im Fall von Renate Künast hat das Landgericht Berlin wüste sexistische Beschimpfungen gegen die Grünen-Politikerin als „Kommentare mit Sachbezug“ und nicht als Beleidigung gewertet. Hier ist wichtig hervorzuheben, dass Hassrede von menschenfeindlicher Abwertung lebt und Gerichte in der Lage sein müssen, eine eindeutige Zuordnung vorzunehmen. Ansonsten mangelt es nicht nur an Sensibilität auf der Seite der Rechtsanwender*innen, sondern auch an zuverlässigem rechtlichen Schutz für Betroffene. Neben klassischen rechtsradikal motivierten Hasskommentaren müssen wir dabei auch geschlechtsspezifische digitale, über Social-Media-Plattformen ausgeübte Gewalt gegen Frauen* und nichtbinäre Personen in den Fokus setzen. Diese kann beispielsweise in Form von Beleidigungen und Beschimpfungen, Gewalt- bzw. Vergewaltigungsandrohungen und -phantasien, Erpressung, Doxxing (die Veröffentlichung privater Informationen ohne das Einverständnis der betroffenen Person), Mobbing, Identitätsdiebstahl, Stalking, heimlichen Aufnahmen, Bildmontagen in Bezug auf eine Person, Erstellung von täuschend ähnlichen Accounts oder Verleumdungen mit der Absicht, einer Person zu schaden, stattfinden. Dabei hat digitale Gewalt ähnliche Auswirkungen wie schwerwiegendes Mobbing – etwa psychische Beschwerden, psychosomatische Erkrankungen, Depressionen oder Suizidgedanken. Insbesondere von härteren Formen digitaler Gewalt, z.B. sexuelle Belästigung oder Stalking, sind weitaus mehr Frauen* als Männer* und insbesondere junge Frauen* betroffen. Darüber hinaus hat digitale Gewalt gegen Frauen* und nichtbinäre Personen häufig eine Dimension politischer Motivation: Digitale Gewalt trifft Frauen* und queere Menschen insbesondere dann oft, wenn diese sich für feministische oder queere Themen einsetzen. Teilweise organisieren sich Täter*innen dabei sogar in Chatforen, um gezielt Frauen* auf beispielsweise Twitter anzugreifen. Dies geschieht in der Regel aus einer misogynen und/oder queerfeindlichen Motivation der Täter*innen, die sich durch solche digitale Gewalt selbst normalisieren kann. Schwarze Frauen* und queere Personen sowie Women* und queere Persons of Color sind zusätzlich zu diesen Attacken ebenfalls massiven rassistischen Angriffen ausgesetzt. Wir erachten es daher als verheerend, dass durch digitale Gewalt zum einen Frauen* und nichtbinäre Menschen sowie Schwarze Personen und People of Color systematisch aus dem demokratischen Raum Social Media gedrängt werden, und zum anderen die öffentliche Debatte in, aber auch durch Soziale Medien systematisch in Richtung tendenziell antifeministischer, männlich geprägter Inhalte verschoben bzw. verzerrt wird.
Die Bundesregierung und der damalige Justizminister Heiko Maas reagierten auf diesen Hate-Speech mit der Einführung des sogenannten Netzwerkdurchsetzungsgesetz (NetzDG). Dies verpflichtet die Social-Media-Plattformbetreiber*innen mit mehr 2 Millionen Nutzer*innen Beleidigungen und andere „rechtswidrige“ Inhalte innerhalb einer 7-Tage-Frist nach Eingang einer Beschwerde zu löschen, bei „offensichtlich rechtswidrigen“ Inhalten beträgt die Frist 24 Stunden nach Eingang der Beschwerde. Die Entscheidung, was „offensichtlich rechtswidrig“ ist, wird dabei allerdings nicht von Gerichten getroffen, sondern von den Plattformen selbst. Dies lehnen wir ab, da die Entscheidung, welche Posts und Kommentare den Strafbestand der Volksverhetzung, Beleidigungen etc. erfüllen, in einem Rechtsstaat von Gerichten zu entscheiden ist und nicht nach undurchsichtigen Regelungen privatwirtschaftlicher Unternehmen. Zwar schließt das NetzDG nicht aus, dass gemeldete Kommentare ebenfalls strafrechtlich zur Anzeige gebracht werden können, die Frage, was aufgrund des NetzDG zu löschen ist und was nicht, trifft allerdings ausschließlich zunächst das Unternehmen. Da die Plattformbetreiber*innen in Falle von Nicht-Löschungen mit Geldstrafen belegt werden können, führt dies in der Praxis dazu, dass immer mehr Inhalte gelöscht und Nutzer*innen gesperrt werden – auch Journalist*innen, Satiriker*innen und Politiker*innen sind davon betroffen. Welche Posts dabei gelöscht werden, und welche nicht, ist dabei oft nicht nachzuvollziehen. So gibt es Fälle, in denen wortgleiche Posts von einigen Nutzer*innen gelöscht werden, während andere identische Posts vorhanden bleiben.
Das NetzDG wurde im Rahmen eines ‘Gesetzespaket gegen Hass und Hetze’ im Juni 2020 überarbeitet. Die zentralste Änderung ist hierbei die Einführung einer Meldepflicht für Social-Media-Plattformen an das Bundeskriminalamt (BKA). Diese verpflichtet die Betreiber*innen der Social-Media-Plattformen, Posts, die sie für strafrechtlich relevant halten, nicht mehr nur zu löschen, sondern auch an das BKA zu melden. Informationen, die für die Identifikation der Nutzer*innen notwendig sind sind dabei ebenfalls zu übermitteln. Als solche Informationen werden im NetzDG explizit die IP-Adresse und die Port-Nummer der Nutzer*innen genannt, sofern diese vorhanden sind. Eine IP-Adresse ist eine Art virtuelle Adresse, während eine Port-Nummer eine Art digitaler Fingerabdruck ist, die ein Gerät identifizieren kann. Allerdings werden Port-Nummern von den meisten Netzbetreiber*innen nicht erfasst, ebenso können IP-Adressen durch beispielsweise die Nutzung von Virtual-Privat-Networks (VPN), bei der die Internetaktivitäten über verschiedene IP-Adressen gelenkt werden, verschleiert werden, sodass die ursprüngliche nicht mehr erkennbar ist. Diese Meldepflicht gilt für die Verbreitung von Propagandamitteln oder die Verwendung von Kennzeichen verfassungswidriger Organisationen, die Vorbereitung einer schweren staatsgefährdenden Gewalttat, der Bildung und Unterstützung krimineller oder terroristischer Vereinigungen, die Verbreitung kinderpornographischer Inhalte, aber auch für volksverhetzende Posts und Gewaltdarstellungen, die Belohnung und Billigung von Straftaten oder Bedrohungen. Ausgeschlossen von dieser Meldepflicht sind hingegen Beleidigungen, üble Nachrede sowie Verleumdung. In solchen Fällen sollen die Plattformen stattdessen Nutzer*innen Informationen bereitstellen, wie sie eine Strafanzeige stellen können. Wenn ein Post an das BKA gemeldet wird, überprüft dieses, ob der Post eine Straftat darstellt. Falls dies zutrifft, kann das BKA weitere Nutzer*innendaten anfordern, damit der Fall an die jeweils zuständige Landesbehörde überwiesen werden kann.
Diese Meldepflicht erleichtert zwar eine juristische Verfolgung, allerdings bleibt die erste Entscheidung, welche Inhalte strafrechtlich relevant sind und damit weitergeleitet werden müssen, den Plattformbetreiber*innen überlassen und nicht – wie in einem Rechtsstaat notwendig – den Gerichten. Da den Betreiber*innen Geldstrafen drohen, wenn sie strafrechtlich relevante Inhalte nicht melden, ist es wahrscheinlich, dass auch Posts an das BKA gemeldet werden, die nicht strafrechtlich relevant sind. Dies ist insbesondere vor dem Hintergrund der bisherigen Lösch-Praxis der Unternehmen zu befürchten. Daher kann die Meldepflicht auch führen, dass vielfach Nutzer*innendaten an das BKA weitergeleitet und dort gespeichert werden, ohne das eine Straftat vorliegt. Nutzer*innen werden erst nach vier Wochen informiert, falls ihr Posts und ihre Daten an das BKA übermittelt worden sind, sofern das BKA diesem nicht vorher widerspricht. Wir lehnen diese Datenweitergabe an das BKA ohne einen vorherigen juristischen Beschluss ab. Die bloße Einschätzung eines privaten Unternehmens darf nicht dazu führen, dass massenweise Nutzer*innendaten an Strafverfolgungsbehörden weitergereicht werden. Viele Beleidigungen, Drohungen, gezielte Desinformationen und Diffamierungen verstoßen bereits jetzt klar gegen das Gesetz, es besteht lediglich ein Vollzugsdefizit. Deshalb fordern wir auf soziale Medien zugeschnittene Schwerpunktstaatsanwaltschaften an allen Landgerichten Deutschlands, um Ermittlungsverfahren tatsächlich durchzuführen. Darüber hinaus fordern wir niedrigschwellige Meldestellen für Online-Delikte bei den LKAs.
Eine Alternative zu dieser Datenweitergabe ist das sogenannte Quick-Freeze-Verfahren. Dabei werden Daten bei einem Verdacht auf ein strafbares Verhalten bis zu zwei Monaten gespeichert und erst nach einem richterlichen Beschluss an die Strafverfolgungsbehörden ausgehändigt werden. Angewandt auf das NetzDG hieße das, dass Nutzer*innendaten von einem gemeldeten Post zunächst von den Plattformbetreiber*innen gespeichert werden müssten und nach einem richterlichen Beschluss über den betreffenden Posts an die Behörden weitergegeben werden müssten. Somit würde verhindert werden, dass Betreiber*innen von Social-Media-Plattformen massenhaft direkt Daten ohne richterlichen Beschluss an Strafverfolgungsbehörden weiterreichen. Allerdings ist auch dieses Verfahren durchaus kritisch zu betrachten, da Nutzer*innendaten auch hier zunächst ohne juristische Kontrolle gespeichert werden würden. Auch besonders aufgrund der oben genannten Problematiken bei der Erfassung der Identifikationsnummern, wie der Verschleierung von IP-Adressen, ist auch dieses Vorgehen unverhältnismäßig.
Ein weiterer Punkt gegen die Meldepflicht ist das Widerspruchsrecht, dass Nutzer*innen nach einem Beschluss der Regierung aus dem April 2020 gegen die Löschung ihrer Posts erhalten sollen. Dies soll die Plattformbetreiber*innen dazu zwingen, auf Antrag der Nutzer*innen ihre Entscheidung gegenüber diesen zu begründen und erneut zu prüfen. Ebenso muss der*die Nutzer*in die Möglichkeit zur Stellungnahme erhalten. Durch die Meldepflicht könnte es daher im Rahmen von stattgegeben Widersprüchen dazu kommen, dass Posts wieder online gestellt werden, dass BKA dennoch bereits die Nutzer*innendaten erhalten hat.
Sofern es sich um besonders schwere Straftaten (wie Gefahr für Leben) handelt, hat das BKA auch die Möglichkeit Passwörter anzufordern, was einen Eingriff in das Fernmeldegeheimnis darstellt. Diese Pflicht zur Passwortweitergabe gilt dabei nicht nur für Plattformen, die unter das NetzDG fallen, sondern für alle Anbieter*innen von digitalen Medien (sog. Telemedien). Diese Passwortweitergabe ist allerdings wenig erfolgversprechend, da Passwörter nach der Datenschutzgrundverordnung (DSGVO) von den Plattformen nur verschlüsselt gespeichert und somit auch nur verschlüsselt weitergegeben werden können. Daher müssen die Passwörter von den jeweiligen Stellen zunächst entschlüsselt werden, was viel Zeit in Anspruch nimmt, sofern das Entschlüsseln überhaupt gelingt. Über die Weitergabe ihres Passworts werden die Nutzer*innen nicht informiert. Diese Weitergabe von Passwörtern sehen wir als Einschränkung von Freiheitsrechten im Internet allgemein. Das Vorgehen gegen Hate Speech darf nicht daran geknüpft sein, dass Nutzer*innen damit rechnen müssen, dass ihre Daten an Strafverfolgungsbehörden oder den Verfassungsschutz weitergereicht werden.
Im Zuge rechtsterroristischer Anschläge entflammte ebenso erneut eine Debatte über die sogenannte Klarnamenpflicht im Internet und auf Social-Media-Plattformen. Diese von konservativen Politiker*innen geforderte Klarnamenpflicht sieht vor, dass keine Anonymität auf Social-Media-Plattformen bestehen darf und Nutzer*innen nur noch unter ihrem richtigen Namen Inhalte posten dürfen. Diese Forderungen stellt einen massiven Eingriff in die Privatsphäre von Nutzer*innen dar, den wir entschieden ablehnen. Einerseits wird selbst Hate-Speech, der unter Klarnamen veröffentlicht wird, derzeit nicht immer adäquat verfolgt. Andererseits haben auch in einem Rechtsstaat viele Menschen nachvollziehbare Gründe, weshalb sie nicht unter einem Klarnamen kommunizieren. Wer sich beispielsweise antifaschistisch engagiert, kann sich in einigen Gegenden Deutschlands nicht offen dazu bekennen, ohne erhebliche Risiken für das alltägliche Leben auf sich zu nehmen. Um die Privatsphäre der Nutzer*innen zu schützen, muss auch untersagt werden, dass Gesichtserkennungsprogramme Social-Media-Plattformen als Datenbanken nutzen, die dann ebenfalls Strafverfolgungsbehörden zugänglich gemacht werden. Dies kann dazu führen, dass Menschen sich nicht trauen, beispielsweise an Demonstrationen teilzunehmen, da sie dort meist keine Kontrolle haben, wer dort von ihnen Fotos macht und anschließend auf Social-Media-Plattformen veröffentlicht.
Wir sehen die dringende Notwendigkeit, deutliche rechtliche Schritte gegen Hate-Speech zu setzen, allerdings darf und kann die Einschränkung grundlegender digitaler Freiheitsrechte nicht die Lösung sein. Die Freiheit des Internets darf nicht der Preis für jahrelange Versäumnisse im Bereich der Bekämpfung von Rechtsterrorismus sein. Wir fordern anstatt der Verschärfung der Gesetze, die bestehenden Gesetze anzuwenden und Straftaten wie Hate-Speech konsequent zu verfolgen. Wir sind uns des Spannungsfeldes zwischen der Freiheit des Internet und seiner Nutzer*innen sowie dem Aufkommen von Hate-Speech durchaus bewusst. In diesem hochsensiblen Bereich ist daher auch eine besondere Schulung und Ausbau der betreffenden Stellen bei Polizei und Justiz sowie die Verbesserung und Ausweitung der Angebote für Betroffene notwendig.
Gezielte Desinformationen & Politische Werbung
Hate-Speech ist allerdings nicht die einzige Gefährdung der öffentlichen Debatte auf Social-Plattformen. Gezielte Desinformationen (sogenannte “Fake News) verbreiten sich insbesondere auf Social-Media-Plattformen schnell. Gezielte Desinformationen können dabei auch gezielt von sogenannten ‚Bots‘ (Accounts, die von Programmen gestreut werden, die automatisiert Inhalte posten) gestreut werden. Diese Desinformationen werden meistens verbreitet, um Parteien und Kandidat*innen einen Vorteil zu bereiten, indem beispielsweise politische Gegner*innen in ein schlechtes Licht gerückt werden. Gezielte Desinformationen werden auch dazu genutzt, um die Diskussion von Themen zu beeinflussen. Beispiele hierfür sind die Streuung von Falschmeldungen über Übergriffe von Geflüchteten*, die gezielt verbreitet werden, um die Stimmung gegen geflüchtete Menschen aufzuheizen. Insbesondere vor Wahlen stellt diese Beeinflussung des Meinungsklimas ein deutliches Problem dar, wie der Präsidentschaftswahlkampf der USA 2016 oder auch der Vorlauf zum Brexit-Votum zeigte. Die Betreiber*innen der bekanntesten Social-Media-Plattformen sowie u.a. Vertreter*innen der Werbeindustrie unterzeichneten unter Leitung der Europäischen Kommission daraufhin einen Verhaltenskodex, also eine Selbstverpflichtung, um solchen Desinformationen entgegen zu wirken. Dieser Kodex beinhaltet u.a. die Zusagen, Werbeanzeigen auf gezielte Desinformationen zu überprüfen, politische Werbung und Anzeigen deutlich zu kennzeichnen, Regelungen zu Bots in ihren Nutzungsbedingungen festzulegen, die Position von Nutzer*innen zur Nutzung der Plattformen allgemein zu stärken sowie Forschungen zu gezielte Desinformationen zu fördern und nicht zu hindern.
Allerdings wurden auch im Vorlauf zur Europawahl unter der Begründung, dass Posts gegen die Richtlinien zu politischen Inhalten und Wahlen verstoßen würden, Posts ohne erkenntliche Gründe gelöscht und Nutzer*innen gesperrt. Auch Politiker*innen, wie Sawsan Chebli, und Zeitungen, wie die Jüdische Allgemeine, waren davon betroffen. Weitergehend kritisieren mittlerweile auch mehrere Landesmedienanstalten, die für die Überwachung der Regulierungen von Rundfunkmedien und Telemedien zuständig sind, dass die bisherigen Maßnahmen zur Bekämpfung von gezielte Desinformationen intransparent und unzureichend sind. Die Selbstregulierung der Plattformen in diesem Bereich ist daher als gescheitert zu betrachten, wie die Landesmedienanstalten ebenfalls schlussfolgern. Es braucht daher klare Vorgaben, wie mit gezielte Desinformationen umzugehen ist und welche Schritte Plattformen ergreifen müssen, um diesen entgegenzuwirken. Dies darf nicht länger auf freiwilliger Basis entschieden werden, da gezielte Desinformationen die politische Meinungsbildung und das Meinungsklima auf undemokratische Weise beeinflussen können. Hier sehen wir die Gesetzgeber*innen in der Pflicht, Wege zu finden, wie mit gezielte Desinformationen – insbesondere im Rahmen von Wahlkämpfen – umgegangen werden muss. Dabei darf es keine staatlichen Instanzen geben, die festlegen, was Wahrheit ist und was nicht. Stattdessen halten wir beispielsweise Warnhinweise neben mutmaßlich gezielten Desinformationen für sinnvoll, sofern diese durch unabhängige Faktenchecker*innen überprüft wurden und für falsch befunden worden. Inwiefern eine solche Einstufung als mutmaßliche gezielte Desinformation vorgenommen wird, ist nach festgelegten, transparenten Kriterien zu entscheiden. Diese Faktenchecker*innen sollten einen journalistischen Hintergrund haben und nicht von Plattformen als Arbeitgeber*innen abhängig sein. Um es den Nutzer*innen leichter zu machen, gezielte Desinformationen zu erkennen, fordern wir Aufklärungskampagnen über gezielte Desinformationen, die von den Landesmedienanstalten zu entwickeln sind und über die Social-Media-Plattformen unentgeltlich ausgespielt werden müssen.
Neben gezielten Desinformationen ist das Kaufen von Likes, Kommentaren usw. und somit von Reichweite ebenfalls eine Möglichkeit, Einfluss auf das Meinungsklima und die politische Meinungsbildung über Social-Media-Plattformen zu nehmen. Während im traditionellen Rundfunk (Fernsehen, Radio) politische Werbung generell verboten ist und es nur klare Ausnahmeregelungen für die Zeit vor Wahlkämpfen gibt, gibt es für Social-Media-Plattformen keine solche Regelungen. Dies ist insbesondere kritisch, da politische Werbung auf diesen Plattformen oft nicht eindeutig als solche gekennzeichnet ist – beispielsweise wenn Bots eingesetzt werden, oder Likes gekauft werden, um die Reichweite von Postings zu erhöhen. Zwar gab es vor der Bundestagswahl 2017 die Zusicherungen von allen demokratischen Parteien, keine Social Bots (Bots, die Profile bespielen und oft nicht als automatisiert zu erkennen sind) zu verwenden, allerdings gibt es hierzu nach wie vor keine gesetzlichen Regelungen. Die AfD kündigte damals an, explizit Social Bots einsetzen zu wollen, was die Notwendigkeit einer Regelung verdeutlicht. Wir fordern eine allgemeine Kennzeichnungspflicht von Social Bots und ein Verbot von diesen und anderen Maßnahmen wie das Kaufen von Likes, Kommentaren usw. zur künstlichen Generierung von Reichweite für politische Posts. Politische Werbung muss stets deutlich als solche erkennbar seien. Dies ist allerdings klar abzugrenzen, von der privaten und unbezahlten politischen Meinungsäußerung von Influencer*innen. Selbstverständlich haben diese das Recht, ihre Meinung frei zu äußern.
Social-Media-Plattformen und Meinungsmacht
Private Social-Media-Plattformen sind nicht der Sicherstellung der Meinungsvielfalt verpflichtet, sondern können alle Posts löschen, die gegen ihre Nutzungsbedingungen verstoßen. Daher ist der Vorwurf der Zensur, wenn Posts gelöscht werden, nicht passend, da lediglich staatliche Institutionen die Meinungsfreiheit – und Vielfalt sichern müssen. Dies stellt allerdings ebenfalls ein Problem dar, da Social-Media-Plattformen eine deutliche Meinungsmacht innehaben. Damit ist gemeint, dass was dort gepostet wird, den politischen Diskurs beeinflussen kann. Allein Facebook hatte 2019 in Deutschland 32 Millionen Nutzer*innen, während die Tagesschau beispielsweise 2019 durchschnittlich von ca. 9.8 Millionen Zuschauer*innen gesehen wurde. Wenn solch große Social-Media-Plattformen allerdings beschließen würden, keinen politischen Content von Parteien links der CDU zuzulassen, ist es fraglich, ob es Möglichkeiten gebe, dagegen rechtlich vorzugehen. Die traditionellen Rundfunkmedien sind durch den Rundfunkstaatsvertrag aus eben diesen Gründen der Meinungsmacht dazu verpflichtet, eine Vielfalt an Meinungen abzubilden. Dies gilt – wenn auch in geringerem Umfang im Vergleich zu den öffentlich-rechtlichen Anbieter*innen – auch für private Rundfunkanstalten. Wie politische Meinungen auf Social-Media-Plattformen auch von staatlicher Seite zensiert werden können, zeigt die Plattform TikTok. Diese Plattform kommt, anders als die anderen meistgenutzten Plattformen in Deutschland, nicht aus den USA, sondern aus China. Die App, die insbesondere bei jungen Menschen und Minderjährigen sehr beliebt ist, löscht Inhalte, die sich gegen die chinesische Regierung richten oder aus sonstigen Gründen der Plattform missfallen, oder filtert diese heraus, sodass sie entweder überhaupt nicht mehr für andere Nutzer*innen sichtbar sind oder ihre Reichweite stark eingeschränkt wird. Recherchen von Netzaktivist*innen haben ebenso offen gelegt, dass die Reichweite von Menschen mit Beeinträchtigungen gezielt eingeschränkt wird – angeblich um die betroffenen Personen vor Mobbing zu schützen. In Wirklichkeit werden damit marginalisierte Stimmen auch auf Social-Media-Plattformen verdrängt – und das völlig legal.
Social-Media-Plattformen als Ort der demokratischen Debatte sichern
Wir wollen Social-Media-Plattformen, die online die Gesellschaft der Freien und Gleichen verwirklichen. In der alle gleichberechtigt teilhaben und sich äußern können ohne Angst haben zu müssen, bedroht oder beleidigt zu werden. In der nicht privatwirtschaftliche Interessen bestimmen, was wie diskutiert wird, sondern die Menschen selbst, wobei die einzigen Einschränkungen demokratisch legitimierte Gesetze sind, die die Rechte von Minderheiten und Einzelpersonen wirksam schützen. Dies ist für uns grundlegend für einen demokratischen Diskurs. Nach den jetzigen Strukturen ist das nicht möglich. Daher müssen wir Gegenvorschläge machen, wie wir dieses Ideal erreichen wollen.
Eine Möglichkeit ist die bestehenden Social-Media-Plattformen in öffentlich-rechtliche Netzwerke in Anlehnung an die öffentlich-rechtlichen Rundfunkanstalten zu überführen oder entsprechend neue Plattformen zu schaffen. Zentrale Herausforderungen sind hier allerdings die Sicherstellung, dass keine staatlichen Akteur*innen und Institutionen Zugriff auf die Daten dieser Netzwerke bekommen und keine Zensur vorgenommen wird. Da soziale Medien international verfügbar sind und dies auch weiterhin sein müssen, muss dieser Schritt auf der Ebene der internationalen Staatengemeinschaft durchgesetzt werden. Wir erkennen allerdings an, dass die Schaffung von öffentlich-rechtlichen Netzwerken auf internationaler Ebene ein langfristiger und hochkomplexer Prozess ist. Daher ist dies unser langfristiges Ziel. Die Zusammenarbeit der Bundesregierung mit autoritären Regimen in diesem Bereich lehnen wir ab.
Allerdings brauchen wir dennoch Wege, die Meinungsmacht privater Social-Media-Plattformen dennoch schnellstmöglich einzugrenzen und sie zum Erhalt der Meinungsvielfalt zu verpflichten. Dies ist notwendig, da die Frage, welche Inhalte gelöscht werden, und wer in welchem Ausmaß zu Wort kommt, besonders bei politischen Inhalten von höchster Relevanz ist. Die Regulierung von Medien ist immer ein hochsensibler Akt, da die freie Meinungsäußerung und freie Medien feste Grundpfeiler jeder Demokratie sind. Wir stellen allerdings fest, dass es im Bereich der Social-Media-Plattformen dennoch eindeutig Regelungen braucht, da sie höchst relevante Akteur*innen in der Medienlandschaft und der politischen Meinungsbildung darstellen. Wir sehen den Medienstaatsvertrag, der bereits von allen Ministerpräsident*innen unterzeichnet wurde und nach der Ratifzierung durch die Landesparlamente voraussichtlich im September 2020 in Kraft treten soll und für alle Plattformen mit mind. einer Million Nutzer*innen gelten wird, als einen ersten wichtigen Schritt. Dieser umfasst einige wichtige Punkte, wie eine Kennzeichnungspflicht von Bots, die Sicherstellung der Gleichbehandlung von journalistisch-redaktionellen Angeboten, sodass Algorithmen keine bestimmten Inhalte bevorzugen dürfen, sowie die Verpflichtung zur journalistischen Sorgfaltspflicht und Strafe für Desinformationen. Diese Schritte gehen zwar in die richtige Richtung, die scheinbare wahllose Löschung von politischen Inhalten bleibt dadurch allerdings unberührt, genauso wie der Missbrauch von Social-Media-Plattformen im Wahlkampf.
Die etablierten kapitalistischen Plattformbetreiber*innen haben es geschafft, die dezentrale Struktur des frühen Internets zu monopolisieren. Dieser Plattform-Kapitalismus ist nichts anders als die Ökonomisierung des öffentlichen Diskurses. Die algorithmischen Verfahren, die beispielsweise den eigenen Twitter- oder Facebook-Feed zusammenstellen, sollen uns möglichst lange auf den jeweiligen Seiten verweilen lassen, sodass möglichst viele Werbeanzeigen verkauft werden können. Schon allein deshalb kann ein neutraler öffentlicher Diskursraum nicht endgültig durch den Plattform-Kapitalismus geschaffen werden. Diese Gewinnorientierung erschwert die Regulierung dieser privaten, gewinnorientierten Social-Media-Plattformen weiter. Der Zugang zu den Plattformen wird den Nutzer*innen entgeltfrei zur Verfügung gestellt. Im Gegenzug erhalten die Plattformbetreiber*innen die entsprechenden Nutzer*innendaten, welche sie sammeln, auswerten und privaten Werbeträger*innen zur Verfügung stellen, um diesen auf bestimmte Zielgruppen zugeschneiderte Werbeangebote zu ermöglichen. Die Profitquelle der Unternehmen ist also nicht der Plattformbetrieb an sich, sondern der Verkauf von Werbefläche. Da emotionalisierende Inhalte mehr Aufrufe generieren, und somit auch rentablere Werbeflächen darstellen, sind gezielte Desinformationskampagnen, die die Nutzerinnen empören und aufbringen, deshalb für die Plattformbetreiber*innen sogar von Vorteil. Mehr noch: die Entfernung von gezielten Desinformationen, die viel geklickt und geteilt werden, steht im direkten Konflikt zur Profitorientierung der Unternehmen. Nur mit massiver öffentlicher Aufmerksamkeit und damit verbundenen Einbrüchen seiner Aktien, konnte beispielsweise Facebook im Nachgang der U.S. Wahl 2016 überhaupt dazu motiviert werden, nur ein wenig zu handeln. Aufgrund der Monopole und Oligopole im Bereich der sozialen Medien, in denen sich Öffentlichkeiten zentral in wenigen Plattformen sammeln, sind alternative Plattformen für Nutzer*innen dazu oft einfach keine Option. Wir schließen uns deshalb der Forderung vieler progressiver Stimmen weltweit an, und fordern die Zerschlagung der großen Plattformbetreiber*innen. Im Kartellrecht müssen Regeln festgeschrieben werden, die die Kombination bestimmter Geschäftsmodelle untersagen. Fusionen von digitaler Anbieter mit Monopolstellung sind grundsätzlich zu untersagen. Denn wenn ein Unternehmen sich lediglich auf den Plattformbetrieb konzentriert, und die Klickzahlen und die daraus generierten Profite in den Hintergrund rücken, besteht kein natürliches Interesse mehr, sich gegen die Entfernung der gezielten Desinformationen zu wehren. Neben dieser Zerschlagung müssen auch bereits bestehende Alternativen zu den etablierten, zentralisierten Social-Media-Plattformen gefördert werden, wie dezentrale Netzwerke. Im Gegensatz zu ihren zentralisierten Pendants laufen diese mit freier Software auf vielen verschiedenen Servern, die auf Basis offener Standards ein gemeinsames Netzwerk bilden. Damit hat kein*e Betreiber*in die alleinige Macht über die Plattform. Dennoch können aber die einzelnen Instanzen moderiert werden und die dortigen Benutzer*innen für Vergehen sanktioniert werden (beispielsweise durch Account-Sperren). Die momentan gültigen Regularien verhindern derzeit, dass sich solche – meist von kleinen Akteur*innen – getragenen Netzwerke etablieren können. Die aktuellen Anforderungen, beispielsweise im Bereich des Urheber*innenrechts lassen sich nur von großen, gewinnorientierten Plattformen erfüllen. Langfristig fordern wir daher, dass die Rechtslage die Verbreitung von dezentralen, gemeinnützig organisieren Plattformen begünstigt und fördert. Teile von solchen Netzwerken können z.B. auch von öffentlich-rechtlichen organisierten Betreiber*innen bereitgestellt werden. Außerdem fordern wir, dass die großen Plattformen zur Interoperabilität verpflichtet werden. Plattformen müssen sich für andere Anbieter öffnen. So wird die Souveränität der Nutzer*innen gestärkt.
Darüber hinaus fordern wir die Weiterentwicklung des Medienstaatsvertrags in einen Netzwerk-Staatsvertrag für Social-Media-Plattformen auf europäischer Ebene in Anlehnung an den Staatsvertrag für private Rundfunkmedien. Dieser muss klare Regelungen für die oben benannten Probleme bereitstellen. Insbesondere müssen sich die Social-Media-Plattformen verpflichteten, politische Meinungsäußerungen zuzulassen und nur politische Posts zu löschen, deren Rechtswidrigkeit festgestellt wurde. Löschungen aufgrund eigener politischer Überzeugungen der Netzwerkbetreiber*innen sind durch den Netzwerk-Staatsvertrag als unzulässig festzustellen, ebenso wie die Einschränkung der Reichweite von Nutzer*innen. Betreiber*innen von Social-Media-Plattformen haben die Algorithmen, welche die Inhaltsauswahl beispielsweise auf der Startseite (den sogenannte ‘Feed’) bestimmen, offenzulegen und diese transparent und nachvollziehbar darzustellen. Die Landesmedienanstalten sowie ihre europäischen Äquivalente sind entsprechend aufzustocken, um die Umsetzung dieser Regelungen zu kontrollieren.
Ein solcher Netzwerk-Staatsvertrag wird nicht alle genannten Probleme und Herausforderungen sofort lösen können, die mit Social-Media-Plattformen eingehen. Wir sehen allerdings dies als einen entscheidenden ersten Schritt, dass rechtliche Regelungen dafür sorgen, Social-Media-Plattformen als einen öffentlichen Ort der politischen Debatte zu sichern. Insbesondere zur Bekämpfung von Hate-Speech werden noch weitere Schritte notwendig sein.
Social-Media-Plattformen sind längst Teil unseres Alltags. Viele Menschen sind dort täglich, viele junge Menschen sogar stündlich unterwegs und posten Bilder, Texte oder schreiben mit Freund*innen. Social-Media-Plattformen sind ein Ort für alles, für süße Tierbilder und Updates aus dem Freund*innenkreis, aber sie sind auch ein zentraler Ort für politische Debatten und Meinungsbildung. Die Wichtigkeit von Social-Media-Plattformen für die politische Kommunikation und Meinungsbildung dürfte spätestens deutlich sein, seit der US-Präsident Drohnenangriffe twittert und die CDU auf YouTube zerstört wird.
Social-Media-Plattformen bieten dabei – zumindest theoretisch – auch marginalisierten Stimmen die Möglichkeit sich Gehör zu verschaffen und politische Argumente einzubringen und Debatten außerhalb der etablierten Medien- und Politikakteur*innen anzustoßen. So ermöglichen sie es, dass sich Leute in autoritären Regimen leichter organisieren können, wie Beispiele aus dem Arabischen Frühling zeigen. Aber auch in Demokratien vernetzen sich Bewegungen online und können so ihren Protest beispielsweise bei Fridays For Future oder den Black-Lives-Matter-Protesten schneller gemeinsam auch in die Offline-Welt übertragen. Allerdings zeigen sich auch deutliche Nachteile dieser offenen Debattenorte.
Hate Speech
So hetzten AfD-Anhänger*innen und andere Rechtsradikale* in den digitalen Kommentarspalten, Menschen werden bedroht und eingeschüchtert, sodass sie sich oft aus den digitalen Debatten zurückziehen. Auch wenn die Barrieren, Hate Speech im Internet zu verbreiten deutlich niedriger sind, so stellt Hate Speech kein rein digitales Problem dar, sondern ist es Symptom für menschenverachtendes Verhalten, welches nach wie vor auf allen Ebenen angegangen werden muss. Im Allgemeinen führt Hate-Speech immer wieder zu einer Debatte darüber, was in sozialen Medien stehen darf. Soziale Netzwerke werden dabei politisch viel zu oft als eine Art ‚Wilder Westen‘ dargestellt, in dem Gesetze nicht gelten. Dieses Bild entsteht vermutlich dadurch, dass Hasskommentare oft nicht geahndet werden, auch wenn sie zur Anzeige gebracht werden. Der Umfang von Hate Speech lässt sich weit definieren. Betroffene erfahren Abwertung, Angriffe oder gegen sie wird zu Hass und Gewalt aufgerufen. Hassrede adressiert regelmäßig bestimmte Personen und Personengruppen und ist Ausdruck struktureller Diskriminierung und gruppenbezogener Menschenfeindlichkeit. Die Begriffsbestimmung von Hate Speech ist bedeutend für die strafrechtliche Bewertung. Dass bspw. antisemitische, rassistische oder frauen*feindliche Aussagen mit fadenscheinigen Begründungen als zulässige Meinungsäußerungen geurteilt werden, ist kein neues Phänomen. Im Fall von Renate Künast hat das Landgericht Berlin wüste sexistische Beschimpfungen gegen die Grünen-Politikerin als „Kommentare mit Sachbezug“ und nicht als Beleidigung gewertet. Hier ist wichtig hervorzuheben, dass Hassrede von menschenfeindlicher Abwertung lebt und Gerichte in der Lage sein müssen, eine eindeutige Zuordnung vorzunehmen. Ansonsten mangelt es nicht nur an Sensibilität auf der Seite der Rechtsanwender*innen, sondern auch an zuverlässigem rechtlichen Schutz für Betroffene. Neben klassischen rechtsradikal motivierten Hasskommentaren müssen wir dabei auch geschlechtsspezifische digitale, über Social-Media-Plattformen ausgeübte Gewalt gegen Frauen* und nichtbinäre Personen in den Fokus setzen. Diese kann beispielsweise in Form von Beleidigungen und Beschimpfungen, Gewalt- bzw. Vergewaltigungsandrohungen und -phantasien, Erpressung, Doxxing (die Veröffentlichung privater Informationen ohne das Einverständnis der betroffenen Person), Mobbing, Identitätsdiebstahl, Stalking, heimlichen Aufnahmen, Bildmontagen in Bezug auf eine Person, Erstellung von täuschend ähnlichen Accounts oder Verleumdungen mit der Absicht, einer Person zu schaden, stattfinden. Dabei hat digitale Gewalt ähnliche Auswirkungen wie schwerwiegendes Mobbing – etwa psychische Beschwerden, psychosomatische Erkrankungen, Depressionen oder Suizidgedanken. Insbesondere von härteren Formen digitaler Gewalt, z.B. sexuelle Belästigung oder Stalking, sind weitaus mehr Frauen* als Männer* und insbesondere junge Frauen* betroffen. Darüber hinaus hat digitale Gewalt gegen Frauen* und nichtbinäre Personen häufig eine Dimension politischer Motivation: Digitale Gewalt trifft Frauen* und queere Menschen insbesondere dann oft, wenn diese sich für feministische oder queere Themen einsetzen. Teilweise organisieren sich Täter*innen dabei sogar in Chatforen, um gezielt Frauen* auf beispielsweise Twitter anzugreifen. Dies geschieht in der Regel aus einer misogynen und/oder queerfeindlichen Motivation der Täter*innen, die sich durch solche digitale Gewalt selbst normalisieren kann. Schwarze Frauen* und queere Personen sowie Women* und queere Persons of Color sind zusätzlich zu diesen Attacken ebenfalls massiven rassistischen Angriffen ausgesetzt. Wir erachten es daher als verheerend, dass durch digitale Gewalt zum einen Frauen* und nichtbinäre Menschen sowie Schwarze Personen und People of Color systematisch aus dem demokratischen Raum Social Media gedrängt werden, und zum anderen die öffentliche Debatte in, aber auch durch Soziale Medien systematisch in Richtung tendenziell antifeministischer, männlich geprägter Inhalte verschoben bzw. verzerrt wird.
Die Bundesregierung und der damalige Justizminister Heiko Maas reagierten auf diesen Hate-Speech mit der Einführung des sogenannten Netzwerkdurchsetzungsgesetz (NetzDG). Dies verpflichtet die Social-Media-Plattformbetreiber*innen mit mehr 2 Millionen Nutzer*innen Beleidigungen und andere „rechtswidrige“ Inhalte innerhalb einer 7-Tage-Frist nach Eingang einer Beschwerde zu löschen, bei „offensichtlich rechtswidrigen“ Inhalten beträgt die Frist 24 Stunden nach Eingang der Beschwerde. Die Entscheidung, was „offensichtlich rechtswidrig“ ist, wird dabei allerdings nicht von Gerichten getroffen, sondern von den Plattformen selbst. Dies lehnen wir ab, da die Entscheidung, welche Posts und Kommentare den Strafbestand der Volksverhetzung, Beleidigungen etc. erfüllen, in einem Rechtsstaat von Gerichten zu entscheiden ist und nicht nach undurchsichtigen Regelungen privatwirtschaftlicher Unternehmen. Zwar schließt das NetzDG nicht aus, dass gemeldete Kommentare ebenfalls strafrechtlich zur Anzeige gebracht werden können, die Frage, was aufgrund des NetzDG zu löschen ist und was nicht, trifft allerdings ausschließlich zunächst das Unternehmen. Da die Plattformbetreiber*innen in Falle von Nicht-Löschungen mit Geldstrafen belegt werden können, führt dies in der Praxis dazu, dass immer mehr Inhalte gelöscht und Nutzer*innen gesperrt werden – auch Journalist*innen, Satiriker*innen und Politiker*innen sind davon betroffen. Welche Posts dabei gelöscht werden, und welche nicht, ist dabei oft nicht nachzuvollziehen. So gibt es Fälle, in denen wortgleiche Posts von einigen Nutzer*innen gelöscht werden, während andere identische Posts vorhanden bleiben.
Das NetzDG wurde im Rahmen eines ‘Gesetzespaket gegen Hass und Hetze’ im Juni 2020 überarbeitet. Die zentralste Änderung ist hierbei die Einführung einer Meldepflicht für Social-Media-Plattformen an das Bundeskriminalamt (BKA). Diese verpflichtet die Betreiber*innen der Social-Media-Plattformen, Posts, die sie für strafrechtlich relevant halten, nicht mehr nur zu löschen, sondern auch an das BKA zu melden. Informationen, die für die Identifikation der Nutzer*innen notwendig sind sind dabei ebenfalls zu übermitteln. Als solche Informationen werden im NetzDG explizit die IP-Adresse und die Port-Nummer der Nutzer*innen genannt, sofern diese vorhanden sind. Eine IP-Adresse ist eine Art virtuelle Adresse, während eine Port-Nummer eine Art digitaler Fingerabdruck ist, die ein Gerät identifizieren kann. Allerdings werden Port-Nummern von den meisten Netzbetreiber*innen nicht erfasst, ebenso können IP-Adressen durch beispielsweise die Nutzung von Virtual-Privat-Networks (VPN), bei der die Internetaktivitäten über verschiedene IP-Adressen gelenkt werden, verschleiert werden, sodass die ursprüngliche nicht mehr erkennbar ist. Diese Meldepflicht gilt für die Verbreitung von Propagandamitteln oder die Verwendung von Kennzeichen verfassungswidriger Organisationen, die Vorbereitung einer schweren staatsgefährdenden Gewalttat, der Bildung und Unterstützung krimineller oder terroristischer Vereinigungen, die Verbreitung kinderpornographischer Inhalte, aber auch für volksverhetzende Posts und Gewaltdarstellungen, die Belohnung und Billigung von Straftaten oder Bedrohungen. Ausgeschlossen von dieser Meldepflicht sind hingegen Beleidigungen, üble Nachrede sowie Verleumdung. In solchen Fällen sollen die Plattformen stattdessen Nutzer*innen Informationen bereitstellen, wie sie eine Strafanzeige stellen können. Wenn ein Post an das BKA gemeldet wird, überprüft dieses, ob der Post eine Straftat darstellt. Falls dies zutrifft, kann das BKA weitere Nutzer*innendaten anfordern, damit der Fall an die jeweils zuständige Landesbehörde überwiesen werden kann.
Diese Meldepflicht erleichtert zwar eine juristische Verfolgung, allerdings bleibt die erste Entscheidung, welche Inhalte strafrechtlich relevant sind und damit weitergeleitet werden müssen, den Plattformbetreiber*innen überlassen und nicht – wie in einem Rechtsstaat notwendig – den Gerichten. Da den Betreiber*innen Geldstrafen drohen, wenn sie strafrechtlich relevante Inhalte nicht melden, ist es wahrscheinlich, dass auch Posts an das BKA gemeldet werden, die nicht strafrechtlich relevant sind. Dies ist insbesondere vor dem Hintergrund der bisherigen Lösch-Praxis der Unternehmen zu befürchten. Daher kann die Meldepflicht auch führen, dass vielfach Nutzer*innendaten an das BKA weitergeleitet und dort gespeichert werden, ohne das eine Straftat vorliegt. Nutzer*innen werden erst nach vier Wochen informiert, falls ihr Posts und ihre Daten an das BKA übermittelt worden sind, sofern das BKA diesem nicht vorher widerspricht. Wir lehnen diese Datenweitergabe an das BKA ohne einen vorherigen juristischen Beschluss ab. Die bloße Einschätzung eines privaten Unternehmens darf nicht dazu führen, dass massenweise Nutzer*innendaten an Strafverfolgungsbehörden weitergereicht werden. Viele Beleidigungen, Drohungen, gezielte Desinformationen und Diffamierungen verstoßen bereits jetzt klar gegen das Gesetz, es besteht lediglich ein Vollzugsdefizit. Deshalb fordern wir auf soziale Medien zugeschnittene Schwerpunktstaatsanwaltschaften an allen Landgerichten Deutschlands, um Ermittlungsverfahren tatsächlich durchzuführen.
Berlin wird auf die anderen Bundesländer zugehen und Gespräche darüber initiieren, inwiefern die Bundesländer ihre Zusammenarbeit beispielsweise durch die Errichtung einer gemeinsamen Zentralstelle zur Verfolgung von Kriminalität im ”Tatort Internet“ verbessern und schlagkräftiger gestalten können.
Darüber hinaus fordern wir niedrigschwellige Meldestellen für Online-Delikte bei den LKAs.
Eine Alternative zu dieser Datenweitergabe ist das sogenannte Quick-Freeze-Verfahren. Dabei werden Daten bei einem Verdacht auf ein strafbares Verhalten bis zu zwei Monaten gespeichert und erst nach einem richterlichen Beschluss an die Strafverfolgungsbehörden ausgehändigt werden. Angewandt auf das NetzDG hieße das, dass Nutzer*innendaten von einem gemeldeten Post zunächst von den Plattformbetreiber*innen gespeichert werden müssten und nach einem richterlichen Beschluss über den betreffenden Posts an die Behörden weitergegeben werden müssten. Somit würde verhindert werden, dass Betreiber*innen von Social-Media-Plattformen massenhaft direkt Daten ohne richterlichen Beschluss an Strafverfolgungsbehörden weiterreichen. Allerdings ist auch dieses Verfahren durchaus kritisch zu betrachten, da Nutzer*innendaten auch hier zunächst ohne juristische Kontrolle gespeichert werden würden. Auch besonders aufgrund der oben genannten Problematiken bei der Erfassung der Identifikationsnummern, wie der Verschleierung von IP-Adressen, ist auch dieses Vorgehen unverhältnismäßig.
Ein weiterer Punkt gegen die Meldepflicht ist das Widerspruchsrecht, dass Nutzer*innen nach einem Beschluss der Regierung aus dem April 2020 gegen die Löschung ihrer Posts erhalten sollen. Dies soll die Plattformbetreiber*innen dazu zwingen, auf Antrag der Nutzer*innen ihre Entscheidung gegenüber diesen zu begründen und erneut zu prüfen. Ebenso muss der*die Nutzer*in die Möglichkeit zur Stellungnahme erhalten. Durch die Meldepflicht könnte es daher im Rahmen von stattgegeben Widersprüchen dazu kommen, dass Posts wieder online gestellt werden, dass BKA dennoch bereits die Nutzer*innendaten erhalten hat.
Sofern es sich um besonders schwere Straftaten (wie Gefahr für Leben) handelt, hat das BKA auch die Möglichkeit Passwörter anzufordern, was einen Eingriff in das Fernmeldegeheimnis darstellt. Diese Pflicht zur Passwortweitergabe gilt dabei nicht nur für Plattformen, die unter das NetzDG fallen, sondern für alle Anbieter*innen von digitalen Medien (sog. Telemedien). Diese Passwortweitergabe ist allerdings wenig erfolgversprechend, da Passwörter nach der Datenschutzgrundverordnung (DSGVO) von den Plattformen nur verschlüsselt gespeichert und somit auch nur verschlüsselt weitergegeben werden können. Daher müssen die Passwörter von den jeweiligen Stellen zunächst entschlüsselt werden, was viel Zeit in Anspruch nimmt, sofern das Entschlüsseln überhaupt gelingt. Über die Weitergabe ihres Passworts werden die Nutzer*innen nicht informiert. Diese Weitergabe von Passwörtern sehen wir als Einschränkung von Freiheitsrechten im Internet allgemein. Das Vorgehen gegen Hate Speech darf nicht daran geknüpft sein, dass Nutzer*innen damit rechnen müssen, dass ihre Passwörter an Strafverfolgungsbehörden oder den Verfassungsschutz weitergereicht werden.
Im Zuge rechtsterroristischer Anschläge entflammte ebenso erneut eine Debatte über die sogenannte Klarnamenpflicht im Internet und auf Social-Media-Plattformen. Diese von konservativen Politiker*innen geforderte Klarnamenpflicht sieht vor, dass keine Anonymität auf Social-Media-Plattformen bestehen darf und Nutzer*innen nur noch unter ihrem richtigen Namen Inhalte posten dürfen. Diese Forderungen stellt einen massiven Eingriff in die Privatsphäre von Nutzer*innen dar, den wir entschieden ablehnen. Einerseits wird selbst Hate-Speech, der unter Klarnamen veröffentlicht wird, derzeit nicht immer adäquat verfolgt. Andererseits haben auch in einem Rechtsstaat viele Menschen nachvollziehbare Gründe, weshalb sie nicht unter einem Klarnamen kommunizieren. Wer sich beispielsweise antifaschistisch engagiert, kann sich in einigen Gegenden Deutschlands nicht offen dazu bekennen, ohne erhebliche Risiken für das alltägliche Leben auf sich zu nehmen. Um die Privatsphäre der Nutzer*innen zu schützen, muss auch untersagt werden, dass Gesichtserkennungsprogramme Social-Media-Plattformen als Datenbanken nutzen, die dann ebenfalls Strafverfolgungsbehörden zugänglich gemacht werden. Dies kann dazu führen, dass Menschen sich nicht trauen, beispielsweise an Demonstrationen teilzunehmen, da sie dort meist keine Kontrolle haben, wer dort von ihnen Fotos macht und anschließend auf Social-Media-Plattformen veröffentlicht.
Wir sehen die dringende Notwendigkeit, deutliche rechtliche Schritte gegen Hate-Speech zu setzen, allerdings darf und kann die Einschränkung grundlegender digitaler Freiheitsrechte nicht die Lösung sein. Die Freiheit des Internets darf nicht der Preis für jahrelange Versäumnisse im Bereich der Bekämpfung von Rechtsterrorismus sein. Wir fordern anstatt der Verschärfung der Gesetze, die bestehenden Gesetze anzuwenden und Straftaten wie Hate-Speech konsequent zu verfolgen. Wir sind uns des Spannungsfeldes zwischen der Freiheit des Internet und seiner Nutzer*innen sowie dem Aufkommen von Hate-Speech durchaus bewusst. In diesem hochsensiblen Bereich ist daher auch eine besondere Schulung und Ausbau der betreffenden Stellen bei Polizei und Justiz sowie die Verbesserung und Ausweitung der Angebote für Betroffene notwendig.
Gezielte Desinformationen & Politische Werbung
Hate-Speech ist allerdings nicht die einzige Gefährdung der öffentlichen Debatte auf Social-Plattformen. Gezielte Desinformationen (sogenannte “Fake News) verbreiten sich insbesondere auf Social-Media-Plattformen schnell. Gezielte Desinformationen können dabei auch gezielt von sogenannten ‚Bots‘ (Accounts, die von Programmen gestreut werden, die automatisiert Inhalte posten) gestreut werden. Diese Desinformationen werden meistens verbreitet, um Parteien und Kandidat*innen einen Vorteil zu bereiten, indem beispielsweise politische Gegner*innen in ein schlechtes Licht gerückt werden. Gezielte Desinformationen werden auch dazu genutzt, um die Diskussion von Themen zu beeinflussen. Beispiele hierfür sind die Streuung von Falschmeldungen über Übergriffe von Geflüchteten*, die gezielt verbreitet werden, um die Stimmung gegen geflüchtete Menschen aufzuheizen. Insbesondere vor Wahlen stellt diese Beeinflussung des Meinungsklimas ein deutliches Problem dar, wie der Präsidentschaftswahlkampf der USA 2016 oder auch der Vorlauf zum Brexit-Votum zeigte. Die Betreiber*innen der bekanntesten Social-Media-Plattformen sowie u.a. Vertreter*innen der Werbeindustrie unterzeichneten unter Leitung der Europäischen Kommission daraufhin einen Verhaltenskodex, also eine Selbstverpflichtung, um solchen Desinformationen entgegen zu wirken. Dieser Kodex beinhaltet u.a. die Zusagen, Werbeanzeigen auf gezielte Desinformationen zu überprüfen, politische Werbung und Anzeigen deutlich zu kennzeichnen, Regelungen zu Bots in ihren Nutzungsbedingungen festzulegen, die Position von Nutzer*innen zur Nutzung der Plattformen allgemein zu stärken sowie Forschungen zu gezielte Desinformationen zu fördern und nicht zu hindern.
Allerdings wurden auch im Vorlauf zur Europawahl unter der Begründung, dass Posts gegen die Richtlinien zu politischen Inhalten und Wahlen verstoßen würden, Posts ohne erkenntliche Gründe gelöscht und Nutzer*innen gesperrt. Auch Politiker*innen, wie Sawsan Chebli, und Zeitungen, wie die Jüdische Allgemeine, waren davon betroffen. Weitergehend kritisieren mittlerweile auch mehrere Landesmedienanstalten, die für die Überwachung der Regulierungen von Rundfunkmedien und Telemedien zuständig sind, dass die bisherigen Maßnahmen zur Bekämpfung von gezielte Desinformationen intransparent und unzureichend sind. Die Selbstregulierung der Plattformen in diesem Bereich ist daher als gescheitert zu betrachten, wie die Landesmedienanstalten ebenfalls schlussfolgern. Es braucht daher klare Vorgaben, wie mit gezielte Desinformationen umzugehen ist und welche Schritte Plattformen ergreifen müssen, um diesen entgegenzuwirken. Dies darf nicht länger auf freiwilliger Basis entschieden werden, da gezielte Desinformationen die politische Meinungsbildung und das Meinungsklima auf undemokratische Weise beeinflussen können. Hier sehen wir die Gesetzgeber*innen in der Pflicht, Wege zu finden, wie mit gezielte Desinformationen – insbesondere im Rahmen von Wahlkämpfen – umgegangen werden muss. Dabei darf es keine staatlichen Instanzen geben, die festlegen, was Wahrheit ist und was nicht. Stattdessen halten wir beispielsweise Warnhinweise neben mutmaßlich gezielten Desinformationen für sinnvoll, sofern diese durch unabhängige Faktenchecker*innen überprüft wurden und für falsch befunden worden. Inwiefern eine solche Einstufung als mutmaßliche gezielte Desinformation vorgenommen wird, ist nach festgelegten, transparenten Kriterien zu entscheiden. Diese Faktenchecker*innen sollten einen journalistischen Hintergrund haben und nicht von Plattformen als Arbeitgeber*innen abhängig sein. Um es den Nutzer*innen leichter zu machen, gezielte Desinformationen zu erkennen, fordern wir Aufklärungskampagnen über gezielte Desinformationen, die von den Landesmedienanstalten zu entwickeln sind und über die Social-Media-Plattformen unentgeltlich ausgespielt werden müssen.
Neben gezielten Desinformationen ist das Kaufen von Likes, Kommentaren usw. und somit von Reichweite ebenfalls eine Möglichkeit, Einfluss auf das Meinungsklima und die politische Meinungsbildung über Social-Media-Plattformen zu nehmen. Während im traditionellen Rundfunk (Fernsehen, Radio) politische Werbung generell verboten ist und es nur klare Ausnahmeregelungen für die Zeit vor Wahlkämpfen gibt, gibt es für Social-Media-Plattformen keine solche Regelungen. Dies ist insbesondere kritisch, da politische Werbung auf diesen Plattformen oft nicht eindeutig als solche gekennzeichnet ist – beispielsweise wenn Bots eingesetzt werden, oder Likes gekauft werden, um die Reichweite von Postings zu erhöhen. Zwar gab es vor der Bundestagswahl 2017 die Zusicherungen von allen demokratischen Parteien, keine Social Bots (Bots, die Profile bespielen und oft nicht als automatisiert zu erkennen sind) zu verwenden, allerdings gibt es hierzu nach wie vor keine gesetzlichen Regelungen. Die AfD kündigte damals an, explizit Social Bots einsetzen zu wollen, was die Notwendigkeit einer Regelung verdeutlicht. Wir fordern eine allgemeine Kennzeichnungspflicht von Social Bots und ein Verbot von diesen und anderen Maßnahmen wie das Kaufen von Likes, Kommentaren usw. zur künstlichen Generierung von Reichweite für politische Posts. Politische Werbung muss stets deutlich als solche erkennbar seien. Dies ist allerdings klar abzugrenzen, von der privaten und unbezahlten politischen Meinungsäußerung von Influencer*innen. Selbstverständlich haben diese das Recht, ihre Meinung frei zu äußern.
Social-Media-Plattformen und Meinungsmacht
Private Social-Media-Plattformen sind nicht der Sicherstellung der Meinungsvielfalt verpflichtet, sondern können alle Posts löschen, die gegen ihre Nutzungsbedingungen verstoßen. Daher ist der Vorwurf der Zensur, wenn Posts gelöscht werden, nicht passend, da lediglich staatliche Institutionen die Meinungsfreiheit – und Vielfalt sichern müssen. Dies stellt allerdings ebenfalls ein Problem dar, da Social-Media-Plattformen eine deutliche Meinungsmacht innehaben. Damit ist gemeint, dass was dort gepostet wird, den politischen Diskurs beeinflussen kann. Allein Facebook hatte 2019 in Deutschland 32 Millionen Nutzer*innen, während die Tagesschau beispielsweise 2019 durchschnittlich von ca. 9.8 Millionen Zuschauer*innen gesehen wurde. Wenn solch große Social-Media-Plattformen allerdings beschließen würden, keinen politischen Content von Parteien links der CDU zuzulassen, ist es fraglich, ob es Möglichkeiten gebe, dagegen rechtlich vorzugehen. Die traditionellen Rundfunkmedien sind durch den Rundfunkstaatsvertrag aus eben diesen Gründen der Meinungsmacht dazu verpflichtet, eine Vielfalt an Meinungen abzubilden. Dies gilt – wenn auch in geringerem Umfang im Vergleich zu den öffentlich-rechtlichen Anbieter*innen – auch für private Rundfunkanstalten. Wie politische Meinungen auf Social-Media-Plattformen auch von staatlicher Seite zensiert werden können, zeigt die Plattform TikTok. Diese Plattform kommt, anders als die anderen meistgenutzten Plattformen in Deutschland, nicht aus den USA, sondern aus China. Die App, die insbesondere bei jungen Menschen und Minderjährigen sehr beliebt ist, löscht Inhalte, die sich gegen die chinesische Regierung richten oder aus sonstigen Gründen der Plattform missfallen, oder filtert diese heraus, sodass sie entweder überhaupt nicht mehr für andere Nutzer*innen sichtbar sind oder ihre Reichweite stark eingeschränkt wird. Recherchen von Netzaktivist*innen haben ebenso offen gelegt, dass die Reichweite von Menschen mit Beeinträchtigungen gezielt eingeschränkt wird – angeblich um die betroffenen Personen vor Mobbing zu schützen. In Wirklichkeit werden damit marginalisierte Stimmen auch auf Social-Media-Plattformen verdrängt – und das völlig legal.
Social-Media-Plattformen als Ort der demokratischen Debatte sichern
Wir wollen Social-Media-Plattformen, die online die Gesellschaft der Freien und Gleichen verwirklichen. In der alle gleichberechtigt teilhaben und sich äußern können ohne Angst haben zu müssen, bedroht oder beleidigt zu werden. In der nicht privatwirtschaftliche Interessen bestimmen, was wie diskutiert wird, sondern die Menschen selbst, wobei die einzigen Einschränkungen demokratisch legitimierte Gesetze sind, die die Rechte von Minderheiten und Einzelpersonen wirksam schützen. Dies ist für uns grundlegend für einen demokratischen Diskurs. Nach den jetzigen Strukturen ist das nicht möglich. Daher müssen wir Gegenvorschläge machen, wie wir dieses Ideal erreichen wollen.
Allerdings brauchen wir dennoch Wege, die Meinungsmacht privater Social-Media-Plattformen dennoch schnellstmöglich einzugrenzen und sie zum Erhalt der Meinungsvielfalt zu verpflichten.
Wir brauchen Wege, die Meinungsmacht privater Social-Media-Plattformen schnellstmöglich einzugrenzen und sie zum Erhalt der Meinungsvielfalt zu verpflichten. Es sind Konzepte zu entwickeln, wie Social-Media-Plattformen hierzu strukturell und organisatorisch neu aufgestellt werden müssten.
Dies ist notwendig, da die Frage, welche Inhalte gelöscht werden, und wer in welchem Ausmaß zu Wort kommt, besonders bei politischen Inhalten von höchster Relevanz ist. Die Regulierung von Medien ist immer ein hochsensibler Akt, da die freie Meinungsäußerung und freie Medien feste Grundpfeiler jeder Demokratie sind. Wir stellen allerdings fest, dass es im Bereich der Social-Media-Plattformen dennoch eindeutig Regelungen braucht, da sie höchst relevante Akteur*innen in der Medienlandschaft und der politischen Meinungsbildung darstellen. Wir sehen den Medienstaatsvertrag, der bereits von allen Ministerpräsident*innen unterzeichnet wurde und nach der Ratifzierung durch die Landesparlamente voraussichtlich im September 2020 in Kraft treten soll und für alle Plattformen mit mind. einer Million Nutzer*innen gelten wird, als einen ersten wichtigen Schritt. Dieser umfasst einige wichtige Punkte, wie eine Kennzeichnungspflicht von Bots, die Sicherstellung der Gleichbehandlung von journalistisch-redaktionellen Angeboten, sodass Algorithmen keine bestimmten Inhalte bevorzugen dürfen, sowie die Verpflichtung zur journalistischen Sorgfaltspflicht und Strafe für Desinformationen. Diese Schritte gehen zwar in die richtige Richtung, die scheinbare wahllose Löschung von politischen Inhalten bleibt dadurch allerdings unberührt, genauso wie der Missbrauch von Social-Media-Plattformen im Wahlkampf.
Die etablierten kapitalistischen Plattformbetreiber*innen haben es geschafft, die dezentrale Struktur des frühen Internets zu monopolisieren. Dieser Plattform-Kapitalismus ist nichts anders als die Ökonomisierung des öffentlichen Diskurses. Die algorithmischen Verfahren, die beispielsweise den eigenen Twitter- oder Facebook-Feed zusammenstellen, sollen uns möglichst lange auf den jeweiligen Seiten verweilen lassen, sodass möglichst viele Werbeanzeigen verkauft werden können. Schon allein deshalb kann ein neutraler öffentlicher Diskursraum nicht endgültig durch den Plattform-Kapitalismus geschaffen werden. Diese Gewinnorientierung erschwert die Regulierung dieser privaten, gewinnorientierten Social-Media-Plattformen weiter. Der Zugang zu den Plattformen wird den Nutzer*innen entgeltfrei zur Verfügung gestellt. Im Gegenzug erhalten die Plattformbetreiber*innen die entsprechenden Nutzer*innendaten, welche sie sammeln, auswerten und privaten Werbeträger*innen zur Verfügung stellen, um diesen auf bestimmte Zielgruppen zugeschneiderte Werbeangebote zu ermöglichen. Die Profitquelle der Unternehmen ist also nicht der Plattformbetrieb an sich, sondern der Verkauf von Werbefläche. Da emotionalisierende Inhalte mehr Aufrufe generieren, und somit auch rentablere Werbeflächen darstellen, sind gezielte Desinformationskampagnen, die die Nutzerinnen empören und aufbringen, deshalb für die Plattformbetreiber*innen sogar von Vorteil. Mehr noch: die Entfernung von gezielten Desinformationen, die viel geklickt und geteilt werden, steht im direkten Konflikt zur Profitorientierung der Unternehmen. Nur mit massiver öffentlicher Aufmerksamkeit und damit verbundenen Einbrüchen seiner Aktien, konnte beispielsweise Facebook im Nachgang der U.S. Wahl 2016 überhaupt dazu motiviert werden, nur ein wenig zu handeln. Aufgrund der Monopole und Oligopole im Bereich der sozialen Medien, in denen sich Öffentlichkeiten zentral in wenigen Plattformen sammeln, sind alternative Plattformen für Nutzer*innen dazu oft einfach keine Option.
Der Monopolstellung sollte unter anderem durch kartellrechtliche Maßnahmen begegnet werden. Diese sehen als ultima ratio auch die Entflechtung bzw. Zerschlagung des Monopols vor.
Im Kartellrecht müssen Regeln festgeschrieben werden, die die Kombination bestimmter Geschäftsmodelle untersagen. Fusionen von digitaler Anbieter mit Monopolstellung sind grundsätzlich zu untersagen. Denn wenn ein Unternehmen sich lediglich auf den Plattformbetrieb konzentriert, und die Klickzahlen und die daraus generierten Profite in den Hintergrund rücken, besteht kein natürliches Interesse mehr, sich gegen die Entfernung der gezielten Desinformationen zu wehren. Neben dieser Zerschlagung müssen auch bereits bestehende Alternativen zu den etablierten, zentralisierten Social-Media-Plattformen gefördert werden, wie dezentrale Netzwerke. Im Gegensatz zu ihren zentralisierten Pendants laufen diese mit freier Software auf vielen verschiedenen Servern, die auf Basis offener Standards ein gemeinsames Netzwerk bilden. Damit hat kein*e Betreiber*in die alleinige Macht über die Plattform. Dennoch können aber die einzelnen Instanzen moderiert werden und die dortigen Benutzer*innen für Vergehen sanktioniert werden (beispielsweise durch Account-Sperren). Die momentan gültigen Regularien verhindern derzeit, dass sich solche – meist von kleinen Akteur*innen – getragenen Netzwerke etablieren können. Die aktuellen Anforderungen, beispielsweise im Bereich des Urheber*innenrechts lassen sich nur von großen, gewinnorientierten Plattformen erfüllen. Langfristig fordern wir daher, dass die Rechtslage die Verbreitung von dezentralen, gemeinnützig organisieren Plattformen begünstigt und fördert. Teile von solchen Netzwerken können z.B. auch von öffentlich-rechtlichen organisierten Betreiber*innen bereitgestellt werden. Außerdem fordern wir, dass die großen Plattformen zur Interoperabilität verpflichtet werden. Plattformen müssen sich für andere Anbieter öffnen. So wird die Souveränität der Nutzer*innen gestärkt.
Darüber hinaus fordern wir die Weiterentwicklung des Medienstaatsvertrags in einen Netzwerk-Staatsvertrag für Social-Media-Plattformen auf europäischer Ebene in Anlehnung an den Staatsvertrag für private Rundfunkmedien. Dieser muss klare Regelungen für die oben benannten Probleme bereitstellen. Insbesondere müssen sich die Social-Media-Plattformen verpflichteten, politische Meinungsäußerungen zuzulassen und nur politische Posts zu löschen, deren Rechtswidrigkeit festgestellt wurde. Löschungen aufgrund eigener politischer Überzeugungen der Netzwerkbetreiber*innen sind durch den Netzwerk-Staatsvertrag als unzulässig festzustellen, ebenso wie die Einschränkung der Reichweite von Nutzer*innen. Betreiber*innen von Social-Media-Plattformen haben die Algorithmen, welche die Inhaltsauswahl beispielsweise auf der Startseite (den sogenannte ‘Feed’) bestimmen, offenzulegen und diese transparent und nachvollziehbar darzustellen. Die Landesmedienanstalten sowie ihre europäischen Äquivalente sind entsprechend aufzustocken, um die Umsetzung dieser Regelungen zu kontrollieren.
Ein solcher Netzwerk-Staatsvertrag wird nicht alle genannten Probleme und Herausforderungen sofort lösen können, die mit Social-Media-Plattformen eingehen. Wir sehen allerdings dies als einen entscheidenden ersten Schritt, dass rechtliche Regelungen dafür sorgen, Social-Media-Plattformen als einen öffentlichen Ort der politischen Debatte zu sichern. Insbesondere zur Bekämpfung von Hate-Speech werden noch weitere Schritte notwendig sein.
Social-Media-Plattformen sind längst Teil unseres Alltags. Viele Menschen sind dort täglich, viele junge Menschen sogar stündlich unterwegs und posten Bilder, Texte oder schreiben mit Freund*innen. Social-Media-Plattformen sind ein Ort für alles, für süße Tierbilder und Updates aus dem Freund*innenkreis, aber sie sind auch ein zentraler Ort für politische Debatten und Meinungsbildung. Die Wichtigkeit von Social-Media-Plattformen für die politische Kommunikation und Meinungsbildung dürfte spätestens deutlich sein, seit der US-Präsident Drohnenangriffe twittert und die CDU auf YouTube zerstört wird.
Social-Media-Plattformen bieten dabei – zumindest theoretisch – auch marginalisierten Stimmen die Möglichkeit sich Gehör zu verschaffen und politische Argumente einzubringen und Debatten außerhalb der etablierten Medien- und Politikakteur*innen anzustoßen. So ermöglichen sie es, dass sich Leute in autoritären Regimen leichter organisieren können, wie Beispiele aus dem Arabischen Frühling zeigen. Aber auch in Demokratien vernetzen sich Bewegungen online und können so ihren Protest beispielsweise bei Fridays For Future oder den Black-Lives-Matter-Protesten schneller gemeinsam auch in die Offline-Welt übertragen. Allerdings zeigen sich auch deutliche Nachteile dieser offenen Debattenorte.
Hate Speech
So hetzten AfD-Anhänger*innen und andere Rechtsradikale* in den digitalen Kommentarspalten, Menschen werden bedroht und eingeschüchtert, sodass sie sich oft aus den digitalen Debatten zurückziehen. Auch wenn die Barrieren, Hate Speech im Internet zu verbreiten deutlich niedriger sind, so stellt Hate Speech kein rein digitales Problem dar, sondern ist es Symptom für menschenverachtendes Verhalten, welches nach wie vor auf allen Ebenen angegangen werden muss. Im Allgemeinen führt Hate-Speech immer wieder zu einer Debatte darüber, was in sozialen Medien stehen darf. Soziale Netzwerke werden dabei politisch viel zu oft als eine Art ‚Wilder Westen‘ dargestellt, in dem Gesetze nicht gelten. Dieses Bild entsteht vermutlich dadurch, dass Hasskommentare oft nicht geahndet werden, auch wenn sie zur Anzeige gebracht werden. Der Umfang von Hate Speech lässt sich weit definieren. Betroffene erfahren Abwertung, Angriffe oder gegen sie wird zu Hass und Gewalt aufgerufen. Hassrede adressiert regelmäßig bestimmte Personen und Personengruppen und ist Ausdruck struktureller Diskriminierung und gruppenbezogener Menschenfeindlichkeit. Die Begriffsbestimmung von Hate Speech ist bedeutend für die strafrechtliche Bewertung. Dass bspw. antisemitische, rassistische oder frauen*feindliche Aussagen mit fadenscheinigen Begründungen als zulässige Meinungsäußerungen geurteilt werden, ist kein neues Phänomen. Im Fall von Renate Künast hat das Landgericht Berlin wüste sexistische Beschimpfungen gegen die Grünen-Politikerin als „Kommentare mit Sachbezug“ und nicht als Beleidigung gewertet. Hier ist wichtig hervorzuheben, dass Hassrede von menschenfeindlicher Abwertung lebt und Gerichte in der Lage sein müssen, eine eindeutige Zuordnung vorzunehmen. Ansonsten mangelt es nicht nur an Sensibilität auf der Seite der Rechtsanwender*innen, sondern auch an zuverlässigem rechtlichen Schutz für Betroffene. Neben klassischen rechtsradikal motivierten Hasskommentaren müssen wir dabei auch geschlechtsspezifische digitale, über Social-Media-Plattformen ausgeübte Gewalt gegen Frauen* und nichtbinäre Personen in den Fokus setzen. Diese kann beispielsweise in Form von Beleidigungen und Beschimpfungen, Gewalt- bzw. Vergewaltigungsandrohungen und -phantasien, Erpressung, Doxxing (die Veröffentlichung privater Informationen ohne das Einverständnis der betroffenen Person), Mobbing, Identitätsdiebstahl, Stalking, heimlichen Aufnahmen, Bildmontagen in Bezug auf eine Person, Erstellung von täuschend ähnlichen Accounts oder Verleumdungen mit der Absicht, einer Person zu schaden, stattfinden. Dabei hat digitale Gewalt ähnliche Auswirkungen wie schwerwiegendes Mobbing – etwa psychische Beschwerden, psychosomatische Erkrankungen, Depressionen oder Suizidgedanken. Insbesondere von härteren Formen digitaler Gewalt, z.B. sexuelle Belästigung oder Stalking, sind weitaus mehr Frauen* als Männer* und insbesondere junge Frauen* betroffen. Darüber hinaus hat digitale Gewalt gegen Frauen* und nichtbinäre Personen häufig eine Dimension politischer Motivation: Digitale Gewalt trifft Frauen* und queere Menschen insbesondere dann oft, wenn diese sich für feministische oder queere Themen einsetzen. Teilweise organisieren sich Täter*innen dabei sogar in Chatforen, um gezielt Frauen* auf beispielsweise Twitter anzugreifen. Dies geschieht in der Regel aus einer misogynen und/oder queerfeindlichen Motivation der Täter*innen, die sich durch solche digitale Gewalt selbst normalisieren kann. Schwarze Frauen* und queere Personen sowie Women* und queere Persons of Color sind zusätzlich zu diesen Attacken ebenfalls massiven rassistischen Angriffen ausgesetzt. Wir erachten es daher als verheerend, dass durch digitale Gewalt zum einen Frauen* und nichtbinäre Menschen sowie Schwarze Personen und People of Color systematisch aus dem demokratischen Raum Social Media gedrängt werden, und zum anderen die öffentliche Debatte in, aber auch durch Soziale Medien systematisch in Richtung tendenziell antifeministischer, männlich geprägter Inhalte verschoben bzw. verzerrt wird.
Die Bundesregierung und der damalige Justizminister Heiko Maas reagierten auf diesen Hate-Speech mit der Einführung des sogenannten Netzwerkdurchsetzungsgesetz (NetzDG). Dies verpflichtet die Social-Media-Plattformbetreiber*innen mit mehr 2 Millionen Nutzer*innen Beleidigungen und andere „rechtswidrige“ Inhalte innerhalb einer 7-Tage-Frist nach Eingang einer Beschwerde zu löschen, bei „offensichtlich rechtswidrigen“ Inhalten beträgt die Frist 24 Stunden nach Eingang der Beschwerde. Die Entscheidung, was „offensichtlich rechtswidrig“ ist, wird dabei allerdings nicht von Gerichten getroffen, sondern von den Plattformen selbst. Dies lehnen wir ab, da die Entscheidung, welche Posts und Kommentare den Strafbestand der Volksverhetzung, Beleidigungen etc. erfüllen, in einem Rechtsstaat von Gerichten zu entscheiden ist und nicht nach undurchsichtigen Regelungen privatwirtschaftlicher Unternehmen. Zwar schließt das NetzDG nicht aus, dass gemeldete Kommentare ebenfalls strafrechtlich zur Anzeige gebracht werden können, die Frage, was aufgrund des NetzDG zu löschen ist und was nicht, trifft allerdings ausschließlich zunächst das Unternehmen. Da die Plattformbetreiber*innen in Falle von Nicht-Löschungen mit Geldstrafen belegt werden können, führt dies in der Praxis dazu, dass immer mehr Inhalte gelöscht und Nutzer*innen gesperrt werden – auch Journalist*innen, Satiriker*innen und Politiker*innen sind davon betroffen. Welche Posts dabei gelöscht werden, und welche nicht, ist dabei oft nicht nachzuvollziehen. So gibt es Fälle, in denen wortgleiche Posts von einigen Nutzer*innen gelöscht werden, während andere identische Posts vorhanden bleiben.
Das NetzDG wurde im Rahmen eines ‘Gesetzespaket gegen Hass und Hetze’ im Juni 2020 überarbeitet. Die zentralste Änderung ist hierbei die Einführung einer Meldepflicht für Social-Media-Plattformen an das Bundeskriminalamt (BKA). Diese verpflichtet die Betreiber*innen der Social-Media-Plattformen, Posts, die sie für strafrechtlich relevant halten, nicht mehr nur zu löschen, sondern auch an das BKA zu melden. Informationen, die für die Identifikation der Nutzer*innen notwendig sind sind dabei ebenfalls zu übermitteln. Als solche Informationen werden im NetzDG explizit die IP-Adresse und die Port-Nummer der Nutzer*innen genannt, sofern diese vorhanden sind. Eine IP-Adresse ist eine Art virtuelle Adresse, während eine Port-Nummer eine Art digitaler Fingerabdruck ist, die ein Gerät identifizieren kann. Allerdings werden Port-Nummern von den meisten Netzbetreiber*innen nicht erfasst, ebenso können IP-Adressen durch beispielsweise die Nutzung von Virtual-Privat-Networks (VPN), bei der die Internetaktivitäten über verschiedene IP-Adressen gelenkt werden, verschleiert werden, sodass die ursprüngliche nicht mehr erkennbar ist. Diese Meldepflicht gilt für die Verbreitung von Propagandamitteln oder die Verwendung von Kennzeichen verfassungswidriger Organisationen, die Vorbereitung einer schweren staatsgefährdenden Gewalttat, der Bildung und Unterstützung krimineller oder terroristischer Vereinigungen, die Verbreitung kinderpornographischer Inhalte, aber auch für volksverhetzende Posts und Gewaltdarstellungen, die Belohnung und Billigung von Straftaten oder Bedrohungen. Ausgeschlossen von dieser Meldepflicht sind hingegen Beleidigungen, üble Nachrede sowie Verleumdung. In solchen Fällen sollen die Plattformen stattdessen Nutzer*innen Informationen bereitstellen, wie sie eine Strafanzeige stellen können. Wenn ein Post an das BKA gemeldet wird, überprüft dieses, ob der Post eine Straftat darstellt. Falls dies zutrifft, kann das BKA weitere Nutzer*innendaten anfordern, damit der Fall an die jeweils zuständige Landesbehörde überwiesen werden kann.
Diese Meldepflicht erleichtert zwar eine juristische Verfolgung, allerdings bleibt die erste Entscheidung, welche Inhalte strafrechtlich relevant sind und damit weitergeleitet werden müssen, den Plattformbetreiber*innen überlassen und nicht – wie in einem Rechtsstaat notwendig – den Gerichten. Da den Betreiber*innen Geldstrafen drohen, wenn sie strafrechtlich relevante Inhalte nicht melden, ist es wahrscheinlich, dass auch Posts an das BKA gemeldet werden, die nicht strafrechtlich relevant sind. Dies ist insbesondere vor dem Hintergrund der bisherigen Lösch-Praxis der Unternehmen zu befürchten. Daher kann die Meldepflicht auch führen, dass vielfach Nutzer*innendaten an das BKA weitergeleitet und dort gespeichert werden, ohne das eine Straftat vorliegt. Nutzer*innen werden erst nach vier Wochen informiert, falls ihr Posts und ihre Daten an das BKA übermittelt worden sind, sofern das BKA diesem nicht vorher widerspricht. Wir lehnen diese Datenweitergabe an das BKA ohne einen vorherigen juristischen Beschluss ab. Die bloße Einschätzung eines privaten Unternehmens darf nicht dazu führen, dass massenweise Nutzer*innendaten an Strafverfolgungsbehörden weitergereicht werden. Viele Beleidigungen, Drohungen, gezielte Desinformationen und Diffamierungen verstoßen bereits jetzt klar gegen das Gesetz, es besteht lediglich ein Vollzugsdefizit. Deshalb fordern wir auf soziale Medien zugeschnittene Schwerpunktstaatsanwaltschaften an allen Landgerichten Deutschlands, um Ermittlungsverfahren tatsächlich durchzuführen.
Berlin wird auf die anderen Bundesländer zugehen und Gespräche darüber initiieren, inwiefern die Bundesländer ihre Zusammenarbeit beispielsweise durch die Errichtung einer gemeinsamen Zentralstelle zur Verfolgung von Kriminalität im ”Tatort Internet“ verbessern und schlagkräftiger gestalten können.
Darüber hinaus fordern wir niedrigschwellige Meldestellen für Online-Delikte bei den LKAs.
Eine Alternative zu dieser Datenweitergabe ist das sogenannte Quick-Freeze-Verfahren. Dabei werden Daten bei einem Verdacht auf ein strafbares Verhalten bis zu zwei Monaten gespeichert und erst nach einem richterlichen Beschluss an die Strafverfolgungsbehörden ausgehändigt werden. Angewandt auf das NetzDG hieße das, dass Nutzer*innendaten von einem gemeldeten Post zunächst von den Plattformbetreiber*innen gespeichert werden müssten und nach einem richterlichen Beschluss über den betreffenden Posts an die Behörden weitergegeben werden müssten. Somit würde verhindert werden, dass Betreiber*innen von Social-Media-Plattformen massenhaft direkt Daten ohne richterlichen Beschluss an Strafverfolgungsbehörden weiterreichen. Allerdings ist auch dieses Verfahren durchaus kritisch zu betrachten, da Nutzer*innendaten auch hier zunächst ohne juristische Kontrolle gespeichert werden würden. Auch besonders aufgrund der oben genannten Problematiken bei der Erfassung der Identifikationsnummern, wie der Verschleierung von IP-Adressen, ist auch dieses Vorgehen unverhältnismäßig.
Ein weiterer Punkt gegen die Meldepflicht ist das Widerspruchsrecht, dass Nutzer*innen nach einem Beschluss der Regierung aus dem April 2020 gegen die Löschung ihrer Posts erhalten sollen. Dies soll die Plattformbetreiber*innen dazu zwingen, auf Antrag der Nutzer*innen ihre Entscheidung gegenüber diesen zu begründen und erneut zu prüfen. Ebenso muss der*die Nutzer*in die Möglichkeit zur Stellungnahme erhalten. Durch die Meldepflicht könnte es daher im Rahmen von stattgegeben Widersprüchen dazu kommen, dass Posts wieder online gestellt werden, dass BKA dennoch bereits die Nutzer*innendaten erhalten hat.
Sofern es sich um besonders schwere Straftaten (wie Gefahr für Leben) handelt, hat das BKA auch die Möglichkeit Passwörter anzufordern, was einen Eingriff in das Fernmeldegeheimnis darstellt. Diese Pflicht zur Passwortweitergabe gilt dabei nicht nur für Plattformen, die unter das NetzDG fallen, sondern für alle Anbieter*innen von digitalen Medien (sog. Telemedien). Diese Passwortweitergabe ist allerdings wenig erfolgversprechend, da Passwörter nach der Datenschutzgrundverordnung (DSGVO) von den Plattformen nur verschlüsselt gespeichert und somit auch nur verschlüsselt weitergegeben werden können. Daher müssen die Passwörter von den jeweiligen Stellen zunächst entschlüsselt werden, was viel Zeit in Anspruch nimmt, sofern das Entschlüsseln überhaupt gelingt. Über die Weitergabe ihres Passworts werden die Nutzer*innen nicht informiert. Diese Weitergabe von Passwörtern sehen wir als Einschränkung von Freiheitsrechten im Internet allgemein. Das Vorgehen gegen Hate Speech darf nicht daran geknüpft sein, dass Nutzer*innen damit rechnen müssen, dass ihre Passwörter an Strafverfolgungsbehörden oder den Verfassungsschutz weitergereicht werden.
Im Zuge rechtsterroristischer Anschläge entflammte ebenso erneut eine Debatte über die sogenannte Klarnamenpflicht im Internet und auf Social-Media-Plattformen. Diese von konservativen Politiker*innen geforderte Klarnamenpflicht sieht vor, dass keine Anonymität auf Social-Media-Plattformen bestehen darf und Nutzer*innen nur noch unter ihrem richtigen Namen Inhalte posten dürfen. Diese Forderungen stellt einen massiven Eingriff in die Privatsphäre von Nutzer*innen dar, den wir entschieden ablehnen. Einerseits wird selbst Hate-Speech, der unter Klarnamen veröffentlicht wird, derzeit nicht immer adäquat verfolgt. Andererseits haben auch in einem Rechtsstaat viele Menschen nachvollziehbare Gründe, weshalb sie nicht unter einem Klarnamen kommunizieren. Wer sich beispielsweise antifaschistisch engagiert, kann sich in einigen Gegenden Deutschlands nicht offen dazu bekennen, ohne erhebliche Risiken für das alltägliche Leben auf sich zu nehmen. Um die Privatsphäre der Nutzer*innen zu schützen, muss auch untersagt werden, dass Gesichtserkennungsprogramme Social-Media-Plattformen als Datenbanken nutzen, die dann ebenfalls Strafverfolgungsbehörden zugänglich gemacht werden. Dies kann dazu führen, dass Menschen sich nicht trauen, beispielsweise an Demonstrationen teilzunehmen, da sie dort meist keine Kontrolle haben, wer dort von ihnen Fotos macht und anschließend auf Social-Media-Plattformen veröffentlicht.
Wir sehen die dringende Notwendigkeit, deutliche rechtliche Schritte gegen Hate-Speech zu setzen, allerdings darf und kann die Einschränkung grundlegender digitaler Freiheitsrechte nicht die Lösung sein. Die Freiheit des Internets darf nicht der Preis für jahrelange Versäumnisse im Bereich der Bekämpfung von Rechtsterrorismus sein. Wir fordern anstatt der Verschärfung der Gesetze, die bestehenden Gesetze anzuwenden und Straftaten wie Hate-Speech konsequent zu verfolgen. Wir sind uns des Spannungsfeldes zwischen der Freiheit des Internet und seiner Nutzer*innen sowie dem Aufkommen von Hate-Speech durchaus bewusst. In diesem hochsensiblen Bereich ist daher auch eine besondere Schulung und Ausbau der betreffenden Stellen bei Polizei und Justiz sowie die Verbesserung und Ausweitung der Angebote für Betroffene notwendig.
Gezielte Desinformationen & Politische Werbung
Hate-Speech ist allerdings nicht die einzige Gefährdung der öffentlichen Debatte auf Social-Plattformen. Gezielte Desinformationen (sogenannte “Fake News) verbreiten sich insbesondere auf Social-Media-Plattformen schnell. Gezielte Desinformationen können dabei auch gezielt von sogenannten ‚Bots‘ (Accounts, die von Programmen gestreut werden, die automatisiert Inhalte posten) gestreut werden. Diese Desinformationen werden meistens verbreitet, um Parteien und Kandidat*innen einen Vorteil zu bereiten, indem beispielsweise politische Gegner*innen in ein schlechtes Licht gerückt werden. Gezielte Desinformationen werden auch dazu genutzt, um die Diskussion von Themen zu beeinflussen. Beispiele hierfür sind die Streuung von Falschmeldungen über Übergriffe von Geflüchteten*, die gezielt verbreitet werden, um die Stimmung gegen geflüchtete Menschen aufzuheizen. Insbesondere vor Wahlen stellt diese Beeinflussung des Meinungsklimas ein deutliches Problem dar, wie der Präsidentschaftswahlkampf der USA 2016 oder auch der Vorlauf zum Brexit-Votum zeigte. Die Betreiber*innen der bekanntesten Social-Media-Plattformen sowie u.a. Vertreter*innen der Werbeindustrie unterzeichneten unter Leitung der Europäischen Kommission daraufhin einen Verhaltenskodex, also eine Selbstverpflichtung, um solchen Desinformationen entgegen zu wirken. Dieser Kodex beinhaltet u.a. die Zusagen, Werbeanzeigen auf gezielte Desinformationen zu überprüfen, politische Werbung und Anzeigen deutlich zu kennzeichnen, Regelungen zu Bots in ihren Nutzungsbedingungen festzulegen, die Position von Nutzer*innen zur Nutzung der Plattformen allgemein zu stärken sowie Forschungen zu gezielte Desinformationen zu fördern und nicht zu hindern.
Allerdings wurden auch im Vorlauf zur Europawahl unter der Begründung, dass Posts gegen die Richtlinien zu politischen Inhalten und Wahlen verstoßen würden, Posts ohne erkenntliche Gründe gelöscht und Nutzer*innen gesperrt. Auch Politiker*innen, wie Sawsan Chebli, und Zeitungen, wie die Jüdische Allgemeine, waren davon betroffen. Weitergehend kritisieren mittlerweile auch mehrere Landesmedienanstalten, die für die Überwachung der Regulierungen von Rundfunkmedien und Telemedien zuständig sind, dass die bisherigen Maßnahmen zur Bekämpfung von gezielte Desinformationen intransparent und unzureichend sind. Die Selbstregulierung der Plattformen in diesem Bereich ist daher als gescheitert zu betrachten, wie die Landesmedienanstalten ebenfalls schlussfolgern. Es braucht daher klare Vorgaben, wie mit gezielte Desinformationen umzugehen ist und welche Schritte Plattformen ergreifen müssen, um diesen entgegenzuwirken. Dies darf nicht länger auf freiwilliger Basis entschieden werden, da gezielte Desinformationen die politische Meinungsbildung und das Meinungsklima auf undemokratische Weise beeinflussen können. Hier sehen wir die Gesetzgeber*innen in der Pflicht, Wege zu finden, wie mit gezielte Desinformationen – insbesondere im Rahmen von Wahlkämpfen – umgegangen werden muss. Dabei darf es keine staatlichen Instanzen geben, die festlegen, was Wahrheit ist und was nicht. Stattdessen halten wir beispielsweise Warnhinweise neben mutmaßlich gezielten Desinformationen für sinnvoll, sofern diese durch unabhängige Faktenchecker*innen überprüft wurden und für falsch befunden worden. Inwiefern eine solche Einstufung als mutmaßliche gezielte Desinformation vorgenommen wird, ist nach festgelegten, transparenten Kriterien zu entscheiden. Diese Faktenchecker*innen sollten einen journalistischen Hintergrund haben und nicht von Plattformen als Arbeitgeber*innen abhängig sein. Um es den Nutzer*innen leichter zu machen, gezielte Desinformationen zu erkennen, fordern wir Aufklärungskampagnen über gezielte Desinformationen, die von den Landesmedienanstalten zu entwickeln sind und über die Social-Media-Plattformen unentgeltlich ausgespielt werden müssen.
Neben gezielten Desinformationen ist das Kaufen von Likes, Kommentaren usw. und somit von Reichweite ebenfalls eine Möglichkeit, Einfluss auf das Meinungsklima und die politische Meinungsbildung über Social-Media-Plattformen zu nehmen. Während im traditionellen Rundfunk (Fernsehen, Radio) politische Werbung generell verboten ist und es nur klare Ausnahmeregelungen für die Zeit vor Wahlkämpfen gibt, gibt es für Social-Media-Plattformen keine solche Regelungen. Dies ist insbesondere kritisch, da politische Werbung auf diesen Plattformen oft nicht eindeutig als solche gekennzeichnet ist – beispielsweise wenn Bots eingesetzt werden, oder Likes gekauft werden, um die Reichweite von Postings zu erhöhen. Zwar gab es vor der Bundestagswahl 2017 die Zusicherungen von allen demokratischen Parteien, keine Social Bots (Bots, die Profile bespielen und oft nicht als automatisiert zu erkennen sind) zu verwenden, allerdings gibt es hierzu nach wie vor keine gesetzlichen Regelungen. Die AfD kündigte damals an, explizit Social Bots einsetzen zu wollen, was die Notwendigkeit einer Regelung verdeutlicht. Wir fordern eine allgemeine Kennzeichnungspflicht von Social Bots und ein Verbot von diesen und anderen Maßnahmen wie das Kaufen von Likes, Kommentaren usw. zur künstlichen Generierung von Reichweite für politische Posts. Politische Werbung muss stets deutlich als solche erkennbar seien. Dies ist allerdings klar abzugrenzen, von der privaten und unbezahlten politischen Meinungsäußerung von Influencer*innen. Selbstverständlich haben diese das Recht, ihre Meinung frei zu äußern.
Social-Media-Plattformen und Meinungsmacht
Private Social-Media-Plattformen sind nicht der Sicherstellung der Meinungsvielfalt verpflichtet, sondern können alle Posts löschen, die gegen ihre Nutzungsbedingungen verstoßen. Daher ist der Vorwurf der Zensur, wenn Posts gelöscht werden, nicht passend, da lediglich staatliche Institutionen die Meinungsfreiheit – und Vielfalt sichern müssen. Dies stellt allerdings ebenfalls ein Problem dar, da Social-Media-Plattformen eine deutliche Meinungsmacht innehaben. Damit ist gemeint, dass was dort gepostet wird, den politischen Diskurs beeinflussen kann. Allein Facebook hatte 2019 in Deutschland 32 Millionen Nutzer*innen, während die Tagesschau beispielsweise 2019 durchschnittlich von ca. 9.8 Millionen Zuschauer*innen gesehen wurde. Wenn solch große Social-Media-Plattformen allerdings beschließen würden, keinen politischen Content von Parteien links der CDU zuzulassen, ist es fraglich, ob es Möglichkeiten gebe, dagegen rechtlich vorzugehen. Die traditionellen Rundfunkmedien sind durch den Rundfunkstaatsvertrag aus eben diesen Gründen der Meinungsmacht dazu verpflichtet, eine Vielfalt an Meinungen abzubilden. Dies gilt – wenn auch in geringerem Umfang im Vergleich zu den öffentlich-rechtlichen Anbieter*innen – auch für private Rundfunkanstalten. Wie politische Meinungen auf Social-Media-Plattformen auch von staatlicher Seite zensiert werden können, zeigt die Plattform TikTok. Diese Plattform kommt, anders als die anderen meistgenutzten Plattformen in Deutschland, nicht aus den USA, sondern aus China. Die App, die insbesondere bei jungen Menschen und Minderjährigen sehr beliebt ist, löscht Inhalte, die sich gegen die chinesische Regierung richten oder aus sonstigen Gründen der Plattform missfallen, oder filtert diese heraus, sodass sie entweder überhaupt nicht mehr für andere Nutzer*innen sichtbar sind oder ihre Reichweite stark eingeschränkt wird. Recherchen von Netzaktivist*innen haben ebenso offen gelegt, dass die Reichweite von Menschen mit Beeinträchtigungen gezielt eingeschränkt wird – angeblich um die betroffenen Personen vor Mobbing zu schützen. In Wirklichkeit werden damit marginalisierte Stimmen auch auf Social-Media-Plattformen verdrängt – und das völlig legal.
Social-Media-Plattformen als Ort der demokratischen Debatte sichern
Wir wollen Social-Media-Plattformen, die online die Gesellschaft der Freien und Gleichen verwirklichen. In der alle gleichberechtigt teilhaben und sich äußern können ohne Angst haben zu müssen, bedroht oder beleidigt zu werden. In der nicht privatwirtschaftliche Interessen bestimmen, was wie diskutiert wird, sondern die Menschen selbst, wobei die einzigen Einschränkungen demokratisch legitimierte Gesetze sind, die die Rechte von Minderheiten und Einzelpersonen wirksam schützen. Dies ist für uns grundlegend für einen demokratischen Diskurs. Nach den jetzigen Strukturen ist das nicht möglich. Daher müssen wir Gegenvorschläge machen, wie wir dieses Ideal erreichen wollen.
Allerdings brauchen wir dennoch Wege, die Meinungsmacht privater Social-Media-Plattformen dennoch schnellstmöglich einzugrenzen und sie zum Erhalt der Meinungsvielfalt zu verpflichten.
Wir brauchen Wege, die Meinungsmacht privater Social-Media-Plattformen schnellstmöglich einzugrenzen und sie zum Erhalt der Meinungsvielfalt zu verpflichten. Es sind Konzepte zu entwickeln, wie Social-Media-Plattformen hierzu strukturell und organisatorisch neu aufgestellt werden müssten.
Dies ist notwendig, da die Frage, welche Inhalte gelöscht werden, und wer in welchem Ausmaß zu Wort kommt, besonders bei politischen Inhalten von höchster Relevanz ist. Die Regulierung von Medien ist immer ein hochsensibler Akt, da die freie Meinungsäußerung und freie Medien feste Grundpfeiler jeder Demokratie sind. Wir stellen allerdings fest, dass es im Bereich der Social-Media-Plattformen dennoch eindeutig Regelungen braucht, da sie höchst relevante Akteur*innen in der Medienlandschaft und der politischen Meinungsbildung darstellen. Wir sehen den Medienstaatsvertrag, der bereits von allen Ministerpräsident*innen unterzeichnet wurde und nach der Ratifzierung durch die Landesparlamente voraussichtlich im September 2020 in Kraft treten soll und für alle Plattformen mit mind. einer Million Nutzer*innen gelten wird, als einen ersten wichtigen Schritt. Dieser umfasst einige wichtige Punkte, wie eine Kennzeichnungspflicht von Bots, die Sicherstellung der Gleichbehandlung von journalistisch-redaktionellen Angeboten, sodass Algorithmen keine bestimmten Inhalte bevorzugen dürfen, sowie die Verpflichtung zur journalistischen Sorgfaltspflicht und Strafe für Desinformationen. Diese Schritte gehen zwar in die richtige Richtung, die scheinbare wahllose Löschung von politischen Inhalten bleibt dadurch allerdings unberührt, genauso wie der Missbrauch von Social-Media-Plattformen im Wahlkampf.
Die etablierten kapitalistischen Plattformbetreiber*innen haben es geschafft, die dezentrale Struktur des frühen Internets zu monopolisieren. Dieser Plattform-Kapitalismus ist nichts anders als die Ökonomisierung des öffentlichen Diskurses. Die algorithmischen Verfahren, die beispielsweise den eigenen Twitter- oder Facebook-Feed zusammenstellen, sollen uns möglichst lange auf den jeweiligen Seiten verweilen lassen, sodass möglichst viele Werbeanzeigen verkauft werden können. Schon allein deshalb kann ein neutraler öffentlicher Diskursraum nicht endgültig durch den Plattform-Kapitalismus geschaffen werden. Diese Gewinnorientierung erschwert die Regulierung dieser privaten, gewinnorientierten Social-Media-Plattformen weiter. Der Zugang zu den Plattformen wird den Nutzer*innen entgeltfrei zur Verfügung gestellt. Im Gegenzug erhalten die Plattformbetreiber*innen die entsprechenden Nutzer*innendaten, welche sie sammeln, auswerten und privaten Werbeträger*innen zur Verfügung stellen, um diesen auf bestimmte Zielgruppen zugeschneiderte Werbeangebote zu ermöglichen. Die Profitquelle der Unternehmen ist also nicht der Plattformbetrieb an sich, sondern der Verkauf von Werbefläche. Da emotionalisierende Inhalte mehr Aufrufe generieren, und somit auch rentablere Werbeflächen darstellen, sind gezielte Desinformationskampagnen, die die Nutzerinnen empören und aufbringen, deshalb für die Plattformbetreiber*innen sogar von Vorteil. Mehr noch: die Entfernung von gezielten Desinformationen, die viel geklickt und geteilt werden, steht im direkten Konflikt zur Profitorientierung der Unternehmen. Nur mit massiver öffentlicher Aufmerksamkeit und damit verbundenen Einbrüchen seiner Aktien, konnte beispielsweise Facebook im Nachgang der U.S. Wahl 2016 überhaupt dazu motiviert werden, nur ein wenig zu handeln. Aufgrund der Monopole und Oligopole im Bereich der sozialen Medien, in denen sich Öffentlichkeiten zentral in wenigen Plattformen sammeln, sind alternative Plattformen für Nutzer*innen dazu oft einfach keine Option.
Der Monopolstellung sollte unter anderem durch kartellrechtliche Maßnahmen begegnet werden. Diese sehen als ultima ratio auch die Entflechtung bzw. Zerschlagung des Monopols vor.
Im Kartellrecht müssen Regeln festgeschrieben werden, die die Kombination bestimmter Geschäftsmodelle untersagen. Fusionen von digitaler Anbieter mit Monopolstellung sind grundsätzlich zu untersagen. Denn wenn ein Unternehmen sich lediglich auf den Plattformbetrieb konzentriert, und die Klickzahlen und die daraus generierten Profite in den Hintergrund rücken, besteht kein natürliches Interesse mehr, sich gegen die Entfernung der gezielten Desinformationen zu wehren. Neben dieser Zerschlagung müssen auch bereits bestehende Alternativen zu den etablierten, zentralisierten Social-Media-Plattformen gefördert werden, wie dezentrale Netzwerke. Im Gegensatz zu ihren zentralisierten Pendants laufen diese mit freier Software auf vielen verschiedenen Servern, die auf Basis offener Standards ein gemeinsames Netzwerk bilden. Damit hat kein*e Betreiber*in die alleinige Macht über die Plattform. Dennoch können aber die einzelnen Instanzen moderiert werden und die dortigen Benutzer*innen für Vergehen sanktioniert werden (beispielsweise durch Account-Sperren). Die momentan gültigen Regularien verhindern derzeit, dass sich solche – meist von kleinen Akteur*innen – getragenen Netzwerke etablieren können. Die aktuellen Anforderungen, beispielsweise im Bereich des Urheber*innenrechts lassen sich nur von großen, gewinnorientierten Plattformen erfüllen. Langfristig fordern wir daher, dass die Rechtslage die Verbreitung von dezentralen, gemeinnützig organisieren Plattformen begünstigt und fördert. Teile von solchen Netzwerken können z.B. auch von öffentlich-rechtlichen organisierten Betreiber*innen bereitgestellt werden. Außerdem fordern wir, dass die großen Plattformen zur Interoperabilität verpflichtet werden. Plattformen müssen sich für andere Anbieter öffnen. So wird die Souveränität der Nutzer*innen gestärkt.
Darüber hinaus fordern wir die Weiterentwicklung des Medienstaatsvertrags in einen Netzwerk-Staatsvertrag für Social-Media-Plattformen auf europäischer Ebene in Anlehnung an den Staatsvertrag für private Rundfunkmedien. Dieser muss klare Regelungen für die oben benannten Probleme bereitstellen. Insbesondere müssen sich die Social-Media-Plattformen verpflichteten, politische Meinungsäußerungen zuzulassen und nur politische Posts zu löschen, deren Rechtswidrigkeit festgestellt wurde. Löschungen aufgrund eigener politischer Überzeugungen der Netzwerkbetreiber*innen sind durch den Netzwerk-Staatsvertrag als unzulässig festzustellen, ebenso wie die Einschränkung der Reichweite von Nutzer*innen. Betreiber*innen von Social-Media-Plattformen haben die Algorithmen, welche die Inhaltsauswahl beispielsweise auf der Startseite (den sogenannte ‘Feed’) bestimmen, offenzulegen und diese transparent und nachvollziehbar darzustellen. Die Landesmedienanstalten sowie ihre europäischen Äquivalente sind entsprechend aufzustocken, um die Umsetzung dieser Regelungen zu kontrollieren.
Ein solcher Netzwerk-Staatsvertrag wird nicht alle genannten Probleme und Herausforderungen sofort lösen können, die mit Social-Media-Plattformen eingehen. Wir sehen allerdings dies als einen entscheidenden ersten Schritt, dass rechtliche Regelungen dafür sorgen, Social-Media-Plattformen als einen öffentlichen Ort der politischen Debatte zu sichern. Insbesondere zur Bekämpfung von Hate-Speech werden noch weitere Schritte notwendig sein.