Archive

Antrag 226/I/2024 Kinder- und Jugendschutz in den Sozialen Medien durch Altersverifizierung gewährleisten

21.04.2024

Nach den geltenden rechtlichen Bestimmungen dürfen Minderjährige nur mit Zustimmung der Erziehungsberichtigten Zugang zu den Sozialen Medien erhalten; für unter dreizehnjährige ist der Zugang untersagt.

 

Zwar fragen die die Betreiber das Alter ab, allerdings gibt es keine Altersverifizierung, sodass faktisch auch Minderjährige Zugang zu den sozialen Medien erhalten.

 

Knapp jeder vierte Jugendliche nutzt laut einer Studie soziale Medien wie Messenger- und Videodienste problematisch viel. Das zeigt eine Untersuchung des Nutzungsverhaltens 2023 der Krankenkasse DAK-Gesundheit und des Universitätsklinikums Hamburg-Eppendorf (UKE). Herangezogen wird dabei die Nutzung sozialer Medien wie Messenger- und Videodienste von 10- bis 17-Jährigen.

 

Hochgerechnet haben demnach 1,3 Millionen Kinder und Jugendliche einen riskanten Gebrauch digitaler Medien, das sind dreimal so viele wie im Vor-Corona-Jahr 2019. 2022 war der Anteil deutlich auf 22,2 Prozent gesprungen und steigt nun mit 24,5 Prozent weiter an. Als „riskante“ Nutzung gilt demnach ein häufiger und langer Gebrauch mit einem erhöhten Risiko für schädliche Folgen für die physische oder psychische Gesundheit. (zit. nach Die Zeit Online vom 27. Februar 2024)

 

Etwa 680.000 Kinder und Jugendliche in Deutschland sind einer FORSA-Studie zufolge süchtig nach Computerspielen und sozialen Medien. Diese Zahl habe sich während der Corona-Pandemie mehr als verdoppelt, heißt es in einer gemeinsamen Untersuchung der Krankenkasse DAK und des Universitätsklinikums Hamburg-Eppendorf.

 

Der Anteil der Minderjährigen, die Suchtverhalten bei Social Media aufweisen, stieg demnach seit dem Jahr 2019 von 3,2 auf 6,7 Prozent. Bei der Nutzung von Computerspielen kletterte die Quote von damals 2,7 Prozent auf 6,3 Prozent im vergangenen Jahr

 

Daher fordern wir die SPD Mitglieder des Senats von Berlin auf, darauf hinzuwirken, dass Berlin eine Bundesratsinitiative startet für mehr Kinder- und Jugendschutz in den Sozialen Medien, in dem die Betreiber verpflichtet werden, eine sichere und geeignete Altersverifizierung bzw. Zustimmungsprozesse der Erziehungsberechtigten durchzuführen.

Antrag 180/I/2024 Hände weg von meinen Chats! - Gegen Chatkontrolle und Überwachung im Internet

21.04.2024

Der Kongress der Party of European Socialists möge beschließen:

 

„Privacy is the right to a free mind“ – Was bisher geschah

Vor 10 Jahren, im Sommer 2013, versetzte der NSA-Mitarbeiter Edward Snowden die Welt in Aufruhr: Mit der Veröffentlichung geheimer Daten und Materialien konnte er beweisen, dass die Geheimdienste der USA ihre eigenen und auch fremde Staatsbürger*innen gezielt – auch das Handy der damaligen Bundeskanzlerin Angela Merkel wurde überwacht – aber auch großflächig und ungerichtet abhörten. Diese permanente Überwachung und Aufzeichnung von Bewegungsdaten, Kommunikation und Bildern erlaubte es den Geheimdiensten, auch Jahre nach der Aufzeichnung detaillierte Profile über Personen zu erstellen. Diese Form der unbegründeten und rechtswidrigen massenhaften Überwachung und Vorratsdatenspeicherung stieß damals zu Recht auf weltweite massive Empörung.

 

Seit den Leaks von Edward Snowden hat sich an der Praxis der Geheimdienste wahrscheinlich wenig geändert. Die Möglichkeiten, die eigene Kommunikation zu verschlüsseln und so vor dem Zugriff Dritter zu schützen, wurden aber ausgeweitet. Was vor 10 Jahren noch ein Hobby von wenigen Personen war, ist spätestens mit der Einführung von Ende-zu-Ende-Verschlüsselung bei Messengerdiensten in der Breite der Gesellschaft angekommen. Ende-zu-Ende-Verschlüsselung erlaubt es Nutzer*innen, private Kommunikation zu führen, ohne dass die Nachrichten von Messengerdiensten, Regierungen oder anderen unbefugten Personen gelesen werden kann – ein riesiger Fortschritt für Privatsphäre und sichere Kommunikation im Internet.

 

Im Mai 2022 stellte die schwedische EU-Kommissarin Ylva Johansson einen Gesetzvorschlag vor, der das Ende für verschlüsselte Kommunikation und Anonymität im Internet bedeuten könnte. „Child Sexual Abuse Reduction“ nennt sich dieses Vorhaben und das Ziel ist es, Kindesmissbrauch und die Verbreitung von diesen im Netz einzudämmen. Wir unterstützen das grundlegende, obligatorische Anliegen, der Unterbindung von Darstellungen sexuellen Kindesmissbrauchs, jedoch nicht diesen Weg dorthin. Denn dazu sollen neben der massenhaften Kontrolle von Chats auch Altersverifikation und Netzsperren eingesetzt werden.

 

Meine Chats gehören mir – und nicht einer KI oder den Behörden!

Ylva Johansson schlägt in ihrem Gesetzentwurf verschiedene Maßnahmen vor, die technische Umsetzung bleibt dabei unklar.

 

Zentral in der Debatte um diesen Entwurf ist die sogenannte Chatkontrolle: die Kommission hat das Ziel formuliert, alle Chats auf Kindesmissbrauch zu scannen.

 

Die Einführung einer Chatkontrolle würde dazu führen, dass die private Kommunikation jeder Person zu jeder Zeit gescannt würde. Dies würde einen massiven Einschnitt in die Bürger*innenrechte bedeuten.

 

Dass man verschlüsselte Kommunikation nicht einfach verbieten kann, ist zum Glück selbst Ylva Johansson klar. Die Alternative heißt „client-side scanning“: jede Nachricht würde, bevor sie verschickt wird, auf dem eigenen Gerät gescannt und mit einer zentralen Datenbank aus Darstellungen sexuellen Kindesmissbrauchs verglichen. In der Logik der EU-Kommission wird dadurch die Verschlüsselung der Kommunikation nicht angegriffen, schließlich wird die Nachricht erst gescannt und erst danach verschlüsselt.

 

Doch das Gegenteil ist der Fall. Die Einführung dieser Technologie einen massiven Einschnitt in die Privatsphäre darstellen und nach Einschätzung des legal councils der EU die Essenz der fundamentalen Rechte verletzen. Auch die Expert*innen, die der Digitalausschuss des Bundestages im März zu einer Anhörung eingeladen hat, haben sich einmündig gegen client-side-scanning ausgesprochen. Von Kinderschutzbund und Internet-Ermittler bis Chaos Computer Club – nicht einmal der Union ist es gelungen, eine*n Expert*in aufzutreiben, der*die sich für die vorgeschlagenen Maßnahmen ausspricht. Auch der wissenschaftliche Dienst des Bundestags sieht im aktuellen Verordnungsentwurf “unverhältnismäsige Eingriffe in die geprüften Grundrechte der GRCh (EU-Grundrechtecharta).

 

Auch technisch zeigen sich Problematiken: damit eine KI Missbrauchsabbildungen erkennen kann, muss sie vorher auf einer Sammlung von solchen Abbildungen trainiert werden. Dabei werden der KI Abbildungen gezeigt und die KI soll die Abbildungen als Missbrauch oder nicht deklarieren. Die Entscheidungen der KI im Trainingsprozess müssen von Menschen kontrolliert werden, die sich ebenfalls diese Abbildungen ansehen und die Entscheidung der KI bestätigen müssen. Eine solche unbekannte KI bietet massives Missbrauchspotential. Verbrecher*innen könnten Zugriff auf Trainingsdaten erlangen und diese Abbildungen weiter nutzen oder sich durch die KI selbst Bilder generieren lassen. Weiterhin kann von Bürger*innen nicht kontrolliert werden, ob die eigenen Nachrichten tatsächlich nur in diesem Rahmen kontrolliert oder ob auch andere Inhalte gesucht werden.

 

Jede*r Bürger*in wäre davon betroffen, dass sämtliche private Kommunikation ständig durchsucht würde. Von einer zentralen unbekannten Entität. Neben echten Missbrauchsabbildungen würde diese Kontrolle auch jede Menge falsche Meldungen produzieren, also Nachrichten, die fälschlich als Missbrauch gekennzeichnet werden und dann von den Behörden kontrolliert werden. Dies kann sowohl das Versenden von Kinderfotos in Familiengruppen als auch Nachrichten betreffen, die sich Jugendliche einvernehmlich schicken. Studien zeigen zudem, dass Inhalte, die die queere Community betreffen, deutlich häufiger fälschlich als Pornographie erkannt werden.

 

Zudem ist fragwürdig, ob die Einführung der Chatkontrolle tatsächlich einen Beitrag zu weniger Kindesmissbrauch leisten würde. Missbrauchsabbildungen werden in der Regel nicht per Messenger versendet. Stattdessen werden Links auf Seiten im „dark net“ geteilt, von denen das Material anonym abgerufen werden kann.

 

Die Einführung einer Chatkontrolle würde das zugrundeliegende Problem also nicht lösen, sondern unverhältnismäßig in die Privatsphäre aller eingreifen.

 

Keine Stoppschilder im Internet – Löschen, statt sperren!

Schon 2009 sagte Ursula von der Leyen, damals noch als Familienministerin, Abbildungen von sexualisierter Gewalt gegen Kinder im Internet den Kampf an. Ihr Vorschlag: Seiten, auf denen Darstellungen sexuellen Kindesmissbrauchs zu finden sind, sollen gesperrt und mit einem großen Stoppschild versehen werden. Dieser Vorschlag wurde damals nach langen Protesten aufgegeben. Zu Recht! Netzsperren sind nicht nur schwer umzusetzen und lassen sich leicht umgehen. Wird eine Seite mit einem großen roten Stoppschild versehen, wird auch noch aktiver Täter*innenschutz betrieben. Alle Materialien existieren noch auf den Servern der gesperrten Seite und können von Betreiber*innen einfach auf eine andere Seite übertragen werden.

 

Stattdessen wird in Deutschland inzwischen das Prinzip „Löschen, statt Sperren“ verfolgt. Stoßen Ermittler*innen im Internet auf Darstellungen sexuellen Kindesmissbrauchs, wird dies an die Serverbetreiber*innen gemeldet, die die Seite mit allen Inhalten löschen. Dieses Verfahren ist „einfach und wirksam“, so berichtet es das Justizministerium. Und doch werden viele Seiten nicht direkt gelöscht. Den Behörden fehlt häufig Personal, um alle Seiten zu löschen. Es ist nicht hinnehmbar, dass einfache Mittel, die ausschließlich Täter*innen betreffen, durch Ermittlungsbehörden nicht ausgeschöpft werden.

 

Netzsperren sind auch auf europäischer Ebene zu verhindern. Stattdessen müssen Missbrauchsabbildungen wo immer sie auftreten, gelöscht werden. Behörden müssen ausreichend Personal ausgestattet sein, um Seiten zu löschen.

 

Alter, geht‘s noch? – Ein Internet ohne Altersverifikation und Ausweispflicht

Die Kommission geht in ihrem Gesetzesvorhaben aber noch weiter, als bestehendes Material zu erkennen. Auch dem sogenannten „grooming“ – also versuchter Kontaktaufnahme von Erwachsenen bei Kindern mit dem Ziel des Missbrauchs soll Einhalt geboten werden. Dafür könnten Anbieter*innen künftig dazu gezwungen werden, Alterskontrollen einzuführen.

 

Heute schon verhindern manche Anbieter*innen, dass Kinder von Erwachsenen angeschrieben werden können. TikTok beispielsweise stellt Accounts von 13- bis 15-jährigen grundsätzlich privat. Solche Maßnahmen basieren meist auf Selbstauskünften der Nutzer*innen, dies wird der EU-Kommission sicher nicht ausreichen.

 

Möglichkeiten der Altersverifikation reichen von der Identifikation mit Ausweisen bis zur KI-gestützten Berechnung des Alters durch biometrische Daten. Nicht nur aus Datenschutzperspektive ist dabei eine Variante schlimmer als die nächste.

 

Die Verifikation des Alters durch Kontrolle des Personalausweises würde das Ende der Anonymität im Internet bedeuten. Nutzer*innen jeder Plattform, auf der Chats möglich sind, müssten den Anbieter*innen persönliche Daten übermitteln. Ein Datenleak oder ein Hackerangriff auf die Datenbanken der Anbieter*innen wäre fatal. Durch die AusweisApp ist es theoretisch möglich, nur die Daten zu übermitteln, die tatsächlich gebraucht werden. Es ist jedoch abzusehen, dass sich Plattformen mit dieser Einschränkung nicht zufriedengeben werden, sondern unter den Deckmantel gesetzlicher Legitimierung weitere Daten zu Werbezwecken sammeln werden und so weitere Daten von Nutzer*innen sammeln können, die sie eigentlich nicht haben sollten.

 

Der Angriff auf die Anonymität im Internet hat aber auch weitere Auswirkungen, die zu kritisieren sind. Die Pflicht, für jede Form der Online-Kommunikation den Personalausweis vorlegen zu müssen, wird massive Auswirkungen auf die Kommunikationsfreiheit im Internet haben. Wenn Nutzer*innen bei jeder Anmeldung und Nachricht im Internet befürchten müssen, dass Inhalte gelesen und zurückverfolgt werden können, hat dies messbare Folgen für das individuelle Verhalten und die Meinungsfreiheit. Es ist zudem unverhältnismäßig: Niemand würde auf die Idee kommen, vor jedem Gespräch, Telefonat oder Museumsbesuch einen Personalausweis anzufordern.

 

Personen, die keinen Ausweis besitzen, wären so komplett von digitaler Teilhabe ausgeschlossen. Auch Betreiber*innen von Open-Source-Programmen wären von einer solchen Regelung bedroht. Open-Source-Programme ermöglichen es Nutzer*innen, Programme kostenlos zu nutzen, weiterzuentwickeln und zu testen. Dabei gibt es keine zentrale Datenbank von Nutzer*innen, sondern Programme oder Quellcode können aus verschiedenen Quellen genutzt werden. Der Schutz der persönlichen Daten von Nutzer*innen muss auch im Internet gelten!

Antrag 179/I/2024 Ein echtes Gesetz zur Bekämpfung digitaler Gewalt

21.04.2024

Digitale Gewaltakte gehören für viele Personen leider zum Alltag im Internet. Insbesondere marginalisierte und diskriminierte Gruppen erleben durch die Nutzung digitaler Medien oder technischer Hilfsmittel oft Hass, Verfolgung und Diskriminierung im digitalen Raum. Gewalt findet nicht nur öffentlich auf sozialen Medien statt, sondern auch in partner*innenschaftlicher Gewalt oder im sozialen Nahbereich (z.B. Familie, Freundeskreis, Sportverein). Grob lassen sich zwei Formen digitaler Gewalt unterscheiden: Plattformbasierte digitale Gewalt, wie beispielsweise Belästigung und Cybermobbing, und technologiebasierte digitale Gewalt, also Gewalt, die mithilfe technischer Geräte und/oder digitaler Technologie ausgeführt wird. Digitale Gewalt ist häufig mit analoger Gewalt, d.h. offline Gewalt, verknüpft, etwa als Fortsetzung oder Ergänzung von analog bestehenden Gewaltdynamiken. Auch die Intentionen ähneln sich stark – es geht um Macht, Kontrolle, Unterdrückung, Demütigung, Verletzung und kann im schlimmsten Fall auch zu Mord und Suizid führen. Wie auch analoge Gewalt nimmt digitale Gewalt stetig zu. Und das, obwohl das Netzwerkdurchsetzungsgesetz seit Jahren Plattformen verpflichtet, sträfliche Inhalte innerhalb kurzer Zeit zu entfernen. Allein langwierige und intransparente Prüfverfahren von Inhalten, nachdem diese gemeldet wurden, zeigen die Defizite der bestehenden Regulierung. Auch mit dem seit Februar 2024 wirkenden “Digital Services Act” wird sich diese Situation voraussichtlich nicht wesentlich verbessern. Die in 2024 verabschiedete EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt beinhaltet ebenfalls neue Straftatbestände im Bereich digitale Gewalt, jedoch blockierten Mitgliedsstaaten wie Polen aber auch Deutschland eine wirklich progressive Gesetzgebung. Konkret blockierte Deutschland, dass es EU-weit einheitliche Straftatbestände für Vergewaltigung gibt. Was alle diese genannten Regelungen eint: sie sind primär auf die Identifizierung und Verfolgung von strafbaren Inhalten und von Täter*innen auf sozialen Plattformen ausgerichtet, aber wenig bis gar nicht auf Gewalt durch andere Arten von Technologie oder Gewalt im sozialen Nahbereich. Prävention sowie Betroffenenschutz wird fast gänzlich ausgespart. Im Koalitionsvertrag der Ampelparteien auf Bundesebene wurde vereinbart, ein Gesetz gegen digitale Gewalt auszuarbeiten und die Situation von Betroffenen zu verbessern. Im April 2023 hat das Bundesjustizministerium erste Eckpunkte für ein entsprechendes Gesetz vorgelegt. Nach Meinung vieler zivilgesellschaftlichen Organisationen sind die Ideen aus dem Bundesjustizministerium viel zu kurzgefasst. Eine ganzheitliche Strategie, die Polizeiarbeit, Justiz, Bildungsarbeit und Hilfeleistungen für Betroffene berücksichtigt, fehlt bisher.

 

Daher fordern wir eine echte Strategie gegen digitale Gewalt und ein Gesetz, was diesen Namen auch verdient. Aus unserer Sicht müssen folgende Punkte enthalten sein:

 

I: ganzheitliche Definition von digitaler Gewalt

Bisher gibt es keine Definition, was digitale Gewalt überhaupt ist. Häufig werden nur Volksverhetzung, Androhung von schwerwiegenden Straftaten oder Morddrohung als digitale Gewalt aufgefasst. Dies sind zwar auch wichtige Beispiele digitaler Gewalt, aber durch den Einsatz von digitaler Technik müssen wir den Begriff weiter fassen, da sich durch technische Innovation die Möglichkeiten digitaler Gewaltanwendungen immer weiter erweitern. So sind beispielsweise Doxing (die Veröffentlichung personenbezogener Daten durch Täter*innen), Stalking, Tracking (die Nachverfolgung von Aktivitäten) sowie bildbasierte Gewalt (z.B. nicht einvernehmliche versandte „dick pics“) sehr verbreitet. Darüber hinaus ermöglichen KI-Systeme die Generierung von gefälschtem und nicht-einvernehmlichem sexuellem Bildmaterial, sogenannte „deep fake pornography“. All das ist auch digitale Gewalt, da sie Betroffene schädigen können. Auch ist es ohne eine Definition von digitaler Gewalt schwierig, eine Datengrundlage aufzubauen, um Forschung zu betreiben und das Problem besser zu verstehen. Häufig gibt es ohne Daten und Definition zu wenig Geld für Präventionsangebote und Maßnahmen zum Schutz vor digitaler Gewalt können nur unvollständig getroffen werden.

 

II: Bessere Hilfeleistungen für Betroffene

Analoge und digitale Gewalt müssen gemeinsam gedacht werden, da der Übergang oft fließend ist. Die Hilfeleistungen für Betroffene von digitaler Gewalt müssen dringend gestärkt werden. Daher muss, um digitale Gewalt zu bekämpfen, die existierenden Strukturen des Gewaltschutzes durchfinanziert, ausgebaut und für digitale Gewalt aufgerüstet werden. Frauenhäuser sind beispielsweise bereits unterfinanziert und überlastet. Für die Arbeit im Umgang mit digitaler Gewalt sind sie oftmals nicht richtig geschult. So können Täter*innen durch Tracking der Handys Auskunft darüber erhalten, wo genau das Frauenhaus sich befindet und damit wäre die betroffene Person wieder in Gefahr. Das Personal muss dazu in der Lage sein, versteckte Programme ausfindig zu machen und zu deinstallieren, um die Sicherheit aller Personen im Haus gewährleisten zu können. Es bedarf hier einer stärkeren finanziellen Förderung existierender Strukturen und der Schaffung spezialisierter Dienste gegen digitale Gewalt. Beispielsweise muss die Förderung der Zivilgesellschaft zur Beratung von Betroffenen von digitaler Gewalt durch das Bundesjustizministerium gestärkt werden. Die Landesregierungen sollen ergänzende Angebote schaffen. Die Berliner Landesregierung soll die Mittel für Bildungsangebote gegen Gewalt und für Demokratieerziehung ausbauen und nicht wie bisher immer weiter streichen.

 

III: Bildungsarbeit

Daneben bedarf es auch weiterer Hilfsprogramme – beispielsweise an Schulen, um digitale Kompetenz zu stärken und frühzeitig gegen digitale Gewalt vorzugehen. Dafür ist, wie im Koalitionsvertrag vorgeschlagen, die Gründung einer Bundeszentrale für digitale Bildung elementar. Schüler*innen sollen dabei auch verstärkt die Fähigkeiten zur digitalen Selbstverteidigung an die Hand gelegt bekommen, um sich sicher auf sozialen Medien und im Umgang mit anderen Technologien zu werden. Zivilgesellschaftliche Akteur*innen sollten dabei mit eingebunden werden. Daneben bedarf es auch besonderer Programme in Unternehmen, an Universitäten und Berufsschulen. Die Einrichtung und spezielle Schulung von psychologischen Diensten in diesen Bereichen sollte verpflichtend sein, damit sich Betroffene schnell Hilfe suchen können.

 

IV: Bessere Plattformen

Plattformen dienen häufig als Treiber*innen von digitaler Gewalt in dem Hass und Desinformation schneller geteilt und verbreitet werden, als andere Inhalte. Die Tech-Unternehmen hinter den Plattformen müssen bei der Bekämpfung von digitaler Gewalt daher auch verstärkt in die Pflicht genommen werden. So fordern wir, dass Plattformen ihre Algorithmen und Empfehlungssysteme so anpassen, dass Inhalte digitaler Gewalt nicht mehr verbreitet werden können. Inhalte digitaler Gewalt müssen nach Meldung schneller als derzeit üblich gesperrt werden. Unsere Ablehnung des Netzwerkdurchsetzungsgesetz bleibt von dieser Forderung allerdings unberührt. Welche Äußerungen strafbar sind, kann in einem Rechtsstaat nur die Justiz entscheiden und diese Entscheidung nicht an privatwirtschaftliche Unternehmen ausgelagert werden. Dabei müssen aber auch grundlegende Menschenrechte wie die freie Meinungsäußerung und Selbstbestimmung geachtet und dem Löschen konsensueller und legaler sexueller und feministischer Inhalte Einhalt geboten werden. Die Löschpraktiken und weitere Maßnahmen der Plattformen zum Schutz gegen digitale Gewalt sollen außerdem regelmäßig von einer unabhängigen Aufsichtsbehörde geprüft werden. Die Arbeitsbedingungen von Content-Moderator*innen, welche diese Maßnahmen umsetzen werden, müssen überprüft und verbessert werden. Die Aufsichtsbehörde muss außerdem in die Lage versetzt werden, Plattformen mit empfindlichen Geldstrafen bei Nicht-Einhaltung der Regulierungen zu versehen. Zusätzlich bedarf es Verbandsklagemöglichkeiten für Betroffene gegenüber Plattformen. Während Social-Media-Plattformen Gewinne mit Geschäftsmodellen erwirtschaften, die Hass im Netz begünstigen, weisen diese jegliche Verantwortung für den dort verbreiteten Hass von sich. Den gesellschaftlichen Schäden, die durch die Diskursverschiebung nach rechts auf öffentlichen Plattformen entstehen, wird heute hauptsächlich von zivilgesellschaftlichen Organisationen entgegengewirkt. Organisationen wie beispielsweise HateAid oder DasNettz e.V. bieten Opferschutz und Beratungen an, stehen jedoch aufgrund begrenzter Projektmittel häufig vor finanziellen Schwierigkeiten. Social-Media-Plattformen müssen daher verpflichtet werden, einen Anteil ihres Gewinns aufzuwenden, um die gesellschaftlichen Kosten für die Schäden durch Hass im Netz in ausreichendem Maße zu tragen.

 

V: Polizei- und Justizarbeit verbessern

Die Polizei und Justiz müssen den Umgang mit digitaler Gewalt endlich ernst nehmen und bestehende Gesetze konsequent durchsetzen. Viel zu oft erhalten Betroffene keine Unterstützung, ihnen werden ihre Erfahrungen abgesprochen oder ihnen werden Schuldvorwürfe gemacht. Hier bedarf es einer zusätzlichen Sensibilisierung und verstärkter Zusammenarbeit mit der Zivilgesellschaft sowie Hilfsprogrammen. Auch bedarf es neuer Möglichkeiten des Rechtsstaates, um im Netz effektiv durchgreifen zu können. Richterlich angeordnete Accountsperren sollen bereits bei einmaligem Strafrechtsverstoß möglich sein, um die Reichweite von Täterinnen zu beschränken und eine generalpräventive Wirkung zu entfalten. Zudem müssen die Ressourcen für diesen Themenbereich in der Justiz erhöht und Verfahren sowie Anzeigen weiter digitalisiert werden. Aus diesem Grund wiederholen wir unsere Forderung nach Schwerpunktstaatsanwaltschaften für diesen Bereich. Weiterhin hilft es Betroffenen digitaler Gewalt, die Impressumspflicht so zu aktualisieren, dass keine Privatadressen von Einzelpersonen verwendet werden müssen, denn das setzt Aktivist*innen, Journalist*innen und Blogger*innen unnötigen Risiken aus. Zukünftig soll beispielsweise die Angabe eines Postfachs zur Identifikation ausreichend sein. Zudem muss der Zugang zu Melderegistersperren für gefährdete Personen wie Journalist*innen, Aktivist*innen oder Politiker*innen vereinfacht werden.

Antrag 178/I/2024 Unterstützung des offenen Briefes “Menschenrechte schützen – Biometrische Fernidentifizierung verbieten”

21.04.2024

Wir schließen uns dem offenen Brief an die Bundesregierung “Menschenrechte schützen – Biometrische Fernidentifizierung verbieten” des Vereins D64 und verschiedener zivilgesellschaftlicher digitalpolitischer Organisationen an und fordern die Bundesregierung auf, die nationale Verschärfung des europäischen AI Act so zu nutzen, dass jegliche Form der biometrischen Fernidentifizierung in Deutschland verboten wird. Damit bekräftigen wir die Umsetzung des im Koalitionsvertrag festgehaltenen Verbots der biometrischen Erkennung im öffentlichen Raum sowie des Verbots eines Einsatzes von biometrischer Erfassung zu Überwachungszwecken.