Umgang, Einsatz und Auswirkungen von neuen Technologien allgemein:
Neue Technologien bieten vielfältige Möglichkeiten unser gesellschaftliches Miteinander neu zu gestalten. Sie können jedoch keine pauschale Lösung anbieten. Vor dem staatlichen Einsatz einer neuen Technologie muss fallspezifisch für jede Einzelne abgewogen werden, ob die Anwendung der Technologie eine Verbesserung zum Status Quo darstellt. Dabei sollten folgende fünf Punkte bedacht werden:
- Neue Technologien bieten oft vermeintlich einfache Antworten auf komplexe Fragen und können somit politisch gut vermarktet werden. In der medialen Darstellung mag ein Schlagwort die „Lösung“ darstellen, in der Realität greifen diese jedoch oft zu kurz. So werden zum Beispiel Vorratsdatenspeicherung zur Bekämpfung von Terror und Videoüberwachung gegen Drogen- und Bandenkriminalität präsentiert. Es ist offensichtlich, dass dies negative Erscheinungen komplexer gesellschaftlicher Prozesse sind, die nicht durch eine einzelne plakative Maßnahme gelöst werden können. Es wird vergeblich probiert, mit technischen Ansätzen soziale Probleme zu lösen. Allenfalls tragen diese Maßnahmen jedoch zur Bekämpfung der oberflächlichen Symptome bei.
- Neue Technologien produzieren Daten und erlauben es, diese zu verarbeiten. Wenn diese Daten einmal vorhanden sind, ist es schwer ihren Missbrauch zu verhindern. Zum einen ist es für Bürger*innen schwer herauszufinden, welche Daten von ihnen erfasst und gespeichert werden. Zum anderen schafft jeder Datensatz auch immer ein Missbrauchspotential. Es existieren zwar Regeln und Kontrollorgane (Parlament, Verfassungsgericht), um das Überschreiten von Zuständigkeiten wie dem unerlaubten Eingriff in die Privatsphäre und Datenschutz-Verletzungen zu verhindern. Die Vergangenheit zeigt jedoch, dass es trotzdem immer wieder zu Missbrauch kommt. So haben einige Berliner Polizist*innen die Polizeidatenbank POLIKS auch genutzt um Nachbar*innen und Kolleg*innen auszuspionieren. Bürger*innen müssen darauf vertrauen, dass Behörden die Daten nicht unzweckmäßig verwenden. Weiterhin können Daten durch Sicherheitslücken in falsche Hände geraten bzw. bei Verschiebung der vorherrschenden politischen Interessen oder einem Regime-Wechsel missbraucht werden. Da es keine Garantie gibt, dass mit den heute gespeicherten Daten in zehn Jahren nach den jetzigen Vorstellungen umgegangen wird, müssen nach dem Grundsatz der Datensparsamkeit jeweils so wenig Daten wie möglich erfasst werden. Außerdem müssen Strukturen aufgebaut werden, die einen Missbrauch innerhalb der Behörden effektiver verhindert.
Wir sehen eine Wandel von repressiven (aufklärende) zu präventiven (vorbeugenden) polizeilichen Maßnahmen. Hierbei stützen sich die präventiven Maßnahmen auf Daten und Algorithmen und nicht auf tatsächliche und individuelle Indizien. Die Gefahr ist, vor allem bei komplizierten Algorithmen, dass Verdachtsmomente und Grundrechtseingriffe nicht auf Fakten, sondern auf Statistik und Wahrscheinlichkeiten beruhend geschehen. Unbescholtene Verdächtigungen sind also unausweichlich.
- Digitale Ansätze erfordern meist eine hohe Abstraktion, weshalb es vielen Bürger*innen schwer fällt, inhaltlich der öffentlichen Diskussion zu folgen oder sich zu beteiligen. Viele Menschen fühlen sich überfordert und denken, ihr technisches Wissen reiche nicht, um an der Diskussion teilzunehmen. Aber auch Politiker*innen sind davon betroffen und lassen neue Technologien in Behörden einsetzen. Versprechungen von Herstellern werden geglaubt, insbesondere, wenn eine neue Technologie angeblich Zeit, Geld oder Arbeitsaufwand sparen kann. Die gefühlte Objektivität und Intransparenz einer durch den Computer empfohlenen Entscheidung führt insbesondere unter Zeitdruck zur Umsetzung der Handlungsempfehlung durch die Behörden, ohne weitere Prüfung. Dies kann zu fatalen Fehlentscheidungen führen, wie z.B. der unrechtmäßigen Abschiebung eines Kurden aus dem Irak, bei dem das BAMF eine Sprachanalysesoftware zur Erkennung der Muttersprache eingesetzt hat. Die Software kannte seine Muttersprache allerdings gar nicht. Ein positives Ergebnis war also von vorneherein ausgeschlossen. Die Auswirkungen eines Technologie-Einsatzes können jedoch Jede*n betreffen, weshalb es wichtig ist, Menschen im kritischen Umgang mit Technologie auszubilden, aber auch Bürger*innen mit Alltagswissen in den Prozess der Technologie-Anschaffung einzubeziehen.
- Des Weiteren sind gerade Entscheidungen „intelligenter“ Systeme weder für Benutzer*innen noch für Betroffene klar zu durchschauen. Machine-Learning-Algorithmen nutzen bestehende Datensätze, um Entscheidungen zu treffen. Zum Beispiel könnte ein intelligentes Videoüberwachungssystem auf die Kriminalstatistik zurückgreifen, um zu entscheiden, ob eine Person kontrolliert werden sollte. Ein bereits bestehender Bias innerhalb dieser Datensätze beispielsweise institutioneller Rassismus in Form von Racial Profiling wird durch diese Algorithmen reproduziert und verfestigt. Dies widerspricht unserem Verständnis von Rechtsstaat, in dem jegliche Verurteilung bzw. Verdächtigung auf realen Beweisen beruhen müssen und nicht aufgrund statistischer Wahrscheinlichkeiten. Mit immer mehr Informationen, die Behörden zur Verfügung stehen, steigt außerdem die Wahrscheinlichkeit, dass sich darunter etwas Belastendes befindet. So könnte z.B. aus der Bekanntschaft mit einer Person aus vermeintlichen „Risikogruppen“ ein Verdachtsmoment konstruiert werden. Dies ermöglicht es, bei sehr vielen Menschen einen signifikanten Grundrechtseingriff zu rechtfertigen. Die präventiven Maßnahmen stützen sich auf Daten und Algorithmen und nicht auf tatsächliche und individuelle Indizien. Die Gefahr ist, dass Verdachtsmomente und Grundrechtseingriffe nicht auf Indizien, sondern auf Wahrscheinlichkeiten und Statistiken beruhen.
- Digitale Ansätze erfordern meist ein hohes Abstraktionslevel, weshalb es vielen Bürger*innen schwer fällt, inhaltlich der öffentlichen Diskussion zu folgen oder sich zu beteiligen. Viele Menschen fühlen sich überfordert, und denken, ihr technisches Wissen reiche nicht, um an der Diskussion teilzunehmen. Die Auswirkungen des Technologie-Einsatzes betreffen jedoch Jede*n, weshalb es wichtig wäre, Menschen durch digitale Bildung solche Fähigkeiten zu verleihen, aber auch Bürger*innen mit Alltagswissen einzubeziehen. Hinzu kommt, dass es (noch) wenig Nicht-Regierungsorganisationen gibt, die sich mit den Auswirkungen von Technik auf unsere Gesellschaft befassen und deshalb negative Folgen von neuen Technologien selten erkannt und thematisiert werden. In einer lebendigen Demokratie müssen alle Seiten ausreichend vertreten sein. Vor diesem Hintergrund ist es besonders wichtig, die Empfehlungen von Expert*innen (z.B. CCC) bzgl. neuer Technologien und deren Einsatz in den politischen Entscheidungsprozess aufrichtig einzubeziehen.
5) Des weiteren sind die gesellschaftlichen Folgen vom Einsatz neuer Technologien schwer im Vorhinein abzusehen. So reproduzieren und verfestigen beispielsweise Machine-Learning Algorithmen bestehende Machtstrukturen. Hinzu kommt, dass unbekannt ist, wie diese Algorithmen zu ihren Ergebnissen kommen. Dies wiederspricht unserem Verständnis von Rechtsstaat, in dem jegliche Verurteilung bzw. Verdächtigung auf realen Beweisen beruhen muss und nicht aufgrund statistischer Wahrscheinlichkeiten aufgemacht werden darf.
Aus den genannten Gründen halten wir eine gewisse Skepsis gegenüber neuen Technologien und kritisches Hinterfragen der Notwendigkeit ihres Einsatzes für unbedingt notwendig. Wir dürfen auf keinen Fall in einen Technologie-Optimismus verfallen und diesen für politische Zwecke nutzen ohne tiefergehend über Konsequenzen nachgedacht zu haben. Die obige Auflistung ist allgemein formuliert und da jede Technologie spezifische Risiken birgt, muss jeder Punkt im Einzelfall vor dem Einsatz einer neuen Technologie umfangreich geprüft werden.
Risiken und Nebenwirkungen von Videoüberwachung:
In Berlin gibt es derzeit im Zusammenhang mit dem Bürger*innenbegehren des Bündnisses für mehr Videoaufklärung eine hohe Aufmerksamkeit auf ebendieses Thema. Auch gibt es einen scheinbaren Rückhalt für diese Technologie innerhalb großer Teile der Bevölkerung. Diese Befürwortung beruht allerdings darauf, dass durch geschickte Wortwahl ein generelles Unsicherheitsgefühl der Bürger*innen emotional umgedeutet und damit ein hohes Maß an Zustimmung erreicht. Es wird hier also eine vermeintlich simple Antwort als Patentlösung für ein komplexes Problem präsentiert. Allerdings wird die angesprochene Unsicherheit auf einen sehr eng gefassten Sicherheitsbegriff reduziert, der lediglich auf Straftaten im öffentlichen Raum konzentriert ist. Jedoch sind ein Großteil der existenten Bedrohungen für das subjektive (Zukunfts)sicherheitsgefühl der Bürger*innen nicht Straftaten, sondern viel alltägliche Ängste, wie die Angst vor Arbeitslosigkeit oder Wohnraumverdrängunng, wie auch bereits im Entwurf des Beschlusstextes „Sicher leben in Berlin – wir wollen Urbane Sicherheit!“ festgehalten. Wir befürworten deshalb diesen allumfassenderen Sicherheitsbegriff von „Urbaner Sicherheit“, der tatsächliche Ängste der Bevölkerung besser aufgreift.
Zum Sicherheitsbegriff gehört auch die Sicherheit vor willkürlichem Eingriff in die eigenen Rechte und die Privatsphäre durch den Staat.
Die Berliner SPD hat dabei bereits erkannt, dass die Bekämpfung von Straßenkriminalität hierbei nur die Symptombekämpfung ist, es aber eigentlich einer Beseitigung der sozialen Ursachen bedarf. Um handlungskompetent zu wirken, wird häufig jedoch weiterhin publikumswirksamen an dieser Symptonbekämpfung gearbeitet. Das Ausnutzen des großen Begriffs der Sicherheit für einen so stark verkürzten Anteil daran wurde unter anderem durch PR-Aktionen der Initiative für einen Volksentscheids für mehr Videoüberwachung erfolgreich als Gegenstand einer öffentlichen Debatte gesetzt und als Lösung für ein Sicherheitsproblem propagiert. Dieser Einschränkung des Sicherheitsbegriffs muss die Berliner SPD weiterhin entgegenwirken, da sie verkürzt, aber öffentlichkeitswirksam ist und die wahren Ursachen des Unsicherheitsgefühls verkennt. Die SPD darf diese Argumentation nicht einfach so übernehmen, sondern muss klarstellen, dass es sich dabei um Populismus handelt, der die eigentlichen Probleme und Unsicherheiten der Menschen nicht anfasst.
Natürlich ist die Verhinderung von Straftaten ein legitimes Interesse der Bürger*innen gegenüber dem Staat. Auch die Jusos Berlin wünschen sich eine Reduzierung der Kriminalität. Viel besser geeignet als Videoüberwachung zur Erreichung dieses Ziels sind jedoch andere Maßnahmen. Man könnte zum Beispiel Community Policing in Erwägung ziehen.
Das Ausbauen von Videoüberwachung bedeutet einen massiven Eingriff in die Persönlichkeitsrechte [1] und die Privatsphäre. Privatsphäre gilt es nicht nur zu schützen, weil dieses Grundrecht im Gundgesetz verankert ist, sondern auch weil eine verschwindende Privatsphäre zu mehr Konformität und im Extremfall einem Stillstand gesellschaftlicher Weiterentwicklung führt. Das große Paradoxon der Videoüberwachung ist, dass seit Jahren eine Grundrechtsbeschneidung zu Gunsten der Videoüberwachung zu beobachten ist, obwohl die Wirksamkeit der Videoüberwachung zur Verbrechensverhinderung– oder Aufklärung nicht wissenschaftlich belegt ist [2]. Das Risiko eines Missbrauchs der Daten, ein dauerhaftes Gefühl der Überwachung, Grundrechtseinschränkungen im Bereich der Bewegungs- und Meinungsfreiheit, die Begrenzung des Rechts auf Privatsphäre und die Gefahr eines falschen Alarms überwiegen den geringen Beitrag zur Aufklärung bei Weitem. Wir opfern also die Grundpfeiler unser Demokratie für ein Instrument, dessen objektiver Nutzen nicht gegeben ist. Wir möchten klar festhalten, dass die Risiken und Nebenwirkungen, die mit dem Einsatz von Videoüberwachung einhergehen und die Einschnitte in die Grundrechte von Bürger*innen nicht gerechtfertigt sind. Im Ergebnis ist die Videoüberwachung also wenig geeignet zur Kriminalitätsbekämpfung. Sie ist weder erforderlich noch angemessen.
Wurde anfangs damit argumentiert, dass Videoüberwachung ein wirksames Mitel zur Verbrechendsvorbeugung und –bekämpfung sei, bezweifelt heute auf direkte Nachfrage keiner mehr, das Videoüberwachung letztlich nur verdrängende Effekte zeigt und möglicherweise das subjektive Sicherheitsgefühl erhöht. Dennoch werden Forderungen danach nicht hinterfragt.
Dass Videoüberwachung sich insbesondere in der Politik dennoch hoher Sympathie erfreut, liegt unseres Erachtens zum Einen daran, dass sie gut vermarktet werden kann. Ein einziges Verbrechen, dass mit Hilfe von Kameraaufnahmen aufgeklärt werden konnte, übertrumpft medial die großen Grundrechtseingriffe in das Leben aller Menschen, die dafür nötig waren. und verzerrt so das Bild der Wirklichkeit. Zum Anderen liefert sie den Entscheidern mehr Befugnisse und Informationen. Es besteht also ein gewisses Eigeninteresse des Staates an mehr Videoüberwachung.
Wir fordern eine aufrichtige Politik, die den Mut hat über die wirkliche Wirksamkeit und den wahren Wert von Videoüberwachung zu sprechen und gleichzeitig Schutzrechte des*der Bürger*in gegenüber dem Staat hoch genug hält sie dafür nicht zu beschneiden. Wir erwarten eine Politik, die den Wert der Grundrechte verteidigt und klar stellt, dass politische Sicherheit und Stabilität nur durch die Sicherung einer starken und emanzipierten Position der Gesellschaft erfolgen kann.
Wir sind nicht bereit Grundrechte abzugeben, um ein subjektives Sicherheitsgefühl von Teilen der Bevölkerung zu stärken, das aus sozialen Unsicherheiten entspringt und real durch Videoüberwachung nicht verbesert werden kann.
Weiterhin gibt es die Forderung nach pauschalen Gesetzen, sodass die eingesetzten Überwachungsformen immer auf das technisch aktuell Machbare ausgeweitet werden sollen. Durch diese Bestrebung, Überwachung pauschal auszuweiten, wie es nur technisch möglich ist, verlieren wir die Fähigkeit, die einzelnen Maßnahmen auf Folgen und Tauglichkeit kritisch zu überprüfen. Die von uns oben dargelegte Einzelfallprüfung könnte und würde demnach nicht mehr stattfinden, stattdessen könnte die Exekutive unbemerkt von der Öffentlichkeit neue Instrumente einführen. Für die Bevölkerung wäre demnach nicht klar ersichtlich, unter welchen Umständen sie fälschlicherweise in Verdacht geraten würden. Dies wiederspricht zum Einen unseren Freiheitsrechte, weil Bürger*innen das Recht haben müssen, in ihrem Verhalten und ihren Äußerungen nicht befürchten zu müssen, dass man diese fälschlicherweise als verdächtig verstehen kann. Zum Anderen verstärkt es ein diffuses Gefühl des Überwachtwerdens. Grundlegende Freiheiten, wie Demonstrationsrecht und Bewegungsfreiheit, sowie das Recht auf freie Meinungsäußerung, würden dann nicht mehr unbefangen wahrgenommen werden können. Außerdem wird es dem Individuum nahezu unmöglich gemacht, sein Recht auf informationelle Selbstbestimmung wahrzunehmen. Eine pauschalisierte Zustimmung zu neuen Technologien ist demnach unbedingt zu vermeiden. Hierbei sollte auch die Möglichkeit der (Aus-)Nutzung und Verarbeitung der Daten in Zukunft z.B. bei veränderter politischer Lage oder Verschiebung unserer heutigen freiheitlich-demokratischen Werte beachtet werden (s. oben).
Der Einsatz von Technologien die über die reine Videoaufzeichnung hinaus gehen, lassen sich heute anhand von der Auswertung gespeicherter Daten mit Hilfe von Gesichtserkennungssoftware, aber auch der Echtzeitanalyse im Rahmen sogenannter intelligenter Kameras beobachten. Hieran können potenzielle Gefahren für zukünftige Entwicklungen erahnt werden. Ein Beispiel ist das Berliner Pilotprojekt am S-Bahnhof Südkreuz, bei welchem Passant*innen mit einer biometrischen Datenbank abgeglichen und automatisch identifiziert werden. Wenn solch „intelligente“ Kameras flächendeckend eingesetzt werden, können ganze Bewegungsprofile von Menschen erstellt werden und Jahrzehnte lang gespeichert werden. Ein Recht auf Anonymität und informationelle Selbstbestimmung ist dann nicht mehr gegeben. Von Bewegungsfreiheit kann nicht mehr die Rede sein, da es keine Möglichkeit sich der Überwachung (und Verdächtigung) zu entziehen. Die legalisierte Möglichkeit der massenhaften Identifizierung in Echtzeit ist ein enormer Schritt hin zu einem Überwachungsstaat. Aufgrund der Unsicherheit wie die Daten ausgewertet werden und der potenziell unsicheren Speicherung dieser höchst persönlichen Daten beginnt das Problem des Datenschutz bereits bei der Datensammlung und nicht erst bei Auswertung. Das oberste Gebot zum Schutz der Bürger*innenrechte sollte also Datensparsamkeit sein.
Ein weiteres grundlegendes Problem solcher intelligenter Systeme ist es, dass sie auf lernfähigen Algorithmen basieren, bei denen selbst dem Programmierer keine klare Grenze zwischen verdächtig und unverdächtig bekannt ist. Verhalten und Verdachtsmomente werden aufgrund statistischer Methoden vom Algorithmus erlernt und schließlich zur Entscheidung zwischen verdächtig und nicht verdächtig unterschieden. Dabei sind Algorithmen sind nicht objektiv, sondern verstärken bestehende Muster der Ungleichheit in der Gesellschaft. Die Beurteilung durch die im Moment eines Verdachtmoments alamierte Polizei unterliegt dem Bias der Entscheidungsempfehlung des Systems. Es muss unbedingt verhindert werden, dass wir die Unschuldsvermutung aufgeben und Menschen stattdessen aufgrund von Statistik und unklaren Entscheidungskriterien verdächtigen. Welche große Zahl von Falschverdächtigungen, die im besonderen und wiederholenden Maße Personen und Minderheiten treffen wird, die von durchschnittlichen Verhaltensmustern abweichen, kann am Beispiel des Pilotprojekt Südkreuz erahnt werden. Hier wurde eine Erkennungsquote von 70% bejubelt. Dem entgegen steht eine Fehlerquote von 1%, d.h. jede*r 100. Passant*in wird fälschlicherweise als verdächtig erkannt (false-positive-Paradoxon). Bei 100.000 passierenden Personen am Tag, bedeutet das bis zu 1000 fehlerhafte Verdächtigungen am Tag. Dies ist zum Einen nicht umsetzbar, weshalb die Technologie faktisch nicht genutzt werden kann. Weiterhin würde es zu einer unnötigen Mehrbelastung für die Polizei führen. Zum Anderen bedeutet dies einen schleichenden Demokratieabbau, da immer kleinere auffällige Verhalten als Vergehen gewertet werden und zu einer Rechtfertigung gegenüber Staatsorganen verpflichten.
Abschließend lässt sich noch einmal betonen, dass Videoüberwachung keinen Einfluss auf die Anzahl verübter Straftaten hat, sondern lediglich auf das subjektive Sicherheitsempfinden [3]. Es ist somit Augenwischerei gegenüber dem*der Bürger*in mit einer realen Erhöhung der Sicherheit zu argumentieren. Stattdessen ist eine Absenkung der Zivilcourage zu erwarten, da Menschen fälschlicherweise annehmen werden, die Kameras würden verlässlich eine gefährliche Situationen erkennen, analysieren und die Sicherheitskräfte alarmieren. Wenn es also nur darum geht das subjektive Sicherheitsgefühl der Menschen zu stärken, müssen Maßnahmen gefunden werden, die weniger Freiheitsrechte beschneiden und nicht an den Grundwerten unserer Demokratie rütteln.
Wir fordern daher von der SPD eine deutliche und mutige Aussage über die Nichtwirksamkeit von Videoüberwachung sowie dem Hochhalten und Betonen der Wichtigkeit von Grundrechten für unser erhaltenswertes politisches System. Wir fordern einen rationalen Umgang mit tatsächlichen Gefahrenpotenzialen. Wir schlagen folgende Maßnahmen, zur Förderung eines Sicherheitsgefühls, also zur akuten und reaktionären Symptombekämpfung vor:
- Community-Policing (s. Antrag 152/l/2018 zum 1. Landesparteitag der SPD 2018) verringert durch einen gesamtgesellschaftlichen Präventivansatz Kriminalität und Ordnungswidrigkeiten und erhöht durch kontinuierliche Kommunikation und gemeinsame Zielsetzungen das Sicherheitsgefühl der Bürger*innen. Community-Policing kann dementsprechend eine sinnvolle Maßnahme sein, das Vertrauen in die eigene Umgebung zu stärken. CP muss zudem klar von den Ansätzen einer “Bürgerwehr” abgegrenzt werden. Nicht-staatliche Akteur*innen sind weiterhin nicht dazu befugt Handlungen zur Verhinderung einer Straftat, die die Persönlichkeitsrechte anderer verletzen und welche der Polizei in jeweiligen Gefahrensituationen nachkommen muss, durchzuführen. Weiter muss sich mit den verschiedenen Konzepten der CP kritisch auseinander gesetzt werden. Beispielsweise müsste eine stärkere Polizeipräsenz als präventive Maßnahme zur Verhinderung von Straftaten erst ausdrücklich von der dort wohnhaften Bevölkerung an den jeweiligen Orten erwünscht sein. Die Zusammenarbeit von Polizei und Bürger*innen setzt eine ungetrübte Vertrauensbasis zwischen der Bevölkerung und der Polizei voraus. Diese ist erst gegeben, wenn sich die Polizei ihrer innerstrukturellen Probleme und rassistischer Tendenzen annimmt.
- Mehr Beleuchtung steigert das subjektive Sicherheitsempfinden. [4] Auch wenn keine Senkung der Verbrechensrate, so sind zumindest Verdrängungseffekte zu erwarten. Es wird also genau das erreicht, was von Videoüberwachung im besten Fall zu erwarten ist, ganz ohne Einschränkung der Freiheitsrechte und pauschaler Verdächtigung.
Wie wir bereits in den analysierenden Eingangsworten betont haben, sollte es jedoch nicht bei diesen Symptom-bekämpfenden und verdrängenden Maßnahmen bleiben. Stattdessen gilt es den wahren Unsicherheiten der Menschen zu begegnen sowie die Ursachen für die Kriminalisierung von Menschen zu beseitigen um nachhaltige Maßnahmen für eine soziale Sicherheit, ein gutes Miteinander und eine partizipatorische Stadtgesellschaft zu treffen.
- Wie im Entwurf des Beschlusstextes „Sicher leben in Berlin – wir wollen Urbane Sicherheit!“ Koalitionsvertrag schon richtig festgehalten, möchte wir die dort vorgeschlagenenen Maßnahmen zur Bekämpfung sozialer Unsicherheit nur bekräftigen und dazu auffordern, diese auch wirklich umzusetzen. Es müssen also die eigentlichen Probleme und Unsicherheiten der Bürgerinnen aufgedeckt und angepackt werden. Dabei denken wir insbesondere an die Angst um eine gesicherte Zukunft, eine gerechte Entlohnung, Stärkung der Arbeitnehmerrechte, Förderung sinnstiftender Maßnahmen für Kinder- und Jugendliche, frühzeitige digitale Bildung, Abschaffung der nicht legitimen Sanktionen im Hartz 4 System sowie eine soziale Steuerung des Wohnungsmarkts.
Gleichzeitig muss eine klarere ablehnende Position gegenüber Videoüberwachung und eine Grundrechts-bejahende Postition bezogen werden.
- Wir fordern eine Stärkung des gesellschaftlichen Zusammengehörigkeitsgefühls und vor allem der Zivilcourage, die insbesondere auch in Situationen von Alltagskriminalität von Nöten ist.
- Wir fordern eine Entkriminalisierung bereits marginalisierter Personen und Gruppen und stattdessen unabhängige Unterstützung für eben diese.
- Feministische Stadtplanung muss Grundlage für die Gestaltung des öffentlichen Raums werden, um das Sicherheitsempfinden der Bevölkerung zu erhöhen, da deren Maßnahmen zu einer Einschränkung oder sogar Unterbindung von Kriminalität sorgen können. Dieser Ansatz der Stadtplanung bedeutet eine Berücksichtigung der Bedarfe aller Bevölkerungsgruppen, insbesondere von Frauen*, deren abweichende Bedürfnisse in der etablierten, zumeist aus männlicher Sichtweise erfolgenden, Stadtplanung selten ausreichend mitgedacht werden.
- In einer lebendigen Demokratie müssen alle Seiten ausreichend vertreten sein. Vor diesem Hintergrund ist es besonders wichtig, die Empfehlungen von Expert*innen (z.B. vom Chaos Computer Club oder Digitalcourage e.V.) bzgl. den Einsatz neuer Technologien in den politischen Entscheidungsprozess aufrichtig einzubeziehen.
Quellen
[1]https://www.netzwerk-datenschutzexpertise.de/sites/
default/files/dvd_g_videoueberwachung_ 03.pdf
[2]https://digitalcourage.de/videoueberwachung/
materialsammlung
Im Zeitalter der neuen Technologien: Freiheit, Privatsphäre und uns schützen!
Umgang, Einsatz und Auswirkungen von neuen Technologien allgemein:
Neue Technologien bieten vielfältige Möglichkeiten unser gesellschaftliches Miteinander neu zu gestalten. Sie können jedoch keine pauschale Lösung anbieten. Vor dem staatlichen Einsatz einer neuen Technologie muss fallspezifisch für jede Einzelne abgewogen werden, ob die Anwendung der Technologie eine Verbesserung zum Status Quo darstellt. Dabei sollten folgende fünf Punkte bedacht werden:
1. Neue Technologien bieten oft vermeintlich einfache Antworten auf komplexe Fragen und können somit politisch gut vermarktet werden. In der medialen Darstellung mag ein Schlagwort die „Lösung“ darstellen, in der Realität greifen diese jedoch oft zu kurz. So werden zum Beispiel Vorratsdatenspeicherung zur Bekämpfung von Terror und Videoüberwachung gegen Drogen- und Bandenkriminalität präsentiert. Es ist offensichtlich, dass dies negative Erscheinungen komplexer gesellschaftlicher Prozesse sind, die nicht durch eine einzelne plakative Maßnahme gelöst werden können. Es wird vergeblich probiert, mit technischen Ansätzen soziale Probleme zu lösen. Allenfalls tragen diese Maßnahmen jedoch zur Bekämpfung der oberflächlichen Symptome bei.
2. Neue Technologien produzieren Daten und erlauben es, diese zu verarbeiten. Wenn diese Daten einmal vorhanden sind, ist es schwer ihren Missbrauch zu verhindern. Zum einen ist es für Bürger*innen schwer herauszufinden, welche Daten von ihnen erfasst und gespeichert werden. Zum anderen schafft jeder Datensatz auch immer ein Missbrauchspotential. Es existieren zwar Regeln und Kontrollorgane (Parlament, Verfassungsgericht), um das Überschreiten von Zuständigkeiten wie dem unerlaubten Eingriff in die Privatsphäre und Datenschutz-Verletzungen zu verhindern. Die Vergangenheit zeigt jedoch, dass es trotzdem immer wieder zu Missbrauch kommt. So haben einige Berliner Polizist*innen die Polizeidatenbank POLIKS auch genutzt um Nachbar*innen und Kolleg*innen auszuspionieren. Bürger*innen müssen darauf vertrauen, dass Behörden die Daten nicht unzweckmäßig verwenden. Weiterhin können Daten durch Sicherheitslücken in falsche Hände geraten bzw. bei Verschiebung der vorherrschenden politischen Interessen oder einem Regime-Wechsel missbraucht werden. Da es keine Garantie gibt, dass mit den heute gespeicherten Daten in zehn Jahren nach den jetzigen Vorstellungen umgegangen wird, müssen nach dem Grundsatz der Datensparsamkeit jeweils so wenig Daten wie möglich erfasst werden. Außerdem müssen Strukturen aufgebaut werden, die einen Missbrauch innerhalb der Behörden effektiver verhindert.Wir sehen einen Wandel von repressiven (aufklärende) zu präventiven (vorbeugenden) polizeilichen Maßnahmen. Hierbei stützen sich die präventiven Maßnahmen auf Daten und Algorithmen und nicht auf tatsächliche und individuelle Indizien. Die Gefahr ist, vor allem bei komplizierten Algorithmen, dass Verdachtsmomente und Grundrechtseingriffe nicht auf Fakten, sondern auf Statistik und Wahrscheinlichkeiten beruhend geschehen. Unbescholtene Verdächtigungen sind also unausweichlich.
3. Digitale Ansätze erfordern meist eine hohe Abstraktion, weshalb es vielen Bürger*innen schwerfällt, inhaltlich der öffentlichen Diskussion zu folgen oder sich zu beteiligen. Viele Menschen fühlen sich überfordert und denken, ihr technisches Wissen reiche nicht, um an der Diskussion teilzunehmen. Aber auch Politiker*innen sind davon betroffen und lassen neue Technologien in Behörden einsetzen. Versprechungen von Herstellern werden geglaubt, insbesondere, wenn eine neue Technologie angeblich Zeit, Geld oder Arbeitsaufwand sparen kann. Die gefühlte Objektivität und Intransparenz einer durch den Computer empfohlenen Entscheidung führt insbesondere unter Zeitdruck zur Umsetzung der Handlungsempfehlung durch die Behörden, ohne weitere Prüfung. Dies kann zu fatalen Fehlentscheidungen führen, wie z.B. der unrechtmäßigen Abschiebung eines Kurden aus dem Irak, bei dem das BAMF eine Sprachanalysesoftware zur Erkennung der Muttersprache eingesetzt hat. Die Software kannte seine Muttersprache allerdings gar nicht. Ein positives Ergebnis war also von vorneherein ausgeschlossen. Die Auswirkungen eines Technologie-Einsatzes können jedoch Jede*n betreffen, weshalb es wichtig ist, Menschen im kritischen Umgang mit Technologie auszubilden, aber auch Bürger*innen mit Alltagswissen in den Prozess der Technologie-Anschaffung einzubeziehen. Hinzu kommt, dass es (noch) wenig Nicht-Regierungsorganisationen gibt, die sich mit den Auswirkungen von Technik auf unsere Gesellschaft befassen und deshalb negative Folgen von neuen Technologien selten erkannt und thematisiert werden. In einer lebendigen Demokratie müssen alle Seiten ausreichend vertreten sein. Vor diesem Hintergrund ist es besonders wichtig, die Empfehlungen von Expert*innen (z.B. CCC) bzgl. neuer Technologien und deren Einsatz in den politischen Entscheidungsprozess aufrichtig einzubeziehen.
4. Des Weiteren sind gerade Entscheidungen „intelligenter“ Systeme weder für Benutzer*innen noch für Betroffene klar zu durchschauen. Machine-Learning-Algorithmen nutzen bestehende Datensätze, um Entscheidungen zu treffen. Zum Beispiel könnte ein intelligentes Videoüberwachungssystem auf die Kriminalstatistik zurückgreifen, um zu entscheiden, ob eine Person kontrolliert werden sollte. Ein bereits bestehender Bias innerhalb dieser Datensätze beispielsweise institutioneller Rassismus in Form von Racial Profiling wird durch diese Algorithmen reproduziert und verfestigt. Dies widerspricht unserem Verständnis von Rechtsstaat, in dem jegliche Verurteilung bzw. Verdächtigung auf realen Beweisen beruhen müssen und nicht aufgrund statistischer Wahrscheinlichkeiten. Mit immer mehr Informationen, die Behörden zur Verfügung stehen, steigt außerdem die Wahrscheinlichkeit, dass sich darunter etwas Belastendes befindet. So könnte z.B. aus der Bekanntschaft mit einer Person aus vermeintlichen „Risikogruppen“ ein Verdachtsmoment konstruiert werden. Dies ermöglicht es, bei sehr vielen Menschen einen signifikanten Grundrechtseingriff zu rechtfertigen. Die präventiven Maßnahmen stützen sich auf Daten und Algorithmen und nicht auf tatsächliche und individuelle Indizien. Die Gefahr ist, dass Verdachtsmomente und Grundrechtseingriffe nicht auf Indizien, sondern auf Wahrscheinlichkeiten und Statistiken beruhen.
5. Des Weiteren sind die gesellschaftlichen Folgen vom Einsatz neuer Technologien schwer im Vorhinein abzusehen. So reproduzieren und verfestigen beispielsweise Machine-Learning Algorithmen bestehende Machtstrukturen. Hinzu kommt, dass unbekannt ist, wie diese Algorithmen zu ihren Ergebnissen kommen. Dies wiederspricht unserem Verständnis von Rechtsstaat, in dem jegliche Verurteilung bzw. Verdächtigung auf realen Beweisen beruhen muss und nicht aufgrund statistischer Wahrscheinlichkeiten aufgemacht werden darf.
Aus den genannten Gründen halten wir eine gewisse Skepsis gegenüber neuen Technologien und kritisches Hinterfragen der Notwendigkeit ihres Einsatzes für unbedingt notwendig. Die obige Auflistung ist allgemein formuliert und da jede Technologie spezifische Risiken birgt, muss jeder Punkt im Einzelfall vor dem Einsatz einer neuen Technologie umfangreich geprüft werden.
In Bezug auf Überwachungstechnologien gibt es die Forderung nach pauschalen Gesetzen, sodass die eingesetzten Überwachungsformen immer auf das technisch aktuell Machbare ausgeweitet werden sollen. Durch diese Bestrebung, Überwachung pauschal auszuweiten, wie es nur technisch möglich ist, verlieren wir die Fähigkeit, die einzelnen Maßnahmen auf Folgen und Tauglichkeit kritisch zu überprüfen. Die von uns oben dargelegte Einzelfallprüfung könnte und würde demnach nicht mehr stattfinden, stattdessen könnte die Exekutive unbemerkt von der Öffentlichkeit neue Instrumente einführen. Hierbei sollte auch die Möglichkeit der (Aus-)Nutzung und Verarbeitung der Daten in Zukunft z.B. bei veränderter politischer Lage oder Verschiebung unserer heutigen freiheitlich-demokratischen Werte beachtet werden
Der Einsatz von Technologien die über die reine Videoaufzeichnung hinaus gehen, lassen sich heute anhand von der Auswertung gespeicherter Daten mit Hilfe von Gesichtserkennungssoftware, aber auch der Echtzeitanalyse im Rahmen sogenannter intelligenter Kameras beobachten. Hieran können potenzielle Gefahren für zukünftige Entwicklungen erahnt werden. Ein Beispiel ist das Berliner Pilotprojekt am S-Bahnhof Südkreuz, bei welchem Passant*innen mit einer biometrischen Datenbank abgeglichen und automatisch identifiziert werden. Wenn solch „intelligente“ Kameras flächendeckend eingesetzt werden, können ganze Bewegungsprofile von Menschen erstellt werden und Jahrzehnte lang gespeichert werden. Ein Recht auf Anonymität und informationelle Selbstbestimmung ist dann nicht mehr gegeben. Von Bewegungsfreiheit kann nicht mehr die Rede sein, da es keine Möglichkeit sich der Überwachung (und Verdächtigung) zu entziehen. Die legalisierte Möglichkeit der massenhaften Identifizierung in Echtzeit ist ein enormer Schritt hin zu einem Überwachungsstaat. Aufgrund der Unsicherheit wie die Daten ausgewertet werden und der potenziell unsicheren Speicherung dieser höchst persönlichen Daten beginnt das Problem des Datenschutz bereits bei der Datensammlung und nicht erst bei Auswertung. Das oberste Gebot zum Schutz der Bürger*innenrechte sollte also Datensparsamkeit sein.
Ein weiteres grundlegendes Problem solcher intelligenter Systeme ist es, dass sie auf lernfähigen Algorithmen basieren, bei denen selbst dem Programmierer keine klare Grenze zwischen verdächtig und unverdächtig bekannt ist. Verhalten und Verdachtsmomente werden aufgrund statistischer Methoden vom Algorithmus erlernt und schließlich zur Entscheidung zwischen verdächtig und nicht verdächtig unterschieden. Dabei sind Algorithmen sind nicht objektiv, sondern verstärken bestehende Muster der Ungleichheit in der Gesellschaft. Die Beurteilung durch die im Moment eines Verdachtmoments alamierte Polizei unterliegt dem Bias der Entscheidungsempfehlung des Systems. Es muss unbedingt verhindert werden, dass wir die Unschuldsvermutung aufgeben und Menschen stattdessen aufgrund von Statistik und unklaren Entscheidungskriterien verdächtigen. Zum Anderen bedeutet dies einen schleichenden Demokratieabbau, da immer kleinere auffällige Verhalten als Vergehen gewertet werden und zu einer Rechtfertigung gegenüber Staatsorganen verpflichten.