Predictive Policing: “Falsches” Facebook-Posting führt in Israel oft zu Haft
Palästinensische Aktivisten haben rund 800 Fälle dokumentiert, in denen junge Leute in Israel wegen Facebook-Äußerungen festgenommen wurden. Auf der Konferenz von Netzpolitik.org ertönte der Ruf nach einer “Gemeinwohlförderung” von Algorithmen.
Marwa Fatafta vom Arab Center for Social Media Advancement 7amleh hat am Freitag auf der vierten Konferenz von Netzpolitik.org in Berlin ein düsteres Bild von “Predictive Policing” in Israel gezeichnet. Seit Oktober 2015 habe die palästinensische Organisation rund 800 Fälle dokumentiert, in denen junge Leute wegen Facebook-Postings verhaftet worden seien, erklärte die Aktivistin. Die Betroffenen verschwänden oft einfach einige Monate im Gefängnis, ohne dass ihnen ein ordentlicher Prozess gemacht werde.
Der Vorwurf gehe in Richtung Anstiftung zu Gewalt oder Terroranschlägen, erläuterte Fatafta. Beweise dafür würden oft als Staatsgeheimnis ausgegeben, allein Bildschirmfotos angeblich belastender Äußerungen in sozialen Medien vorgelegt. Rassistische oder provokative Kommentare von Israelis gegen Araber würden dagegen kaum geahndet und nicht in vergleichbarem Ausmaß gelöscht.
Marwa Fatafta vom Arab Center for Social Media Advancement 7amleh
Marwa Fatafta vom Arab Center for Social Media Advancement 7amleh
Laut der Beobachterin steckt dahinter eine spezielle Software zur “vorausschauenden Polizeiarbeit” der israelischen Ermittler, die mit militärischen Geheimdienstinformationen gefüttert werde. Damit würden Profile potenzieller Angreifer zusammengestellt anhand gewisser Datenpunkte wie Alter, Ort und psychologische Faktoren, eine Suche nach Schlüsselworten wie “Jerusalem” oder “al-Aqsa” komme dazu. Offenbar gebe es auch eine spezielle Vereinbarung mit Facebook, einschlägige Äußerungen besonders intensiv zu überwachen, auch wenn der kalifornische Konzern diese Vermutung zurückgewiesen habe.
Was öffentlich als Mittel zur Terrorabwehr verkauft werde und etwa schon das Interesse europäischer Anti-Terror-Koordinatoren geweckt habe, steht für die auch für Transparency International arbeitende Palästinenserin auf äußerst tönernen Füßen. Statistische Erfolgsnachweise für proaktive Verhaftungen gebe es nicht. In der Praxis werde es zudem etwa schon als Hinweis auf einen möglichen Vergeltungsakt ausgelegt, wenn ein Palästinenser ein Foto von einem toten Verwandten poste. Eine Autorin sei wegen eines harmlosen Gedichts unter Hausarrest gestellt worden, eine 14-Jährige aus Ost-Jerusalem ins Visier der israelischen Polizei geraten, weil sie eine Bitte um Vergebung über Facebook verbreitet habe.
Besonders gefährliche Grundrechtseingriffe ergeben sich der Aktivistin zufolge aus der in Israel einzigartigen Kombination aus mächtigen technischen Systemen und Überwachungstechnologien mit der staatlichen Befugnis, Leute vom Fleck weg verhaften zu dürfen. Palästinenser gälten dabei nach offizieller Lesart als von vornherein verdächtig.
Konrad Lischka von der Bertelsmann-Stiftung warf nicht nur für diese Gemengelage und Predictive Policing die Frage auf, “welche Ziele wir eigentlich mit algorithmischer Entscheidungsfindung verfolgen wollen”. Damit der Mensch nicht länger schlicht als Objekt etwa von Vorhersagesoftware oder Scoring zur Bonitätsprüfung gelte, sollten einschlägige Systeme “gemeinwohlfördernd” gestaltet werden.
Konkret schlug Lischka etwa vor, frei verfügbare Allmenden für Trainingseinheiten für Algorithmen und lernende Maschinen zur Verfügung zu stellen. So ließe sich verhindern, dass die gleichen Sets für verschiedene Fälle angewendet würden und schon die grundlegende Operationalisierung mit Vorbehalten belastet sei, meinte der Journalist. Eine größere Vielfalt der Ausgangsinformationen könnte helfen, algorithmische Entscheidungen zu verbessern. Denkbar sei es auch, Trainingsdaten unter ein Open-Access-Modell zu stellen oder öffentliche Förderprogramme für gemeinwohlstärkende Algorithmen-Projekte aufzulegen. Zivilgesellschaftliche Beobachter für maschinelle Entscheidungen könnten ebenfalls hilfreich sein.
Jeanette Hofmann vom Wissenschaftszentrum Berlin für Sozialforschung (WZB)
Künstliche Intelligenz (KI) oder Maschinenlernen verlieren ihre Bedrohlichkeit mit der Zeit: Jeanette Hofmann vom Wissenschaftszentrum Berlin für Sozialforschung (WZB)
Auf die gesellschaftliche Aufnahme technischer Entwicklungen allgemein ging Jeanette Hofmann vom Wissenschaftszentrum Berlin für Sozialforschung (WZB) ein. “Wir leben in der Technik wie in der Sprache, wer sie nutzen will, verschreibt sich ihren Regeln”, erläuterte die Politikwissenschaftlerin. Dabei würden die menschlichen Erwartungen im Rahmen der Nutzung immer stärker geprägt. Auch aktuelle “epochale Technologien” wie Künstliche Intelligenz (KI) oder Maschinenlernen “erscheinen uns anfangs als etwas Einzigartiges, Fremdes, Bedrohliches, Unbeherrschbares”. Dieses Gefühl gebe sich aber mit der Zeit.
In dem Maße, wie sich Nutzer KI aneigneten, verlöre auch diese ihre Fremdheit, prognostizierte Hofmann. Sie werde “Schritt für Schritt eingemeindet in unser Alltagshandeln” und damit “positiver konnotiert”. Generell sei das Digitale schon “Bestandteil unseres Weltbezugs geworden”. Ohne diesen technischen Rahmen sei der persönliche Lebensbereich kaum mehr vorstellbar.
Wenig Hoffnung machte die Co-Direktorin des von Google initiierten Instituts für Internet und Gesellschaft Politikern, die derlei Prozesse beeinflussen wollen: “Die Aneignung verläuft meist als verteilter Prozess, an dem alle im täglichen Umgang damit teilhaben.” Eine Regulierung im “Top-Down-Verfahren” funktioniere meist nicht, die Steuerung erfolge auch hier ähnlich wie bei der Sprache eher durch Normen und informelle Regeln. Seltene Ausnahmen seien bewusste Verbote einzelner Technologien wie der Atomkraft oder umfassende Eingrenzungen wie bei der Embryonenforschung. Es empfehle sich daher, “Technik als Medium wahrzunehmen, das alles Handeln durchzieht”. Dabei gelte es immer wieder zu überlegen, wer steuere und was gesellschaftliche, demokratische Selbstbestimmung bedeute.
02.09.2017 18:26Stefan Krempl245
Find this story at 2 September 2019
Copyright © 2017 Heise Medien