Das Polizei Sie haben eine rosige Zukunft vor sich – und das nicht nur, weil sie jetzt bei Google nach potenziellen Verdächtigen suchen können. Da sie die neuesten Technologien nutzen, wird ihre Arbeit zwangsläufig einfacher und effektiver, was heikle Fragen zu Privatsphäre, bürgerlichen Freiheiten und ordnungsgemäßen Verfahren aufwirft.
Zum einen hat die Polizei gute Chancen, davon zu profitieren.große Datenmengen". Da die Kosten für Aufzeichnungsgeräte immer weiter sinken, ist es nun möglich, Verbrechen in Echtzeit zu erkennen und darauf zu reagieren. Stellen Sie sich eine Stadt wie Oakland in Kalifornien vor. Wie viele andere amerikanische Städte ist sie heute mit Hunderten versteckter Mikrofone und Sensoren übersät. Teil eines Systems namens ShotSpotter, das die Polizei nicht nur auf das Geräusch von Schüssen aufmerksam macht, sondern auch deren Standort trianguliert. Nachdem überprüft wurde, dass es sich bei den Geräuschen tatsächlich um Schüsse handelte, informierte ein menschlicher Bediener die Polizei.
Es ist nicht schwer, sich Möglichkeiten vorzustellen, ein System wie ShotSpotter zu verbessern. Schusserkennungssysteme sind grundsätzlich reaktiv; Sie könnten helfen, dies zu vereiteln oder schnell darauf zu reagieren Kriminalität, aber sie werden es nicht ausmerzen. Die sinkenden Rechenkosten, die erheblichen Fortschritte in der Sensortechnologie und die Möglichkeit, auf riesige Online-Datenbanken zuzugreifen, ermöglichen es uns, von der Erkennung von Straftaten während ihres Geschehens – wie es jetzt der ShotSpotter tut – zur Vorhersage von Straftaten überzugehen, bevor sie passieren.
Anstatt Schüsse zu erkennen, können sich neue und intelligentere Systeme auf die Erkennung der Geräusche konzentrieren, die in der Vergangenheit Schüssen vorausgingen. Hier tauchen die Techniken und Ideologien von Big Data erneut auf und versprechen, dass eine umfassendere und tiefere Analyse von Daten über vergangene Verbrechen in Kombination mit hochentwickelten Algorithmen zukünftige Verbrechen vorhersagen und verhindern kann. Dies ist eine Praxis, die als „Predictive Policing“ bekannt ist und obwohl sie erst ein paar Jahre alt ist, wird sie von vielen als Revolution in der Polizeiarbeit angepriesen. Es ist der Inbegriff des Solutionismus; Es gibt kaum ein besseres Beispiel dafür, wie Technologie und Big Data eingesetzt werden können, um das Problem der Kriminalität zu lösen, indem die Kriminalität einfach ganz beseitigt wird. Es scheint alles zu einfach und logisch; Wer möchte nicht verhindern, dass Verbrechen passieren, bevor sie passieren?
Die Polizei in Amerika ist besonders begeistert von der vorausschauenden Polizeiarbeit – einer davon Uhrzeit Die besten Erfindungen des Magazins 2011 – zu bieten hat; Auch die Europäer holen langsam auf, allen voran Großbritannien. Nehmen Sie das Los Angeles Police Department (LAPD), das es nutzt Software. namens PredPol. Die Software analysiert jahrelang zuvor veröffentlichte Statistiken über Eigentumsdelikte wie Einbruch und Autodiebstahl und unterteilt die Patrouillenkarte in 500?sq?ft Zonen, berechnet die historische Verteilung und Häufigkeit tatsächlicher Straftaten in ihnen und teilt den Beamten dann mit, welche Zonen energischer überwacht werden müssen.
Es ist viel besser – und möglicherweise billiger –, ein Verbrechen zu verhindern, bevor es passiert, als zu spät zu kommen und es zu untersuchen. Auch wenn Streifenpolizisten einen Verbrecher vielleicht nicht in Aktion erwischen, trägt ihre Anwesenheit am richtigen Ort zur richtigen Zeit dennoch dazu bei, kriminelle Aktivitäten abzuschrecken. Gelegentlich kann es jedoch vorkommen, dass die Polizei ein laufendes Verbrechen tatsächlich stört. Im Juni 2012 berichtete Associated Press über einen LAPD-Kapitän, der sich nicht so sicher war, ob es eine so gute Idee war, Beamte in eine Gitterzone am Rande seines Versorgungsgebiets zu schicken – der Empfehlung von PredPol folgend. Seine Offiziere fanden, wie der Kapitän erwartet hatte, nichts; Als sie jedoch einige Nächte später zurückkamen, erwischten sie jemanden, der ein Fenster einschlug. Ein Tor für PredPol?
Versuche mit PredPol und ähnlicher Software haben noch vor kurzem begonnen, um von schlüssigen Ergebnissen zu sprechen. Dennoch sehen die Zwischenergebnisse durchaus beeindruckend aus. In Los Angeles verzeichneten fünf LAPD-Abteilungen, die es in Patrouillengebieten mit etwa 1.3 Millionen Einwohnern einsetzen, einen Rückgang der Kriminalität um 13 %. In der Stadt Santa Cruz, die mittlerweile auch PredPol nutzt, ist die Zahl der Einbrüche um fast 30 % zurückgegangen. Ähnliche erfreuliche Statistiken finden sich in vielen anderen Polizeibehörden in ganz Amerika.
Andere leistungsstarke Systeme, die derzeit gebaut werden, können ebenfalls problemlos umkonfiguriert werden, um höheren Vorhersageanforderungen gerecht zu werden. Betrachten Sie die neueste Innovation des New York Police Department – die sogenannte Domain-Awareness-System – das die 3,000 Überwachungskameras der Stadt mit Festnahmeaufzeichnungen, Notrufen, Nummernschilderkennungstechnologie und Strahlungsdetektoren synchronisiert. Es kann eine Situation in Echtzeit überwachen und auf viele Daten zurückgreifen, um zu verstehen, was passiert. Der Sprung von hier zur Vorhersage dessen, was passieren könnte, ist nicht so groß.
Wenn Ihnen die „Vorhersage“ von PredPol bekannt vorkommt, dann deshalb, weil ihre Methoden von denen prominenter Internetunternehmen inspiriert wurden. Einschreiben Der Polizeichef Magazin im Jahr 2009, ein hochrangiger LAPD-Beamter lobte die Fähigkeiten von Amazon „die einzigartigen Gruppen in ihrem Kundenstamm zu verstehen und ihre Kaufmuster zu charakterisieren“, was es dem Unternehmen ermöglicht, „zukünftiges Verhalten nicht nur vorherzusehen, sondern auch zu fördern oder anderweitig zu gestalten“. So wie die Algorithmen von Amazon es ermöglichen, vorherzusagen, welche Bücher Sie wahrscheinlich als nächstes kaufen werden, könnten ähnliche Algorithmen der Polizei sagen, wie oft – und wo – bestimmte Straftaten erneut passieren könnten. Schon einmal ein Fahrrad gestohlen? Dann könnte es für Sie auch interessant sein, einen Lebensmittelladen auszurauben.
Hier stoßen wir auf das Dauerproblem von Algorithmen: ihre vermeintliche Objektivität und den durchaus realen Mangel an Transparenz. Wir können die Algorithmen von Amazon nicht untersuchen; Sie sind völlig undurchsichtig und wurden keiner externen Kontrolle unterzogen. Amazon behauptet, vielleicht zu Recht, dass Geheimhaltung es ihm ermögliche, wettbewerbsfähig zu bleiben. Aber lässt sich die gleiche Logik auch auf die Polizeiarbeit anwenden? Wenn niemand die Algorithmen untersuchen kann – was wahrscheinlich der Fall sein wird, da Software zur prädiktiven Polizeiarbeit von privaten Unternehmen entwickelt wird – werden wir nicht wissen, welche Vorurteile und diskriminierenden Praktiken in ihnen eingebaut sind. Und Algorithmen dominieren zunehmend auch viele andere Teile unseres Rechtssystems; Beispielsweise werden sie auch verwendet, um vorherzusagen, wie wahrscheinlich es ist, dass ein bestimmter Krimineller, sobald er auf Bewährung oder auf Bewährung ist, tötet oder getötet wird. Dieser von einem Professor der University of Pennsylvania entwickelte Algorithmus wurde in Baltimore, Philadelphia und Washington DC getestet. Solche probabilistischen Informationen können sich dann auf Strafempfehlungen und Kautionsbeträge auswirken und sind daher kaum trivial.
Aber woher wissen wir, dass die zur Vorhersage verwendeten Algorithmen nicht die Vorurteile ihrer Autoren widerspiegeln? Kriminalität kommt beispielsweise häufig in armen und rassisch vielfältigen Gegenden vor. Könnten Algorithmen – mit ihrer vermeintlichen Objektivität – noch stärkeres Racial Profiling sanktionieren? In den meisten demokratischen Regimen benötigt die Polizei heute einen wahrscheinlichen Grund – einige Beweise und nicht nur Vermutungen –, um Menschen auf der Straße anzuhalten und zu durchsuchen. Aber kann die Polizei mit einer solchen Software einfach sagen, dass die Algorithmen sie dazu aufgefordert haben? Und wenn ja, wie werden die Algorithmen vor Gericht aussagen? Techno-Utopisten werden solche Fragen wahrscheinlich übersehen und sich auf die abstrakten Vorteile konzentrieren, die algorithmische Polizeiarbeit zu bieten hat; Technikskeptiker, die mit einem Grundwissen über die Probleme, Zwänge und Vorurteile beginnen, die die moderne Polizeiarbeit bereits durchdringen, werden wahrscheinlich kritischer sein.
Der Rechtswissenschaftler Andrew Guthrie Ferguson hat sich eingehend mit Predictive Policing beschäftigt. Ferguson warnt davor, zu sehr auf die Algorithmen zu vertrauen und dem Informationsreduktionismus zu verfallen. „Vorhersagealgorithmen sind keine Zauberkästen, die künftige Kriminalität vorhersagen, sondern Wahrscheinlichkeitsmodelle zukünftiger Ereignisse, die auf aktuellen Umweltanfälligkeiten basieren“, stellt er fest.
Aber warum funktionieren sie? Ferguson weist darauf hin, dass es künftige Kriminalität nicht geben wird, weil es in der Vergangenheit Verbrechen gegeben hat, sondern weil „die Umweltgefährdung, die das erste Verbrechen begünstigt hat, immer noch unbehandelt bleibt“. Wenn die Polizei, nachdem sie ihre düstere Prognose über einen weiteren geplanten Autodiebstahl gelesen hat, in einer der vorhergesagten Zonen eine Person mit einem Schraubenzieher sieht, könnte dies einen begründeten Verdacht für eine Kontrolle begründen. Wenn die Polizei jedoch, wie Ferguson feststellt, die Bande, die für frühere Verbrechen verantwortlich ist, am Vortag verhaftet hat, das Modell diese Informationen jedoch noch nicht widerspiegelt, sollte die Vorhersage irrelevant sein und die Polizei einen anderen vernünftigen Grund benötigen, um die Person anzuhalten. Wenn sie es doch schaffen, sollten sie vor Gericht nicht sagen können: „Das Model hat es uns gesagt.“ Dies ist jedoch für die Person, die sie angehalten haben, möglicherweise nicht offensichtlich, da sie mit der Software und ihren Algorithmen nicht vertraut ist.
Hinzu kommt das Problem der unzureichend gemeldeten Straftaten. Während die meisten Tötungsdelikte gemeldet werden, ist dies bei vielen Vergewaltigungen und Wohnungseinbrüchen nicht der Fall. Selbst wenn solche Meldungen fehlen, entwickelt die örtliche Polizei immer noch Methoden, um zu erkennen, wenn in ihrer Nachbarschaft etwas Seltsames passiert. Predictive Policing hingegen könnte dieses intuitive Wissen durch einen naiven Glauben an die umfassende Leistungsfähigkeit der Statistik ersetzen. Wenn nur Daten über gemeldete Straftaten verwendet werden, um künftige Straftaten vorherzusagen und die Polizeiarbeit zu leiten, bleiben einige Arten von Straftaten möglicherweise unerforscht – und daher nicht verfolgt.
Was tun dann mit den Algorithmen? Heutzutage kann man das nur noch selten sagen, aber in dieser Hinsicht kann man vom Finanzsektor viel lernen. Nach einigen durch den algorithmischen Handel verursachten Katastrophen im August 2012 erarbeiteten die Finanzbehörden in Hongkong und Australien beispielsweise Vorschläge zur Einführung regelmäßiger unabhängiger Prüfungen des Designs, der Entwicklung und der Modifikation der für den algorithmischen Handel verwendeten Computersysteme. So wie Finanzprüfer die Bilanz eines Unternehmens bescheinigen könnten, könnten algorithmische Prüfer überprüfen, ob seine Algorithmen in Ordnung sind.
Da Algorithmen immer stärker in unser tägliches Leben integriert werden – von Googles Autocomplete bis hin zu PredPol – erscheint es ratsam, sie regelmäßigen Untersuchungen durch qualifizierte und im Idealfall öffentlich denkende Dritte zu unterziehen. Ein Vorteil der Prüfungslösung besteht darin, dass die geprüften Unternehmen ihre Geschäftsgeheimnisse nicht öffentlich preisgeben müssen, was – natürlich von Softwareunternehmen – der Haupteinwand gegen die Erhöhung der Transparenz ihrer Algorithmen war.
Auch im Silicon Valley findet die Polizei mächtige Verbündete. Unternehmen wie Facebook haben damit begonnen, Algorithmen und historische Daten zu nutzen, um vorherzusagen, welche ihrer Nutzer bei der Nutzung ihrer Dienste Straftaten begehen könnten. So funktioniert es: Facebooks eigene Vorhersagesysteme können bestimmte Benutzer als verdächtig kennzeichnen, indem sie bestimmte Verhaltensmerkmale untersuchen: Der Benutzer schreibt nur Nachrichten an andere unter 18 Jahren; die meisten Kontakte des Nutzers sind weiblich; Der Benutzer gibt Schlüsselwörter wie „Sex“ oder „Datum“ ein. Die Mitarbeiter können dann jeden Fall prüfen und Benutzer bei Bedarf der Polizei melden. Die Sorge von Facebook um die eigene Marke ist hier klar: Niemand sollte denken, dass die Plattform Kriminellen Unterschlupf bietet.
Im Jahr 2011 begann Facebook mit der Nutzung von PhotoDNA, einem Microsoft-Dienst, der es ermöglicht, jedes hochgeladene Bild zu scannen und mit kinderpornografischen Bildern von Facebook zu vergleichen Das National Crime Information Center des FBI. Seitdem hat es seine Analyse auch über Bilder hinaus ausgeweitet. Mitte 2012 Reuters berichtete darüber, wie Facebook, bewaffnet mit seinen Vorhersagealgorithmen, nahm einen Mann mittleren Alters fest, der mit einem 13-jährigen Mädchen über Sex plauderte, und verabredete sich mit ihr am nächsten Tag. Die Polizei kontaktierte die Teenagerin, beschlagnahmte ihren Computer und nahm den Mann fest.
Facebook ist hier führend in der algorithmischen Überwachung: Genau wie Polizeibehörden, die auf frühere Kriminalstatistiken zurückgreifen, greift Facebook auf Archive echter Chats zurück, die echten sexuellen Übergriffen vorausgingen. Kurioserweise rechtfertigt Facebook den Einsatz von Algorithmen damit, dass diese tendenziell weniger aufdringlich seien als Menschen. „Wir wollten nie eine Umgebung schaffen, in der unsere Mitarbeiter sich private Kommunikation ansehen. Deshalb ist es wirklich wichtig, dass wir eine Technologie verwenden, die eine sehr niedrige Falsch-Positiv-Rate aufweist“, sagte der Sicherheitschef von Facebook gegenüber Reuters.
Es ist schwierig, die Anwendung solcher Methoden zur Ergreifung von Sexualstraftätern, die Kinder jagen, in Frage zu stellen (ganz zu schweigen davon, dass Facebook hier möglicherweise keine andere Wahl hat, da die aktuellen US-amerikanischen Kinderschutzgesetze verlangen, dass Online-Plattformen, die von Teenagern genutzt werden, gegenüber Raubtieren wachsam sein müssen). Aber sollte es Facebook erlaubt sein, andere Verbrechen vorherzusagen? Schließlich kann es problemlos viele andere Arten ähnlicher Polizeiarbeit übernehmen: potenzielle Drogendealer aufspüren, potenzielle Urheberrechtsverletzer identifizieren (Facebook hindert seine Nutzer bereits daran, Links zu vielen Filesharing-Sites zu teilen) und, insbesondere im Zuge der Unruhen im Vereinigten Königreich im Jahr 2011, die die nächste Generation von Unruhestiftern vorhersagen. Und sobald solche Daten verfügbar werden, wird die Versuchung, sie zu nutzen, nahezu unwiderstehlich.
Diese Versuchung wurde nach dem Amoklauf in einem Kino in Colorado im Juni 2012 deutlich, als ein isolierter Schütze einen Amoklauf unternahm und dabei zwölf Menschen ermordete. Eine Schlagzeile, die in der erschien Wall Street Journal kurz nach der Schießerei sagt alles: „Kann Data Mining das Töten stoppen?„Es wird nicht lange dauern, bis diese Frage bejaht wird.
In vielerlei Hinsicht sind Internetunternehmen viel besser in der Lage, Kriminalität vorherzusagen als die Polizei. Während letztere eine Durchsuchungsbefugnis benötigen, um die privaten Daten einer Person zu prüfen, können Facebook-Nutzer die Daten ihrer Nutzer jederzeit einsehen. Aus Sicht der Polizei könnte es tatsächlich von Vorteil sein, wenn Facebook die ganze Drecksarbeit erledigen würde, weil Facebooks eigene Ermittlungen nicht über das Gerichtssystem laufen müssen.
Während Facebook sich wahrscheinlich finanziell zu sicher fühlt, um daraus ein Geschäft zu machen – es würde lieber seine Rolle als guter Bürger ausspielen –, könnten kleinere Unternehmen der Versuchung, schnell Geld zu verdienen, nicht widerstehen. Im Jahr 2011 befand sich TomTom, ein niederländisches Satellitennavigationsunternehmen, das inzwischen einige seiner allmächtigen Technologien an Apple lizenziert hat, mitten in einem Datenschutzskandal, als bekannt wurde, dass es von Kunden gesammelte GPS-Fahrdaten an die Polizei verkauft hatte. Der Datenschutzbeauftragte Chris Soghoian hat ebenfalls die benutzerfreundlichen „Pay-and-Wiretap“-Schnittstellen dokumentiert, die verschiedene Internet- und Mobilfunkunternehmen für Strafverfolgungsbehörden eingerichtet haben.
Auch öffentlich zugängliche Informationen stehen zur Auswahl. Daher untersucht die Polizei bereits Social-Networking-Sites auf Anzeichen von Unruhen, oft mit Hilfe privater Unternehmen. Der Titel einer aktuellen Broschüre von Accenture fordert die Strafverfolgungsbehörden dazu auf, „die Macht der sozialen Medien zu nutzen, um bessere Ergebnisse bei der Polizeiarbeit zu erzielen“. Viele Unternehmen helfen gerne weiter. ECM Universe, ein Start-up aus Virginia, USA, wirbt für sein System namens Rapid Content Analysis for Law Enforcement, das als „eine Social-Media-Überwachungslösung zur Echtzeitüberwachung von Twitter-, Facebook-, Google-Gruppen und vielen anderen“ beschrieben wird Communities, in denen Benutzer sich frei äußern können.
„Die Lösung“, heißt es in der ECM-Broschüre, „nutzt Textanalysen, um bedrohliche Sprache den Überwachungspersonen zuzuordnen und Ermittler auf Warnzeichen aufmerksam zu machen.“ Was für Warnzeichen? Ein aktueller Artikel in der Die Washington Post stellt fest, dass ECM Universe den Behörden in Fort Lupton, Colorado, dabei geholfen hat, einen Mann zu identifizieren, der so bedrohliche Dinge wie „Menschen töten“ und „Schule niederbrennen“ twitterte. Das scheint ziemlich einfach zu sein, aber was wäre, wenn es nur darum ginge, „Menschen zu schaden“ oder „Polizei ist scheiße“?
Da Unternehmen wie ECM Universe umfangreiche Archive mit Tweets und Facebook-Updates ansammeln, die von echten Kriminellen gesendet wurden, werden sie auch in der Lage sein, die Arten nicht bedrohlicher verbaler Hinweise vorherzusagen, die kriminellen Handlungen in der Regel vorausgehen. Selbst wenn Sie twittern, dass Ihnen Ihr Joghurt nicht schmeckt, könnte die Polizei vor Ihrer Tür stehen, insbesondere wenn jemand, der drei Jahre zuvor dasselbe getwittert hat, später am Tag jemandem ins Gesicht schießt.
Anders als bei Facebook sehen jedoch weder die Polizei noch externe Unternehmen das Gesamtbild dessen, was Nutzer auf Social-Media-Plattformen tun: Private Kommunikation und „stille“ Aktionen – das Klicken von Links und das Öffnen von Seiten – sind für sie unsichtbar. Aber Facebook, Twitter, Google und ähnliche Unternehmen wissen das sicherlich alles – ihre Vorhersagekraft ist also viel größer als die der Polizei. Sie können Benutzer sogar danach einstufen, wie wahrscheinlich es ist, dass sie bestimmte Handlungen begehen.
Ein treffendes Beispiel dafür, wie ein solches System missbraucht werden kann, ist: Der Silicon-Dschungel, angeblich ein fiktionales Werk, das von einem Google-Data-Mining-Ingenieur geschrieben und 2010 von Princeton University Press – normalerweise kein Belletristik-Verlag – veröffentlicht wurde. Der Roman spielt im Data-Mining-Betrieb von Ubatoo – einer Suchmaschine, die ein auffälliges Bild trägt Ähnlichkeit mit Google – wo ein Sommerpraktikant das Terrorist-o-Meter entwickelt, eine Art universellen Score für die Terrorismuskompetenz, den das Unternehmen allen seinen Nutzern zuordnen kann. Diejenigen, die mit ihren Ergebnissen unzufrieden sind, haben natürlich die Möglichkeit, diese zu korrigieren – indem sie noch mehr Angaben zu ihrer Person machen. Das mag wie eine verrückte Idee erscheinen, aber – vielleicht eine weitere Anspielung auf Google – Ubatoos Unternehmenskultur ist so von Innovationen besessen, dass seine Praktikanten sich frei bewegen dürfen, also geht das Projekt weiter.
Um Terrorist-o-Meter aufzubauen, nimmt der Praktikant eine Liste „interessanter“ Bücher, die auf ein potenzielles Interesse an subversiven Aktivitäten hinweisen, und sucht nach den Namen der Kunden, die sie in einem der Online-Shops von Ubatoo gekauft haben. Dann findet er die Websites, die diese Kunden häufig besuchen, und verwendet die URLs, um noch mehr Menschen zu finden – und so weiter, bis er die magische Zahl von 5,000 erreicht. Der Praktikant wird bald von einer al-Qaida-ähnlichen Terroristengruppe verfolgt, die diese 5,000 Namen braucht, um ihre Rekrutierungskampagne voranzutreiben, und von verschiedenen Verteidigungs- und Geheimdiensten, die es kaum erwarten können, diese 5,000 Menschen präventiv nach Guantánamo zu schicken.
Wir wissen nicht, ob Facebook eine Art Pädophilie-o-Meter hat. Aber angesichts der umfassenden Benutzeranalyse, die es bereits durchführt, wäre es wahrscheinlich nicht sehr schwierig, ein solches zu erstellen – und das nicht nur für die Bewertung von Pädophilen. Was ist mit Drug-o-Meter? Oder – Joseph McCarthy würde das lieben – Communist-o-Meter? Wenn genügend Daten und die richtigen Algorithmen vorhanden sind, werden wir alle zwangsläufig misstrauisch wirken. Was passiert dann, wenn Facebook uns – bevor wir irgendwelche Straftaten begangen haben – der Polizei ausliefert? Werden wir, wie die Figuren in einem Roman von Kafka, Schwierigkeiten haben, zu verstehen, was unser Verbrechen wirklich ist, und den Rest unseres Lebens damit verbringen, unsere Namen reinzuwaschen? Bietet Facebook uns vielleicht auch die Möglichkeit, gegen eine Gebühr unsere Reputation wiederherzustellen? Was ist, wenn seine Algorithmen falsch sind?
Das Versprechen einer vorausschauenden Polizeiarbeit mag real sein, aber es birgt auch Gefahren. Der lösungsorientierte Impuls muss eingedämmt werden. Die Polizei muss ihre Algorithmen einer externen Prüfung unterziehen und ihre Vorurteile beseitigen. Social-Networking-Sites müssen klare Standards dafür festlegen, wie viel vorausschauende Selbstüberwachung sie tatsächlich durchführen und wie weit sie bei der Profilierung ihrer Benutzer und der Weitergabe dieser Daten an die Polizei gehen. Auch wenn Facebook bei der Vorhersage von Kriminalität möglicherweise effektiver ist als die Polizei, kann es nicht zugelassen werden, diese polizeilichen Funktionen zu übernehmen, ohne sich auch an dieselben Regeln und Vorschriften zu halten, die festlegen, was die Polizei in einer Demokratie tun darf und was nicht. Wir können nicht allein im Namen der Effizienz rechtliche Verfahren umgehen und demokratische Normen untergraben.
Dies ist ein bearbeiteter Auszug aus „To Save Everything, Click Here: Technology, Solutionism, and the Urge to Fix Problems that Don't Exist“ von Evgeny Morozov, veröffentlicht von Allen Lane.
ZNetwork finanziert sich ausschließlich durch die Großzügigkeit seiner Leser.
Spenden
1 Kommentar
Pingback: Städte nutzen versteckte Netze akustischer Sensoren, um Schüsse zu erkennen – NEWSWATCH | NEWSWATCH