XV Edition GIZ Law Journal

ORGANIZATION OF THE AMERICAN STATES

ORGANIZATION OF THE AMERICAN STATES

potenzielle Wähler direkt mit Informationen beliefert wurden, die die auf ihre persönlichen Vorlieben abgestimmten Vorzüge einzelner Kandidaten aufzeigten. 98 - Rechte im Arbeitsverhältnis Auch arbeitsrechtlich relevante Entscheidungen werden immer öfter von Algorithmen übernommen. 99 Dies betrifft Entscheidungen hinsichtlich der Einstellung oder auch Entlassung von Personal. In beiden Fällen können Daten, die aus dem individuellen Nutzerprofil eines Bewerbers oder Angestellten in social-media-Diensten gewonnen werden können, ausschlaggebend sein. Darüber hinaus spielen Algorithmen bei der automatisierten Bewertung der Arbeitsleistung von Angestellten oder bei der Umstrukturierung von Unternehmensteilen eine große Rolle. - Kreditvergabe und Gesundheitschecks Das erste Anwendungsgebiet von individualisierten Profilen aus Datensammlungen war die Kreditwirtschaft, in der automatisierte Bonitätsstudien erstellt wurden. 100 Heute werden dabei auch Informationenaussocial-media-Diensten und die Browser-Historie mitverarbeitet. 101 Das führt dazu, dass Kreditkonditionen u.U. von persönlichen Interessensschwerpunkten, oder von Hobbys, einer riskanten Lebensweise, Familienstatus, Buchkäufen und Musik- und Filmvorlieben abhängen können. Für Krankenversicherungen sind aufgearbeitete personalisierte Daten ebenfalls von großer Bedeutung. Die in elektronischen Gesundheitskarten

- Das Recht auf freie Meinungsäußerung und der Einfluss auf das Wahlrecht Das Internet wurde anfänglich als ein Medium zur Steigerung der Meinungsvielfalt gefeiert. Die technischen Möglichkeiten, bestimmte Inhalte im Internet zu blockieren oder zu filtern sind indes in den letzten Jahren weit fortgeschritten. 95 So wird z.B. auf You-Tube von den internen Algorithmen als vermeintlich „nackt“ identifiziertes Bildmaterial zunehmend automatisch blockiert. Gleiches ist aber für jedes andere Material denkbar. Bereits 2010 wurde berichtet, dass Staaten wie Türkei, China, Iran und Nordkorea den Zugriff auf bestimmte Webseiten blockierten. 96 Im Zuge der Debatte um Kinderpornographie kam es auch in Deutschland zu Forderungen nach Internetsperren. 97 Eine Bewährungsprobe der besonderen Art bereiten dem Recht auf freie Meinungsäußerung die „filter-bubbles“ oder „echo-chamber“ genannten Phänomene. In zunehmendem Maß entscheiden Algorithmen über den Umfang der einzelnen Personen zugänglichen Informationen und Meinungen. Algorithmen, die besondere Vorlieben eines Nutzers zu filtern in der Lage sind, spielen dabei die entscheidende Rolle. Der Nutzer erhält innerhalb seiner social-media-Konten bevorzugt jene Informationen, die seinen eigenen Vorlieben entsprechen. Die dahinter stehenden Algorithmen treffen also die Entscheidung darüber, welche Informationen an wen weitergereicht werden und an wen nicht. Dies ermöglichte im Zuge der US-Wahlen 2017 das „micro-targeting“ von Informationen, wobei

oder entsprechenden Datenbanken gespeicherten Informationen können darüber bestimmen, ob einem Versicherten eine Leistung gewährt oder wegen seines Lebensstils versagt wird. Lebenslange Diskriminierungen und Leistungsausschlüsse, verbunden mit höheren Prämien, können die Folge sein. 102 - Terrorismus- und Kriminalitätsbekämpfung und Virtualisierung Nicht erst seit den Anschlägen vom 11.9.2001 in New York gibt es ein starkes staatliches Interesse, im Zuge der sog. Terrorismus- und Kriminalitätsbekämpfung auf private Daten zuzugreifen. Das von modernen Polizeieinheiten praktizierte Intelligence-Policing 103 hat seinen Ursprung in den 1970er Jahren. Die technischen Möglichkeiten haben sich seit dem allerdings weit fortentwickelt. Nationale Polizeieinheiten führen selbständige Datenbanken zu verschiedenen Themenbereichen und Personenkreisen. Oftmals kann eine Verkehrskontrolle ausreichend sein, um auf unabsehbare Zeit in einer oder mehreren Dateien gespeichert zu sein. Die Polizeien in Europa vervollständigendie ihnenvorliegendenDatenzueiner Personmit Informationen aus öffentlich zugänglichen Quellen, durch Anfragen bei Online-Dienstleistern, anderen Polizeidienststellen oder im Wege des grenzübergreifenden Datenaustausches mit anderen Staaten oder zwischenstaatlichen Einrichtungen wie Europol oder dem Schengen-Informationssystem (SIS). Automatisierte Datenanalysesysteme wie bei Europol sind in der Lage, aus der Vielzahl der ihnen übermittelten Informationen Lagebilder zu erstellen und Verdachtspersonen zu ermitteln. Die von einem solchen virtuellen Verdacht erfasste Person kann sich nur schwer gegen die weitere Verarbeitung seiner Daten wehren, da sie regelmäßig von der

Datenverarbeitung und dessen Ergebnissen keine Kenntnis erlangen wird. Problematisch ist der virtuelle Verdacht deshalb, weil er Stigmatisierungen verstärken kann, die in weitere staatliche Beobachtungsmaßnahmen münden können, ohne dass dieser Verdacht innerhalb eines ordentlichen Strafverfahrens ausgeräumt werden könnte. Staatliche Beobachtung kann u.U. zur Rufschädigung, zum Verlust des Arbeitsplatzes und Bekanntenkreises und damit zur sozialen Ausgrenzung führen. Bei automatisierten Datenanalysesystemen besteht, wie schon im Falle der Meinungsfreiheit, das Problem, dass „Filter-bubbles“ und Echo-Kammern entstehen, in denen sich die verarbeitete Information und die sich hieraus ergebenen Ergebnisse gegenseitig verstärken und somit eine von der tatsächlichen Wirklichkeit abweichende virtuelle Wirklichkeit entstehen lassen, die aber zur Grundlage polizeilichen oder anderweitigen staatlichen Handelns erkoren wird. Dies ist beispielsweise bei der „predictive policing“ genannten polizeilichen Kriminalvorhersage der Fall. 104 Die für die Legitimierung staatlichen Handelns erforderliche Beziehung zwischen einer Eingriffs- und Befugnisnorm und einem tatsächlichen Lebenssachverhalt erodiert zusehends. Das liegt zum einen an der Schwierigkeit, eine hinreichend bestimmte Norm abzufassen, die in der Lage wäre, vorab die relevanten Verdachtskriterien umfassend zu umschreiben, die den staatlichen Eingriff in die Grundrechte eines Rechtssubjekts rechtfertigen würden. Zum anderen findet der Abgleich der normativen Voraussetzungen nicht mehr mit der tatsächlichen Wirklichkeit, sondern mit der durch Algorithmen generierten virtuellen Wirklichkeit statt. Beide Wirklichkeiten stimmen nicht zwangsläufig überein, da letztere es nicht vermag, reale Zusammenhänge, sondern nur darin bestehende Korrelationen abzubilden.

94 https://www.wbs-law.de/urheberrecht/vorratsdatenspeicherung-bei-urheberrechtsverletzungen-9847/ 95 Ben Wagner, Draft Report on the Human Rights Dimensions of Algorithms, S. 8 96 http://www.sueddeutsche.de/politik/internet-in-der-tuerkei-als-naechstes-zensieren-sie-unsere-traeume-1.538200 97 http://t3n.de/news/zensursula-gekippt-internetsperren-gestrichen-304707/ 98 Omer Tene, Jules Polonetsky, Judged by the Tin Man: Individual Rights in the Age of Big Data, Journal of Telecommunications and High Technology Law Nr. 11 (2013), S. 360 99 Ausführlich hierzu: Ben Wagner, Draft Report on the Human Rights Dimensions of Algorithms, S. 14 100 Omer Tene, Jules Polonetsky, Judged by the Tin Man: Individual Rights in the Age of Big Data, Journal of Telecommunications and High Technology Law Nr. 11 (2013), S. 359

101 Ben Wagner, Draft Report on the Human Rights Dimensions of Algorithms, S. 13 102 Zu den Electronic Health Records (EHR) siehe John Tasioulas, Big Data, Human Rights and the Ethics of Scientific Research, http://www.abc.net.au/ religion/articles/2016/11/30/4584324.htm 103 Siehe hierzu: Inti Schubert, Europol und der virtuelle Verdacht, Frankfurt am Main, 2007, S. 104 104 Ben Wagner, Draft Report on the Human Rights Dimensions of Algorithms, S. 10; https://netzpolitik.org/2015/lka-studie-erklaert-fuer-und-wider-von predictive-policing-auch-bka-liebaeugelt-jetzt-mit-vorhersagesoftware/

74

75

Made with FlippingBook - professional solution for displaying marketing and sales documents online