XV Edition GIZ Law Journal
ORGANIZATION OF THE AMERICAN STATES
ORGANIZATION OF THE AMERICAN STATES
Diskriminierungen angesehen werden. 108 Diese Auffassung übersieht, dass die Algorithmen von Menschen programmiert werden und sie Abbilder ihrer, wenn auch unbewussten Vorurteile sind. Algorithmen tendieren vielmehr dazu, bestehende Diskriminierungen und Vorurteile zu verstärken. 109 Diese können so weit gehen, dass sie die komplette Ausgrenzung einer Person oder bestimmter Personengruppen bewirken. Die personalisierte Auspreisung von Waren kann beispielsweise dazu führen, dass bestimmte Waren oder Warengruppen bestimmten Personengruppen vorenthalten werden, weil der Algorithmus diese Menschen als nicht zahlungswürdig betrachtet. 110 Das damit einhergehende soziale Konfliktpotenzial sei damit nur angerissen. - Die besondere Exklusion: Die digitale Kluft Weltweit besteht zwischen verschiedenen Bevölkerungsgruppen eine digitale Kluft - the Digital Divide 111 . Es handelt sich dabei um Unterschiede im Zugang zu und der Nutzung von Informations- und Kommunikationstechnologie, insbesondere dem Internet, aufgrund von technischen und sozioökonomischen Faktoren. 112 Der fehlende Zugang zu den digitalen Technologien erhöht die sozialen Ungleichheiten auf der globalen Ebene. 113 2007 hatten allein 20% der Weltbevölkerung einen Internetzugang. 114 Aktuell verfügen 50% der
und diese Möglichkeiten auszubauen, um Menschenrechtsverletzungen entgegentreten zu können. Ansätze dafür gibt es genug. Eher hilflos erscheint angesichts der Übermacht des Big Data die Vorstellung, die Anonymisierung von Daten könnte das Spannungsverhältnis zwischen den Menschenrechten und den digitalen Technologien entspannen. 117 Vielversprechender ist der Ansatz, im Wege von multi-stakeholder Zusammenarbeit proaktive Politiken zu entwickeln, die ein offenes Netz und die Datensicherheit durch geeignete digitale Schutztechnologien fördern sollen. 118 Ein umfangreicherer aber auch komplexerer Ansatz sieht den ersten erforderlichen Schritt darin, Entscheidungsträger besser vertraut mit den Implikationen digitaler Technologien und automatisierter Entscheidungssystemen zu machen. In einem zweiten Schritt sei darauf hinzuwirken, dass der existierende rechtliche Rahmen so fortentwickelt wird, dass er effektive Antworten und Lösungen auf die Herausforderungen des digitalen Wandels bieten kann. Letztlich sei sicherzustellen, dass Entscheidungsträger der Erforschung der Funktionsweise von Algorithmen keine Hindernisse in den Weg stellen. Regierungen und Online Dienste-Anbieter sollen zu mehr Transparenz verpflichtet werden und diese auf geeignete Weise gewährleisten. 119 Es kommt amEnde darauf an, sich der Veränderungen bewusst zu sein, die der Einsatz digitaler Technologien mit sich bringt und dass es erforderlich sein wird, sich regelmäßig mit den weiteren rapide einsetzenden Veränderungen auseinanderzusetzen, die durch diesen Einsatz verursacht werden. 120 Die Herausforderung besteht darin, dies in einer virtuellen Wirklichkeit zu bewerkstelligen, die sich mehr und mehr unserer eigenen Wahrnehmung entzieht.
- Recht auf Leben Besonders problematisch wird es, wenn von den Analyseergebnissen Menschenleben abhängen. Im Rahmen des US-geführten Drohnenkriegs in Asien werden von der NSA bereitgestellte Daten zur Bestimmung der Abschussziele verwendet, die das Ergebnis automatisierter Datenanalyseprozesse sind. 105 Hier gilt dasselbe wie zuvor: reale und virtuelle Wirklichkeit stimmen nicht notwendiger Weise überein. So ist im Jemen festgestellt worden, dass die Qualität der bereitgestellten Informationen aufgrund der schlechten Mobilfunk-Netzabdeckung geringer ist, als in Afghanistan und es deswegen zu mehr irrtümlichen Tötungen kommt. 106 Wenn letzten Endes staatlich generierte oder staatlich in Auftrag gegebene Algorithmen über Leben und Tod entscheiden, dann stellt sich nicht nur die Frage nach der Verantwortung und Haftung für staatliches Handeln neu. Es stellt sich ganz allgemein die Frage nach der Bedeutung der Menschenrechte im digitalen Zeitalter. 107 - Diskriminierung Die Nutzung der aus automatisierten Analyseprozessen stammenden Ergebnisse ist problematisch, weil Ihnen der Schein von Neutralität und Unabhängigkeit anhaftet und sie fälschlicherweise als weniger anfällig für
Weltbevölkerung über einen Internetzugang. 46%der Weltbevölkerung nutzen dafür ein Mobiltelefon. 115 Der Anteil von Frauen mit Internetzugang weltweit liegt 12% unter dem Anteil der Männer. 116 Auch gibt es regional unterschiedliche Entwicklungen. Während in den Industriestaaten der weitgehend WLAN-basierte Internetzugang die Nutzung mit einer großen Bandbreite erlaubt, erfolgt der Internetzugang in Entwicklungsländern mangels Festnetzausbau prioritär über den Mobilfunk und damit zu geringeren Geschwindigkeiten, die das Herunterladen größerer Datenmengen erschweren. Wenngleich festzustellen ist, dass sich innerhalb der letzten 10 Jahre der Anteil der Weltbevölkerung mit Internetzugang mehr als verdoppelt hat, so ist auch festzustellen, dass 2017 noch die Hälfte der Weltbevölkerung von einem solchen Zugang ausgeschlossen ist. Dies gilt es mit Blick auf die Zielgruppen der EZ stets zu berücksichtigen. Herausforderungen Die sich aus dem digitalen Wandel für die Menschenrechte ergebenen Herausforderungen sind zahlreich. Neben unbestreitbaren Vorteilen bergen die digitalen Technologien auch viel Konfliktpotenzial. Große Datensammlungen und die Anwendung von Algorithmen schaffen Szenarien, die von verstärkter Diskriminierung und sozialer Ungleichheit über Verhaltenssteuerung und Ausgrenzung bis zum Extremfall der automatisierten Tötung reichen. Die große Herausforderung für den Rechtsstaat besteht, angesichts zunehmend unklarer und intransparenter Verantwortlichkeiten darin, nicht nur Rechtschutzmöglichkeiten zu bieten, sondern den digitalen Wandel für sich zu nutzen
105 http://www.independent.co.uk/news/world/politics/nsa-drone-strikes-based-on-mobile-phone-data-9119735.html 106 Firing Blind – The drone papers, https://theintercept.com/drone-papers/firing-blind/
107 Eileen Donahoe, Digital Disruption of Human Rights, Just Security vom 25.3.2016, S.4 und 5 108 Ben Wagner, Draft Report on the Human Rights Dimensions of Algorithms, S. 7 und 10 109 Omer Tene, Jules Polonetsky, Judged by the Tin Man: Individual Rights in the Age of Big Data, Journal of Telecommunications and High Technology Law Nr. 11 (2013), S. 358-360 110 Omer Tene, Jules Polonetsky, Judged by the Tin Man: Individual Rights in the Age of Big Data, Journal of Telecommunications and High Technology Law Nr. 11 (2013), S. 357 111 https://cs.stanford.edu/people/eroberts/cs181/projects/digital-divide/start.html 112 https://de.wikipedia.org/wiki/Digitale_Kluft 113 Eileen Donahoe, Digital Disruption of Human Rights, Just Security vom 25.3.2016, S.1 114 http://www.internetlivestats.com/internet-users/
115 https://wearesocial.com/blog/2017/01/digital-in-2017-global-overview 116 http://www.itu.int/en/mediacentre/Pages/2016-PR30.aspx 117 So aber: John Tasioulas, Big Data, Human Rights and the Ethics of Scientific Research, http://www.abc.net.au/religion/articles/2016/11/30/4584324. html
118 Eileen Donahoe, Digital Disruption of Human Rights, Just Security vom 25.3.2016, S.7 119 Ben Wagner, Draft Report on the Human Rights Dimensions of Algorithms, S. 22
76
77
120 Der nächste Schritt wird die zunehmende Einpflanzung von RFID-Chips in den menschlichen Körper sein, um dessen Bewegungen verfolgen zu können. Menschenhändler und einzelne Unternehmen nutzen bereits diese Möglichkeit: http://boingboing.net/2016/03/03/human-traffickers-implant-rfid. html; http://www.dailymail.co.uk/sciencetech/article-4375730/Cyborgs-work-employees-getting-implanted-microchips.html
Made with FlippingBook - professional solution for displaying marketing and sales documents online