Eine Anleitung zu Digital Ethics - Teil 1 - Technologie ≠ Neutral
Digital Ethics.
The Art of Not Killing Anyone.
01 Technologie ≠ Neutral
02 Was ist meine Verantwortung?
03 Was ist Ethik?
04 Was kann ich konkret tun?
Ausführungen meiner Präsentation am World Usability Day 2018 in Rapperswil. Die Aufzeichnung des Vortrages wie auch der Download vom Ethics Toolkit sind am Ende des Artikels.
Nie zuvor in der Geschichte hatte eine so kleine Anzahl von Designer und Entwickler, bei einer Handvoll Technologiefirmen, einen so grossen Einfluss auf die Gedanken und Entscheidungen von Milliarden von Menschen.
Wir schauen auf unsere Smartphones mehr als 150 Mal pro Tag (link). Wissensarbeiter verbringen ein Drittel ihres Tages in E-Mails und Teenager senden im Durchschnitt alle 6 Minuten eine Textnachricht. Je mehr wir von unseren Bildschirmen leben und Zeit dort verbringen, desto mehr leben wir nach den Ideen der Unternehmen dahinter. Sie beeinflussen wie sich Menschen verhalten und ihr Leben leben. Trainiert darauf, Probleme zu lösen und das Leben eines Menschen zu verbessern. Meistens jedenfalls. So die Idee. Aber wer definiert verbessern? Wer definiert was gut und was böse ist?
Seit Jahren lässt mich dieser Gedanke nicht mehr los. Um Ethik besser zu verstehen und Denkwerkzeuge daraus zu erstellen für meine eigene Arbeit, habe ich mich auf die Reise gemacht und Gespräche mit verschiedenen Personen aus den Bereichen UX, Technologie, Philosophie und Ethik geführt. Unter anderem mit dem Ethikprofessor und Pionier Dr. Prof. Matthias Schüz.
Einige fundamentale Fragen lassen sich daraus beantworten:
Design ≠ Neutral
Was ist meine Verantwortung?
Was ist Ethik?
Was kann ich Morgen tun?
01. Design und Technologie ist nicht Neutral.
Beispiel 1. Am 18. September 2015 wurde öffentlich, das die Volkswagen AG eine illegale Abschalteinrichtung in der TDI Motorsteuerung ihrer Diesel-Fahrzeuge verwendete, um die US-amerikanischen Abgasnormen zu umgehen. Laut Volkswagen ist die betreffende Software in weltweit elf Millionen Fahrzeugen eingebaut. Betroffen sind auch Fahrzeuge von Audi und Porsche. (link)
Die Folgen? Alleine die 2,6 Millionen verkauften VW Autos in Deutschland, verursachten zwischen 2008 und 2015 in ganz Europa ca. 1200 vorzeitige Todesfälle mit einem Gesamtverlust von ca. 13.000 Lebensjahren, was einem volkswirtschaftlichen Schaden von 1,9 Milliarden Euro entspricht. (Guillaume P. Chossière et al.: Public health impacts of excess NOx emissions from Volkswagen diesel passenger vehicles in Germany. In: Environmental Research Letters.)
Europaweit (inkl. Schweiz) sterben nach wissenschaftlichen Hochrechnungen jährlich etwa 5000 Menschen, weil Dieselautos im realen Strassenverkehr die auf Prüfständen gemessenen Grenzwerte für Stickoxide überschreiten.
Der Aktienkurs von VW senkte sich um ein Drittel und der damalige CEO, Herr Winterkorn, befindet sich noch immer in gerichtlichen Verhandlungen
James Lang, der Software-Designer, der den Code geschrieben hatte, bekam 40 Monate Gefängnis und eine Strafe von $ 200.000
Beispiel 2 - Cambridge Analytica
Cambridge Analytica nahm für sich in Anspruch, eine „entscheidende Rolle“ beim Zustandekommen des überraschenden Wahlsiegs Donald Trumps gespielt zu haben. Der damalige CEO, Alexander Nix, behauptete, die Firma habe eine einzigartige Methode zur Erstellung von Persönlichkeitsprofilen nach dem OCEAN-Modell entwickelt und damit Profile von 220 Millionen US-Bürgern erstellt. (Link)
Christopher Wylie war Director of Research bei Cambridge Analytica zu dieser Zeit. Und im März 2018 wurde er zum Whistleblower (Link). Er wendete sich mit internen Dokumenten an die englische Zeitung “the Guardian”.
Die Dokumente drehen sich um den unerlaubten Besitz von persönlichen Daten von etwa 87 Millionen Facebooknutzern, welche von Cambridge Analytica für politische Kampagnen für die Präsidentschaftswahlen 2016 gesammelt wurden und “micro targeting” ermöglichten. Kurz nach der Veröffentlichung der Dokumente, am 2. Mai 2018, teilte das Unternehmen mit, es habe Insolvenz beantragt und werde unverzüglich alle Tätigkeiten beenden.
Die Eigentümer gründeten jedoch eine neue Gesellschaft unter dem Namen Emerdata. (link)
Lean Startup Culture
Es entsteht kein Ethik-freier, gewissermassen neutraler Raum, wenn eine Gemeinschaft technische und wissenschaftliche Entwicklungen nicht mehr nach allgemeinen Massstäben wertet und kontrolliert. Es entstehen dann andere Werte; im Augenblick wächst eine Ethik zugunsten der Nutzeroptimierung und der Profitmaximierung.
Für die Cheerleader im Silicon Valley ist Technologie dermassen gut für uns, dass Schaden fast undenkbar ist. Wir haben gelernt, das Probieren vor Studieren kommt. Lean Startup, die vorherrschende Ideologie von heute, ist vehement empirisch. Build Measure Learn. Ihr kennt das alle. Es ist klar, dieser Ansatz hat unsere Innovationskraft wie nie zuvor gestärkt. Die Gefahr ist jedoch, dass die Frage: “können wir das tun?" stärker gewichtet wird als sie Frage: “Sollen wir das tun?”. Es liegt also am Mitarbeiter und am Unternehmen dies sorgfältog zu bewerten.
Mark Zuckerberg erklärte an einer Techkonferenz, nach welchen Kriterien und Werten seine Mitarbeiter Tests an Nutzern machen können (Video) - Von Ethischen Werten fehlt jede Spur.
Wir dürfen hier nicht vergessen, dass unsere Verantwortung als Technologieunternehmen, Entwickler, Designer oder Führungskraft die Profitmaximierung übersteigt. Wir lösen Probleme und geben Richtungen vor. Wir entwickeln die Zukunft mit.
Wir sind die Gatekeeper. Wir tragen die Verantwortung.
Mehr über die Verantwortung eines einzelnen innerhalb eines Unternehmens in Teil 2.
01 Technologie ≠ Neutral
02 Was ist meine Verantwortung?
03 Was ist Ethik?
04 Was kann ich konkret tun?
Ausführungen meiner Präsentation am World Usability Day 2018 in Rapperswil. Die Aufzeichnung des Vortrages kann auf Youtube nachgeschaut werden.