Skip to content

Digitale Diskriminierung

Der Beitrag ist in leicht angepasster Form am 16. März 2016 auch bei SPIEGEL ONLINE erschienen.

Wer schließt die Lücke zwischen Algorithmus und Mensch? Wenn Entscheidungen nicht mehr von Menschen gefällt werden, sondern von Algorithmen, müssen für Algorithmen dieselben Maßstäbe gelten, wie für uns. Das geschieht aber nicht. Aufgrund einer Lücke im Recht: 

Jemanden zu diskriminieren bedeutet, ihn aufgrund seiner Eigenschaften zu benachteiligen. Dass Schwarze in den USA in Bussen hinten sitzen mussten, ist ein Beispiel für analoge Diskriminierung. Algorithmen, die Frauen Werbung für Jobs mit kleineren Gehältern ausspielen als Männern, stellen ein Beispiel für digitale Diskriminierung dar.

Ein wesentlicher Gedanke des deutschen Datenschutzes scheint der digitalen Diskriminierungen vorzubeugen: Der Grundsatz der Datensparsamkeit verlangt, die Verwendung von Daten über Personen so sehr wie möglich zu vermeiden. Dem im Zeitalter von Big Data anachronistisch wirkenden Ansatz liegt die Annahme zugrunde, dass weniger Daten mehr Schutz bedeuten. Das ist naheliegend. Wenn weniger Informationen über mich verfügbar sind, bin ich auch weniger angreifbar. Für den Algorithmus sind ohne Informationen alle Nutzer gleich. Er kann sie gleich behandeln.

Gleichbehandlung ist eine Kategorie der Gerechtigkeit. Gerechtigkeit fordert aber nicht nur, Gleiches gleich zu behandeln. Für eine gerechte Entscheidung kann auch erforderlich sein, dass Ungleiches ungleich behandelt wird. Wenn sich ein potenzieller Kreditnehmer als Betrüger strafbar gemacht hat, wird die Entscheidung einer Bank, ihm einen Kredit nur gegen einen höheren Zins zu geben als anderen, kaum als ungerecht wahrgenommen werden. Anders ist es, wenn der gegenüber anderen höhere Zins mit der Herkunft begründet wird. Der Grund für die Ungleichbehandlung ist entscheidend. Es gibt Gründe, die wir akzeptieren (Betrug) und Gründe, für die das nicht gilt (Herkunft). Dabei kann umso stärker differenziert werden, je mehr Informationen vorliegen. Schutz vor unzulässiger Ungleichbehandlung setzt danach möglichst viele Informationen voraus. Ein Dilemma.

Quasi gottgleich autarke Technologie

Die Daten, die wir über uns preisgeben, sind aber nur eine Hälfte des Problems. Institutionalisierte Diskriminierung funktioniert seit je her, indem ohne Ansehung der Person auf der Grundlage ihrer Zugehörigkeit zu einer Gruppe über sie entschieden wird. Unsere Kaufkraft wird ermittelt, indem von anderen, die uns ähneln, auf uns geschlossen wird. Wir werden unsere digital definierten Eigenschaften. Besondere Ängste rufen Schlüsse hervor, die aus der Kombination unserer Daten mit anderen Daten gezogen werden. Dabei geht es um die Verwendung von Informationen über uns, die wir gar nicht selbst bereitstellen, indem wir online ein T-Shirt von ACDC kaufen oder einem Pornostar auf Instagram folgen. Es geht um die sich aus der Kombination der Informationen über uns erschließenden Informationen. Das sind die Meta-Informationen, die wir nicht kennen und die wir nicht richtigstellen können. Ohne aufstehen und Aber sagen zu dürfen, wird das Urteil über uns anhand dieser Informationen ermittelt, beschlossen, verkündet und vollstreckt. Die automatisierte Entscheidung über einen Menschen ist seine Algorithmus gewordene Verdinglichung. Quasi gottgleich kann eine immer autarker werdende Technologie Entscheidungen über uns ausrechnen und uns damit den Dingen annähern. Das weckt Ängste vor Willkür auf einer bisher nicht gekannten Stufe.

Keine objektive Entscheidung durch Algorithmen

Dass Algorithmen objektiv entscheiden, ist dabei eine Mär. Weil sie von Menschen programmiert werden, spiegeln Algorithmen die in ihrem Programmierer angelegten Vorurteile. Code ist Werturteil. Algorithmen entscheiden zu lassen, ist zudem problematisch, weil sie durch Wiederholung menschlichen Verhaltens, das sogenannte „Lernen“, bereits vorhandene Diskriminierungen vertiefen. Niemand bei Google hat gesagt, dass die Suchbegriffe „Israel“ und „muss“ automatisch vervollständigt werden sollen mit „vernichtet“ und „werden“. Dennoch gibt die Suche exakt das vor, weil Nutzer häufig diese Begriffspaare miteinander kombinieren. Das Beispiel zeigt auch, wie weit die Gefahr der „blinden“ Diskriminierung durch Algorithmen reicht. Wenn Sie die Auto-Vervollständigung jetzt ausprobieren, perpetuieren sie die Diskriminierung, weil dem Algorithmus (anders als dem Leser dieses Textes) nicht klar ist, mit welchem Motiv die Begriffe eingegeben werden.

Datenschutz ist nicht zum Schutz von Daten da

Diese digitale Diskriminierung breitet sich aus einer Lücke heraus aus: Das Datenschutzrecht, das flächendeckend auf digitale Vorgänge angewendet wird, kennt kein allgemeines Diskriminierungsverbot. Das allgemeine Verbot der Diskriminierung, das sich im Gleichstellungsrecht findet, wird auf im Netz durch Algorithmen getroffene Entscheidungen dagegen kaum angewendet. Diese Lücke, also der Bereich der nicht sanktionierten Diskriminierung durch Algorithmen, kann aber nicht hingenommen werden. Im Angesicht des Umfangs, in dem Verantwortung mittlerweile auf digitale Entscheidungsträger übertragen wurde, ist die von Algorithmen getroffene Entscheidung exakt den Maßstäben zu unterwerfen, an denen von Menschen getroffene Entscheidungen gemessen werden.

Die überwiegend technische Kontrolle des Datenschutzes muss deshalb erweitert werden um eine Kontrolle der hinter den Algorithmen stehenden Wertungen. Ressourcenschonend ist das nicht. Das Gleichstellungsrecht zeigt aber, dass es möglich ist. Im Angesicht des Zwecks, den Datenschutz hat, muss ein höherer Aufwand hingenommen werden.

Datenschutz ist nicht zum Schutz von Daten da, sondern zum Schutz von Menschen.

===

Das Bild zeigt das von Gerhard Richter verpixelte Südquerhausfenster des Kölner Doms.

Kommentiere als erster

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.