Teilen:

change Magazin – Das Magazin der Bertelsmann Stiftung

Ungerecht behandelt vom Algorithmus? Diese Website hilft

Eine Frau schaut genervt auf den Computer. CHRIS JOUBERT, StratfordProductions - stock.adobe.com

Computer says no: Was tun, wenn automatische Entscheidungen nerven?

  • CHRIS JOUBERT, StratfordProductions - stock.adobe.com
  • 05. Mai 2022

Ob wir es merken oder nicht: Viele Dinge in unserem Alltag werden mittlerweile mithilfe von Algorithmen entschieden. Obwohl Technik gemeinhin als weniger parteiisch und voreingenommen gilt als der Mensch, ist sie nicht neutral und kann auch falsche Entscheidungen vorschlagen. change zeigt dir deshalb, wie du dich wehren kannst, wenn der Computer dich ungerecht behandelt.

Ist dir vielleicht schon einmal wegen eines falschen Schufa-Eintrags deine Traumwohnung durch die Lappen gegangen? Der Fotoautomat hat dein Gesicht wegen deiner Hautfarbe nicht erkannt? Du konntest ein Onlineformular nicht ausfüllen, weil dein Name zu kurz oder zu lang ist? Jeden Tag haben Menschen mit den Auswirkungen ungerechter computerunterstützter Entscheidungen zu tun.

Algorithmen sind nicht unfehlbar

Automatische Entscheidungen, die durch den Einsatz von Algorithmen getroffen werden, können auch nach hinten losgehen. Zwar werden sie unter anderem eingesetzt, weil sie anders als wir Menschen vermeintlich nicht von Ressentiments geleitet sind. Doch ein Algorithmus ist nur so unvoreingenommen wie seine Programmierung – und die nimmt noch immer der Mensch vor.
 


Algorithmen brauchen Nachhilfe in Sachen Gleichberechtigung

Dass auch auf Grundlage von Algorithmen ungerecht entschieden werden kann, zeigt zum Beispiel die Kreditkarte von Apple: Kurz nachdem der Konzern das neue Produkt auf den Markt gebracht hatte, stellte sich heraus, dass in vielen Fällen Männern höhere Kreditrahmen eingeräumt wurden als Frauen. Und das, obwohl die betroffenen Frauen oft eine bessere Kreditwürdigkeit hatten als die Männer. Es scheint, dass der Algorithmus Nachhilfe in Sachen Gleichberechtigung braucht. Apple wies die Kritik an der sexistischen Entscheidung zurück und versteckte sich hinter der scheinbar „objektiven“ Entscheidung des Algorithmus. In der Fachsprache heißt das „Mathwashing“.

Ein Mann und eine Frau sehen skeptisch in die Kamera.

Warum Algorithmen Nachhilfe in der Gleichberechtigung brauchen


Warum entscheidet der Algorithmus ungerecht?

Wie kommt es zu solchen Vorfällen, bei denen es so scheint, als würden Algorithmen Entscheidungen treffen, die doch nicht allein auf Berechnungen basieren? Dazu muss man wissen, dass Algorithmen oft nicht absichtlich zu sexistischen Entscheidungen programmiert werden. Für jede Entscheidung stellen sie standardisierte Berechnungen an. Im Fall der Kreditvergabe berechnen sie also aus allen Daten, die ihnen über eine Person vorliegen, wie wahrscheinlich es ist, dass sie einen Kredit zurückzahlen kann. Dabei sind nicht nur Daten darüber entscheidend, wie viele Kredite eine Person schon aufgenommen hat oder wie viel Geld sich auf dem Konto befindet. Es spielt auch eine Rolle, in welcher Gegend jemand wohnt, welche Abschlüsse die Person hat und sogar wie sie sich in den sozialen Netzwerken verhält. Die Berechnungen werden außerdem nicht nur anhand der persönlichen Daten erstellt. Auch Daten von Menschen in ähnlichen Lebenssituationen werden einbezogen – also von Menschen, die gleich alt sind oder einen vergleichbaren Abschluss haben.

Algorithmen zeigen, wie stark Diskriminierungsformen uns immer noch beeinträchtigen

Traditionelle Rollenmodelle spiegeln sich auch heute noch in automatisierten Entscheidungen wider. Frauen haben traditionell weniger Geld zur Verfügung, weil sie schlechter bezahlt werden und öfter unbezahlte Care-Arbeit leisten. Dadurch verdienen sie deutlich weniger Geld. Dieser Umstand fließt beispielsweise in Berechnungen zum Kreditrahmen ein. So wird systemische Diskriminierung in algorithmische Entscheidungen übernommen. Die Bertelsmann Stiftung setzt sich deshalb für gemeinwohlorientierte Algorithmen ein, wie Julia Gundlach vom Projekt „Ethik der Algorithmen“ in diesem Beitrag darlegt:
 


So kannst du dich gegen ungerechte Computerentscheidungen wehren

Was kannst du tun, wenn dich ein Computer ungerecht behandelt? Die Nichtregierungsorganisation AlgorithmWatch hat dafür mit Unterstützung des Projekts „Ethik der Algorithmen“ die Website unding.de ins Leben gerufen. Hier kannst du automatische Entscheidungen, die du als ungerecht empfindest, anfechten. Dazu musst du ein paar Fragen beantworten, Unding erstellt darauf basierend ein Anschreiben. Dieses kannst du an das Unternehmen weiterleiten, dessen Algorithmus die automatische Entscheidung getroffen hat, die dich nervt. AlgorithmWatch und Unding wollen so öffentlichen Druck aufbauen und zeigen, dass auch Algorithmen nicht perfekt sind.

Algorithmische Systeme, die zu mehr Teilhabe für alle führen, sind auch der Bertelsmann Stiftung ein Anliegen. Mit dem Projekt „Ethik der Algorithmen“ engagiert sie sich deshalb für einen gesellschaftlich sinnvollen Einsatz von automatisierter Entscheidungsfindungen.