Teilen:

change Magazin – Das Magazin der Bertelsmann Stiftung

Wie fair kann KI sein? – Wenn Maschinen unsere Werte spiegeln

Eine junge Frau mit lockigem Haar sitzt in einem Café und blickt auf ihr Smartphone. Vor ihr liegt ein geöffnetes Notizbuch auf dem Tisch. Im Hintergrund sind Pflanzen und Regale zu sehen.
N E U
BullRun - stock.adobe.com

Wie fair kann Künstliche Intelligenz sein?

  • BullRun - stock.adobe.com
  • 21. November 2025

Künstliche Intelligenz soll logisch, neutral und objektiv sein, aber sie kann auch Vorurteile verstärken. Warum das so ist und wie wir es besser machen können, erzählen drei Expertinnen im Gespräch mit change.

Künstliche Intelligenz (KI) begegnet uns überall – oft ohne, dass wir es bemerken. Bei der Job- oder Wohnungssuche, beim Scrollen durch Apps: Immer häufiger steckt im Hintergrund ein KI-Algorithmus, der mitentscheidet. KI kann riesige Datenmengen verarbeiten, Muster erkennen und Prognosen treffen. Genau das ist ihre Stärke und der Grund, warum sie immer häufiger eingesetzt wird. Trotzdem glauben die meisten in Deutschland, dass Künstliche Intelligenz auf ihr Leben kaum Einfluss hat. Eine Studie der Bertelsmann Stiftung zeigt: Fast alle haben schon von KI gehört, aber nur wenige verstehen, wie sie funktioniert. Gleichzeitig glauben nur wenige Menschen, dass KI faire Entscheidungen trifft.
 


Künstliche Intelligenz: menschlicher, als wir denken?

Wenn wir mit Chatbots sprechen, wirkt das oft erstaunlich menschlich. Doch in Wahrheit steckt dahinter kein Bewusstsein, keine Emotion, kein Verständnis, sondern Mathematik. KI-Systeme berechnen Wahrscheinlichkeiten, basierend auf Milliarden von Daten aus unserer Welt. Sie lernen, was häufig vorkommt und wiederholen genau das. Das Problem: diese Daten sind alles andere als ausgewogen. Es gibt mehr Informationen über Männer als über Frauen, mehr über Menschen aus dem globalen Norden als über den Süden, mehr über Weiße Menschen als Schwarze Menschen. KI zeigt also keine faire, differenzierte Welt, sie spiegelt sehr viel häufiger unsere Vorurteile wider. Und gerade darin liegt die Gefahr. Denn wenn KI die Muster aus unseren Daten übernimmt, übernimmt sie auch unsere Vorurteile – das nennt man Bias in KI-Systemen.
 

Emily Fröse ...

… ist studentische Hilfskraft am Centrum für Hochschulentwicklung (CHE). Sie plädiert dafür, die Technologie mit einer machtkritischen Haltung zu betrachten und fordert mehr Bewusstsein dafür, wie sehr sich gesellschaftliche Ungleichheiten in den Trainingsdaten der KI widerspiegeln.


KI zeigt die Welt, aus der sie lernt

Emily Fröse beschäftigt sich im Rahmen ihrer Arbeit intensiv mit Studien zu dem Bias großer Sprachmodelle (LLMs). Sie erzählt uns, dass es einige Studien gibt, die deutlich zeigen, welche Stereotype KI-Systeme verstärken können:

„Eine Studie der deutschen Forscherin Eva Gengler untersuchte zum Beispiel KI-generierte Bilder von Text-zu-Bild-KI-Systemen. Die Ergebnisse zeigen unter anderem eine Überrepräsentation weißer Männer im Kontext von Macht und Erfolg. Frauen und People of Color sind dagegen stark unterrepräsentiert. Frauen werden überwiegend mit Schönheit in Verbindung gebracht und oft sexualisiert. Forschende der Technischen Hochschule Würzburg-Schweinfurt (THWS) zeigten in einer Studie zudem die Voreingenommenheit von Sprachmodellen. In den Tests schlugen die KI-Modelle Frauen für Gehaltsverhandlungen systematisch niedrigere Summen vor als Männern, obwohl die Profile ansonsten identisch waren. Dahinter steckt ein strukturelles Problem. Unsere Gesellschaft und damit auch die Daten, auf die sich die KI-Tools stützen, sind nicht vorurteilsfrei.“
 

Johanna Leifeld ...

… ist Projektmanagerin beim Hochschulforum Digitalisierung am Centrum für Hochschulentwicklung (CHE). Sie beschäftigt sich mit der Zukunft von Studium und Lehre im digitalen Zeitalter und entwickelt Ansätze für einen bias-sensiblen Einsatz von KI an Hochschulen.


Alte Muster statt Fortschritt

Auch Johanna Leifeld sieht dieses Problem. Sie sorgt sich, dass uns KI als neue Technologie durch diese Verzerrung nicht unbedingt weiterbringt, sondern alte Probleme wieder verstärken könnte.

„Mich beschäftigt immer wieder, wie tiefgreifend der Einfluss generativer KI auf nahezu alle Lebensbereiche sein kann. KI ist nur so gut wie wir Menschen, die sie erschaffen. Unsere eigenen Vorurteile spiegeln sich in ihr wider, und wenn wir nicht achtsam sind, wird die Technik uns nicht helfen, besser zu werden, sondern unsere Schwächen noch verstärken.“
 

Zwei junge Frauen sitzen auf einem Sofa und schauen auf ihre Smartphones.

Positive Algorithmen: So kann Künstliche Intelligenz die Gesellschaft stärken


Vertrauen braucht Verständnis

Damit es nicht so weit kommt, sieht Johanna Leifeld den Schlüssel vor allem darin, Wissen, Kompetenz und letztendlich Mündigkeit aufzubauen, wenn es um KI geht:

„KI ist gekommen, um zu bleiben, und Bias-Sensibilität muss in unserer Gesellschaft zu einem zentralen Thema werden. Egal welchen Karriereweg ich heutzutage einschlage: Der Einfluss, den KI auf meine zukünftige Arbeit haben wird, ist enorm. Deshalb dürfen wir keine Scheu davor haben, uns mit ihr auseinanderzusetzen, ihre Funktionsweise zu verstehen und mögliche Verzerrungen zu erkennen. Dafür braucht es Räume zum Experimentieren und Ausprobieren, und eine Fehlerkultur, die hierzu ermutigt. In Schulen, Hochschulen und Berufsschulen begegnen sich die Gestalter:innen von morgen. Sie sind deshalb ideale Orte, um KI gemeinsam kritisch zu beleuchten und einen bewussten, verantwortungsvollen Umgang damit zu entwickeln.“
 

Teresa Staiger ...

… ist Projektmanagerin im Bereich Digitalisierung und Gemeinwohl bei der Bertelsmann Stiftung. Im Rahmen des Projektes reframe[Tech] untersucht sie, wie Künstliche Intelligenz sozial gerechter entwickelt werden kann. Ihre Arbeit zeigt, dass KI keine rein technische, sondern vor allem eine soziale Frage ist.


KI im Dienste des Gemeinwohls

Teresa Staiger beschäftigte sich im Rahmen ihrer aktuellen Studie mit den Risiken von generativer KI für das Gemeinwohl unserer Gesellschaft. Auch sie betont, dass wir Kompetenzen aufbauen müssen, damit KI uns als Gesellschaft weiterbringt. 

„Nur wer die Technologie versteht, kann auch sinnvoll über Chancen, Risiken und Nebenwirkungen entscheiden. Wenn wir KI ernsthaft im Sinne des Gemeinwohls gestalten wollen, müssen wir sie als soziale Innovation begreifen und nicht als rein technologische. Im Moment werden KI-Systeme entwickelt und eingesetzt, bevor klar ist, welches Problem sie eigentlich lösen sollen und welche Folgen sie für Menschen haben, die nicht dem gesellschaftlichen Durchschnitt entsprechen. So entstehen blinde Flecken und Diskriminierungsrisiken. Stattdessen sollte es stärker darum gehen, Technologien und Prozesse zu entwickeln, bei denen soziale Gerechtigkeit, Vielfalt und Teilhabe von Anfang an mitgedacht werden. Denn eine verantwortungsvollere Technologieentwicklung beginnt lange vor der ersten Zeile Code. Das heißt ganz konkret: Diejenigen, die die Konsequenzen des KI-Einsatzes spüren werden, müssen konsequent einbezogen werden.“

Faire KI braucht Vielfalt

Damit KI fairer und nützlich für alle Menschen in unserer Gesellschaft  wird, braucht es also vor allem unterschiedliche Perspektiven in der Entwicklung, in der Forschung und in der Anwendung. Teresa Staiger meint: „Offene und divers zusammengestellte Datensätze und transparentere Trainingsprozesse können helfen, KI gemeinwohlorientierter zu gestalten.“
 

Eine Frau mit Brille schaut konzentriert auf einen großen, transparenten Bildschirm mit futuristischer Benutzeroberfläche.

Ist Deutschland bereit für das KI-Zeitalter?


Mündigkeit macht den Unterschied

KI entscheidet heute längst mit, wer welche Nachrichten sieht, welche Jobs empfohlen werden und welche Stimmen gehört werden. Und genau deshalb betrifft das Thema jede:n von uns. Wenn wir wollen, dass KI fairer wird, müssen wir hinschauen, verstehen und mitreden. Verantwortung liegt nicht nur bei Tech-Konzernen oder der Politik, sondern auch bei uns als Nutzer:innen.

Oder, wie Emily Fröse sagt: „Es ist wichtig, dass wir uns mit unseren eigenen Vorurteilen auseinandersetzen und die Ergebnisse von KI-Modellen kritisch reflektieren. Eine machtkritische Perspektive sowie eine gewisse Sensibilität für Ausschließungen und diskriminierende Strukturen sind dabei mindestens genauso wichtig, wie die technische Kompetenz. Außerdem entwickelt sich die KI stetig weiter, weshalb auch wir als Nutzende uns nicht auf dem aktuellen Wissensstand ausruhen dürfen.“

KI spiegelt uns – wir entscheiden, was sie zeigt

Künstliche Intelligenz wird unsere Gesellschaft weiter prägen, ob wir wollen oder nicht. Doch ob sie bestehende Ungleichheiten vertieft oder neue Chancen schafft, hängt von uns ab. Fairness in KI entsteht nicht automatisch durch Technik, sondern durch Haltung, Wissen und gemeinsame Verantwortung. Wenn wir verstehen, wie KI funktioniert, und sie mitgestalten, kann sie zu einem Werkzeug werden, das uns hilft, gerechtere Entscheidungen zu treffen und nicht in alte Muster zu verfallen.

Du willst mehr darüber erfahren, wie Algorithmen unsere Gesellschaft prägen? Dann vorbei beim Projekt reframe[Tech] der Bertelsmann Stiftung und entdecke weitere Geschichten bei change, die zeigen, wie wir Technik menschlicher machen können.