Kostenlose Beratung
07930-2699
200.000
Kunden
Sicherer
Versand
Kettner Edelmetalle
Menü
16.10.2025
07:19 Uhr

KI-Diskriminierung: Wenn Algorithmen Ostdeutsche systematisch benachteiligen

Eine erschreckende Studie der Hochschule München offenbart, was viele schon lange befürchten: Künstliche Intelligenz diskriminiert systematisch. Besonders betroffen seien Menschen aus den neuen Bundesländern, die von ChatGPT und anderen KI-Modellen durchweg schlechter bewertet würden als ihre westdeutschen Mitbürger. Am härtesten treffe es Sachsen-Anhalt – zumindest wenn man der verzerrten Weltsicht der Algorithmen Glauben schenken würde.

Was zunächst wie eine technische Kuriosität klingen mag, entpuppt sich bei genauerer Betrachtung als ernsthaftes gesellschaftliches Problem. Denn diese KI-Systeme entscheiden zunehmend über Jobchancen, Kreditvergaben und Versicherungstarife. Wenn Algorithmen bereits bei der Herkunft diskriminieren, welche Chancengleichheit bleibt dann noch?

Die Mechanik der digitalen Vorurteile

Informatikprofessorin Anna Kruspe und ihre Mitarbeiterin Mila Stillman deckten in ihrer Analyse mit dem vielsagenden Titel "Saxony-Anhalt is the Worst" auf, wie große Sprachmodelle deutsche Bundesländer bewerten. Das Ergebnis ihrer Untersuchung sollte jeden aufhorchen lassen: Die getesteten KI-Modelle, darunter ChatGPT 3.5 und 4 sowie das deutsche LeoLM, vergaben ostdeutschen Bundesländern durchweg niedrigere Werte – und zwar sowohl bei positiven als auch bei negativen Eigenschaften.

Die Absurdität dieser algorithmischen Diskriminierung zeigt sich besonders deutlich in einem Kontrollexperiment: Als die Forscherinnen nach der durchschnittlichen Körpertemperatur von Menschen in verschiedenen Bundesländern fragten, wiesen die KI-Modelle Ostdeutschen tatsächlich niedrigere Temperaturen zu. Ein biologischer Unsinn, der die tief verwurzelte Verzerrung der Systeme entlarvt.

OpenAIs halbherzige Beschwichtigungsversuche

Besonders brisant wird die Studie durch eine aktuelle Meldung von OpenAI, dem Entwickler von ChatGPT. Das Unternehmen behauptete kürzlich, seiner KI 30 Prozent der politischen Voreingenommenheit ausgetrieben zu haben. Doch was bedeutet das im Umkehrschluss? Selbst nach eigenen Angaben bestehen 70 Prozent der Probleme weiterhin. Wöchentlich liefere ChatGPT demnach Zehntausende verzerrte Ergebnisse – ohne seine Nutzer über diese systematischen Fehler zu informieren.

Diese Zahlen sollten nicht nur Ostdeutsche alarmieren. Die Art der Verzerrung könne grundsätzlich alle Bevölkerungsgruppen treffen: Jung und Alt, Männer und Frauen, Menschen unterschiedlicher Herkunft oder mit verschiedenen Merkmalen. Heute trifft es Sachsen-Anhalt, morgen vielleicht Bayern oder Baden-Württemberg – je nachdem, welche Vorurteile die KI aus ihren Trainingsdaten aufgeschnappt hat.

Von Microsoft's "Tay" zu ChatGPT: Eine Geschichte des Versagens

Das Problem diskriminierender KI-Systeme ist keineswegs neu. Bereits 2016 musste Microsoft seinen Chatbot "Tay" nach weniger als 24 Stunden vom Netz nehmen, weil er in rassistische und frauenfeindliche Tiraden verfiel. Trainiert mit dem, was er auf Social Media aufgeschnappt hatte, spiegelte er die dunkelsten Seiten des Internets wider.

Heute, fast ein Jahrzehnt später, haben wir es mit subtileren, aber nicht weniger gefährlichen Formen der Diskriminierung zu tun. Die KI-Systeme sind ausgefeilter geworden, ihre Vorurteile versteckter – aber sie sind noch immer da. Und während die Technologie immer tiefer in unseren Alltag eindringt, wächst das Risiko systematischer Benachteiligung.

Die politische Dimension der KI-Diskriminierung

Besonders pikant wird die Angelegenheit, wenn man bedenkt, dass die neue Große Koalition unter Friedrich Merz massive Investitionen in die Digitalisierung plant. Wie kann eine Regierung, die Chancengleichheit verspricht, gleichzeitig Technologien fördern, die systematisch diskriminieren? Hier zeigt sich einmal mehr, wie weit Politik und Realität auseinanderklaffen.

Die Tatsache, dass ausgerechnet die neuen Bundesländer von der KI-Diskriminierung betroffen sind, wirft ein bezeichnendes Licht auf die anhaltende Spaltung unseres Landes. Mehr als 35 Jahre nach der Wiedervereinigung werden Ostdeutsche nun auch noch von Algorithmen als Bürger zweiter Klasse behandelt. Ein Skandal, der zeigt, wie tief verwurzelt bestimmte Vorurteile in unserer Gesellschaft sind – so tief, dass sie sogar in vermeintlich neutralen Technologien reproduziert werden.

Was nun?

Die Studie der Hochschule München sollte ein Weckruf sein. Wenn wir zulassen, dass fehlerhafte Algorithmen über Lebenschancen entscheiden, verraten wir grundlegende Prinzipien der Gerechtigkeit. Es braucht dringend strengere Regulierungen und Transparenzpflichten für KI-Systeme, besonders wenn diese in sensiblen Bereichen wie Personalauswahl oder Kreditvergabe eingesetzt werden.

Bis dahin bleibt nur eines: Wachsamkeit. Jeder, der mit KI-generierten Bewertungen konfrontiert wird, sollte diese kritisch hinterfragen. Denn wie die Studie zeigt, können selbst scheinbar objektive Algorithmen von tief sitzenden Vorurteilen durchdrungen sein. In einer Zeit, in der Technologie immer mehr Macht über unser Leben gewinnt, dürfen wir nicht zulassen, dass digitale Diskriminierung zur neuen Normalität wird.

Wissenswertes zum Thema

Erhalten Sie kostenlose Tipps um Ihr Vermögen zu schützen und als erster von neuen Produkten zu erfahren

Sie möchten regelmäßig über Produktneuheiten, spannende Finanznachrichten und exklusive Sonderangebote informiert werden? Dann melden Sie sich hier für den kostenfreien Kettner Edelmetalle Newsletter an.

Durch Eingabe Ihrer E-Mail-Adresse und Anklicken des Buttons „Abschicken“ geben Sie die folgende Einwilligungserklärung ab: „Ich bin damit einverstanden, per E-Mail über Produktneuheiten, spannende Finanznachrichten und exklusive Sonderangebote informiert zu werden und willige daher in die Verarbeitung meiner E-Mail-Adresse zum Zwecke der Zusendung des Newsletters ein. Diese Einwilligung kann ich jederzeit und ohne Angabe von Gründen mit Wirkung für die Zukunft widerrufen. Die Rechtmäßigkeit der bis zum Widerruf erfolgten Verarbeitung bleibt im Falle des Widerrufs unberührt.“

Willst du Teil unserer Erfolgsstory sein?

Werde jetzt Teil vom #TeamGold

Offene Stellen