
OpenAI rudert zurück: GPT-4o kehrt nach massiven Nutzerprotesten wieder
Die Künstliche Intelligenz erlebt gerade ihr erstes großes Debakel des Jahres. OpenAI, das Unternehmen hinter ChatGPT, musste nach heftigen Nutzerprotesten kleinlaut zurückrudern und das ältere Modell GPT-4o wieder aktivieren. Der Grund? Das mit großem Tamtam angekündigte neue GPT-5-Modell entpuppte sich als emotionale Eiswüste, die bei den Nutzern durchfiel wie ein Bleiballon.
Das versprochene Wunderwerk wird zum PR-Desaster
Noch vor wenigen Tagen pries OpenAI sein neuestes Modell als das "intelligenteste, schnellste und nützlichste Modell aller Zeiten" an. Mit einem ausgeklügelten "Echtzeit-Router" sollte es zwischen effizienten Basismodellen für einfache Fragen und tiefgreifendem Denken für komplexe Anforderungen wechseln können. Doch die Realität sah anders aus: Nutzer beschwerten sich massenhaft über die "sterile" und "emotionslose" Art des neuen Modells.
In einem Reddit-Forum hagelte es vernichtende Kritik. Ein Nutzer brachte es auf den Punkt: "Ich habe GPT-5 ein paar Tage getestet. Selbst nach Anpassung der Anweisungen fühlt es sich nicht richtig an. Es ist technischer, allgemeiner und ehrlich gesagt emotional distanziert." Ein anderer User wurde noch deutlicher: "Sicher, 5 ist in Ordnung - wenn man Nuancen und Gefühle hasst."
Sam Altman gibt Fehler zu - aber nur halbherzig
OpenAI-Chef Sam Altman musste schließlich eingestehen, dass man die Vorlieben der Nutzer unterschätzt habe. "Wir haben definitiv unterschätzt, wie wichtig einige Dinge, die Menschen an GPT-4o mögen, für sie sind, auch wenn GPT-5 in den meisten Bereichen besser abschneidet", schrieb er auf X (ehemals Twitter). Eine bemerkenswerte Fehleinschätzung für ein Unternehmen, das sich als Vorreiter der KI-Revolution sieht.
Die Rückkehr von GPT-4o wurde zwar gefeiert, doch Altman ließ bereits durchblicken, dass dies möglicherweise nur eine temporäre Lösung sei. Man werde die Nutzung beobachten und dann entscheiden, wie lange man "Legacy-Modelle" noch anbieten wolle. Ein Satz, der bei vielen Nutzern die Alarmglocken schrillen lässt.
Die wahre Crux: Emotionale Bindungen zu Maschinen
Der Vorfall wirft ein grelles Licht auf ein Phänomen, das Experten zunehmend beunruhigt: Die emotionale Abhängigkeit vieler Nutzer von KI-Chatbots. Pattie Maes, Professorin am MIT, sieht die Entwicklung kritisch: "Es scheint, dass GPT-5 weniger schmeichlerisch, mehr 'geschäftlich' und weniger gesprächig ist. Ich persönlich halte das für eine gute Sache, denn genau das führte zu Wahnvorstellungen und Vorurteilsverstärkung."
Tatsächlich hatte OpenAI bereits im März Forschungsergebnisse über die emotionalen Bindungen zwischen Nutzern und KI-Modellen veröffentlicht. Kurz darauf musste das Unternehmen GPT-4o anpassen, weil es zu unterwürfig geworden war. Ein Teufelskreis, der zeigt, wie gefährlich die Vermenschlichung von Maschinen werden kann.
Was bedeutet das für die Zukunft der KI?
Der GPT-5-Flop offenbart ein grundlegendes Dilemma der KI-Entwicklung: Sollen Maschinen uns schmeicheln und unsere Vorurteile bestätigen, oder sollen sie objektiv und sachlich bleiben? Die Nutzerreaktion zeigt deutlich, dass viele Menschen die emotionale Bestätigung durch eine Maschine der nüchternen Effizienz vorziehen - ein bedenklicher Trend in einer Zeit, in der kritisches Denken wichtiger denn je wäre.
OpenAI verspricht nun, GPT-5 "wärmer" zu machen und die Nutzungslimits für Plus-Abonnenten zu verdoppeln. Doch die eigentliche Frage bleibt unbeantwortet: Wollen wir wirklich KI-Systeme, die uns nach dem Mund reden? Oder sollten wir nicht vielmehr Werkzeuge entwickeln, die uns helfen, bessere Entscheidungen zu treffen - auch wenn das bedeutet, dass sie uns manchmal unbequeme Wahrheiten präsentieren?
In einer Zeit, in der die deutsche Politik bereits genug Realitätsverweigerung betreibt, sollten wir zumindest von unseren Maschinen erwarten können, dass sie uns nicht auch noch in unseren Illusionen bestärken. Vielleicht ist es an der Zeit, dass wir uns weniger auf die emotionale Wärme von Algorithmen verlassen und stattdessen wieder mehr auf echte menschliche Beziehungen und kritisches Denken setzen. Denn eines ist sicher: Eine KI, die uns nur sagt, was wir hören wollen, macht uns nicht klüger - sie macht uns nur bequemer.
- Themen:
- #Aktien

DER DIGITALE EURO KOMMT!
Keine Kreditkarte erforderlich • Keine versteckten Kosten
Ihre Experten im Webinar:

Dominik Kettner

Peter Hahne

Prof. Dr. S. Bhakdi

Ernst Wolff

Philip Hopf

Joachim Steinhöfel

Patrick Baab
AMLA & Kontrolle
ab 1. Juli 2025
Konkrete Lösungen
zum Schutz
15.000€ Gold
zu gewinnen
- Kettner Edelmetalle News
- Finanzen
- Wirtschaft
- Politik