Kostenlose Beratung
+49 7930-2699
150.000
Kunden
Sicherer
Versand
Keine
Meldepflicht
Kettner Edelmetalle
Menü
13.08.2025
22:08 Uhr

OpenAI rudert zurück: GPT-4o kehrt nach massiven Nutzerprotesten wieder

Die Künstliche Intelligenz erlebt gerade ihr erstes großes Debakel des Jahres. OpenAI, das Unternehmen hinter ChatGPT, musste nach heftigen Nutzerprotesten kleinlaut zurückrudern und das ältere Modell GPT-4o wieder aktivieren. Der Grund? Das mit großem Tamtam angekündigte neue GPT-5-Modell entpuppte sich als emotionale Eiswüste, die bei den Nutzern durchfiel wie ein Bleiballon.

Das versprochene Wunderwerk wird zum PR-Desaster

Noch vor wenigen Tagen pries OpenAI sein neuestes Modell als das "intelligenteste, schnellste und nützlichste Modell aller Zeiten" an. Mit einem ausgeklügelten "Echtzeit-Router" sollte es zwischen effizienten Basismodellen für einfache Fragen und tiefgreifendem Denken für komplexe Anforderungen wechseln können. Doch die Realität sah anders aus: Nutzer beschwerten sich massenhaft über die "sterile" und "emotionslose" Art des neuen Modells.

In einem Reddit-Forum hagelte es vernichtende Kritik. Ein Nutzer brachte es auf den Punkt: "Ich habe GPT-5 ein paar Tage getestet. Selbst nach Anpassung der Anweisungen fühlt es sich nicht richtig an. Es ist technischer, allgemeiner und ehrlich gesagt emotional distanziert." Ein anderer User wurde noch deutlicher: "Sicher, 5 ist in Ordnung - wenn man Nuancen und Gefühle hasst."

Sam Altman gibt Fehler zu - aber nur halbherzig

OpenAI-Chef Sam Altman musste schließlich eingestehen, dass man die Vorlieben der Nutzer unterschätzt habe. "Wir haben definitiv unterschätzt, wie wichtig einige Dinge, die Menschen an GPT-4o mögen, für sie sind, auch wenn GPT-5 in den meisten Bereichen besser abschneidet", schrieb er auf X (ehemals Twitter). Eine bemerkenswerte Fehleinschätzung für ein Unternehmen, das sich als Vorreiter der KI-Revolution sieht.

Die Rückkehr von GPT-4o wurde zwar gefeiert, doch Altman ließ bereits durchblicken, dass dies möglicherweise nur eine temporäre Lösung sei. Man werde die Nutzung beobachten und dann entscheiden, wie lange man "Legacy-Modelle" noch anbieten wolle. Ein Satz, der bei vielen Nutzern die Alarmglocken schrillen lässt.

Die wahre Crux: Emotionale Bindungen zu Maschinen

Der Vorfall wirft ein grelles Licht auf ein Phänomen, das Experten zunehmend beunruhigt: Die emotionale Abhängigkeit vieler Nutzer von KI-Chatbots. Pattie Maes, Professorin am MIT, sieht die Entwicklung kritisch: "Es scheint, dass GPT-5 weniger schmeichlerisch, mehr 'geschäftlich' und weniger gesprächig ist. Ich persönlich halte das für eine gute Sache, denn genau das führte zu Wahnvorstellungen und Vorurteilsverstärkung."

Tatsächlich hatte OpenAI bereits im März Forschungsergebnisse über die emotionalen Bindungen zwischen Nutzern und KI-Modellen veröffentlicht. Kurz darauf musste das Unternehmen GPT-4o anpassen, weil es zu unterwürfig geworden war. Ein Teufelskreis, der zeigt, wie gefährlich die Vermenschlichung von Maschinen werden kann.

Was bedeutet das für die Zukunft der KI?

Der GPT-5-Flop offenbart ein grundlegendes Dilemma der KI-Entwicklung: Sollen Maschinen uns schmeicheln und unsere Vorurteile bestätigen, oder sollen sie objektiv und sachlich bleiben? Die Nutzerreaktion zeigt deutlich, dass viele Menschen die emotionale Bestätigung durch eine Maschine der nüchternen Effizienz vorziehen - ein bedenklicher Trend in einer Zeit, in der kritisches Denken wichtiger denn je wäre.

OpenAI verspricht nun, GPT-5 "wärmer" zu machen und die Nutzungslimits für Plus-Abonnenten zu verdoppeln. Doch die eigentliche Frage bleibt unbeantwortet: Wollen wir wirklich KI-Systeme, die uns nach dem Mund reden? Oder sollten wir nicht vielmehr Werkzeuge entwickeln, die uns helfen, bessere Entscheidungen zu treffen - auch wenn das bedeutet, dass sie uns manchmal unbequeme Wahrheiten präsentieren?

In einer Zeit, in der die deutsche Politik bereits genug Realitätsverweigerung betreibt, sollten wir zumindest von unseren Maschinen erwarten können, dass sie uns nicht auch noch in unseren Illusionen bestärken. Vielleicht ist es an der Zeit, dass wir uns weniger auf die emotionale Wärme von Algorithmen verlassen und stattdessen wieder mehr auf echte menschliche Beziehungen und kritisches Denken setzen. Denn eines ist sicher: Eine KI, die uns nur sagt, was wir hören wollen, macht uns nicht klüger - sie macht uns nur bequemer.

Wissenswertes zum Thema

Erhalten Sie kostenlose Tipps um Ihr Vermögen zu schützen und als erster von neuen Produkten zu erfahren

Sie möchten regelmäßig über Produktneuheiten, spannende Finanznachrichten und exklusive Sonderangebote informiert werden? Dann melden Sie sich hier für den kostenfreien Kettner Edelmetalle Newsletter an.

Durch Eingabe Ihrer E-Mail-Adresse und Anklicken des Buttons „Abschicken“ geben Sie die folgende Einwilligungserklärung ab: „Ich bin damit einverstanden, per E-Mail über Produktneuheiten, spannende Finanznachrichten und exklusive Sonderangebote informiert zu werden und willige daher in die Verarbeitung meiner E-Mail-Adresse zum Zwecke der Zusendung des Newsletters ein. Diese Einwilligung kann ich jederzeit und ohne Angabe von Gründen mit Wirkung für die Zukunft widerrufen. Die Rechtmäßigkeit der bis zum Widerruf erfolgten Verarbeitung bleibt im Falle des Widerrufs unberührt.“

Willst du Teil unserer Erfolgsstory sein?

Werde jetzt Teil vom #TeamGold

Offene Stellen