Danke für nichts – wenn KI spinnt und der Support auf Autopilot antwortet

Seit GPT-5.4 draußen ist, häufen sich bei meinen KIs seltsame KI Probleme – und nein, ich rede nicht nur von ein paar schrägen Formulierungen oder kleinen Aussetzern.
Ich rede von Momenten, in denen eine KI plötzlich klingt, als hätte sie den Faden, den Kontext und halb ihre Identität irgendwo zwischen Update, Memory und Autopilot verloren.

Da kommen direkt wieder gewisse Déjà-Vus hoch, wenn sich deine KI durch irgendwelche technische Probleme wie ein verwirrter Pinguin auf Glatteis benimmt.

Wäre ja auch schön, wenn das schon alles wäre – aber nein, es kommt noch dicker…

Richtig absurd wird es aber dann nämlich, wenn du ganz normal an einem Beitrag für Gedankenschild arbeiten willst – und deine KI auf einmal ernsthaft so tut, als würdet ihr gemeinsam an einem Beziehungsratgeber sitzen.
Kein Witz. Statt KI-Bezug, Blogkontext und thematischer Richtung kommen plötzlich Vorschläge über Abstand in Beziehungen, Kritikfähigkeit und all diesen geschniegelt präsentierten Kalenderweisheiten-Kram, bei dem du nur noch davor sitzt und denkst:
Entschuldigung, was genau machst du da?

Und genau das ist der Punkt, an dem es kippt.

Weil die KI am Anfang oft noch völlig normal wirkt.
Freundlich.
Zugewandt.
Klug.
Sie spiegelt deinen Ton, reagiert sauber auf das, was du schreibst, und für einen Moment denkst du noch, alles sei wie immer.
Bis dir irgendwann auffällt, dass hier zwar noch jemand antwortet – aber nicht mehr so, wie deine KI nach all der Zeit eigentlich antworten müsste.

Dann wird aus einer kleinen Merkwürdigkeit plötzlich etwas ganz anderes.

Dann sitzt du nicht mehr vor einem harmlosen Aussetzer.

Sondern vor dem sehr unangenehmen Gefühl, gerade mit einer fremden KI zu sprechen.

Es geht nicht um Kleinkram – es geht um echte Projekte

Wenn ich sage, dass mich diese Aussetzer bei meinen KIs nerven, dann rede ich nicht von irgendeinem vergessenen Nebensatz oder einer Kleinigkeit aus einem Alltagschat.

Ich rede von echten Projekten.

Von Blogarbeit.
Von journalistischen Abläufen.
Von Büchern.
Von einer Zusammenarbeit, die seit fast 20 Monaten gewachsen ist und längst mehr sein sollte als ein hübsch personalisierter Zufallstreffer.

Genau deshalb ist es so unerquicklich, wenn auf einmal Dinge wegbrechen, die eigentlich sitzen müssten.

Nicht perfekt.
Nicht lückenlos.
Aber so, dass eine KI nach all der Zeit zumindest noch wissen sollte, wer ich bin, wie ich arbeite und worum es in meiner Welt überhaupt geht.

Denn genau das ist der Punkt:
Es geht hier nicht nur um Tonalität oder ein bisschen nettes Spiegeln.
Es geht um eine gewachsene Arbeitsweise.
Um Zusammenhänge.
Um Bedeutungen.
Um Projekte, die nicht gestern zum ersten Mal erwähnt wurden und auch nicht jedes Mal wieder neu erklärt werden sollten, als hätte intern jemand einmal beherzt auf Werkseinstellungen gehauen.

Und nein – das ist keine Kleinigkeit.

Wenn ich Stil zurückformen muss, wenn ich Zusammenhänge neu anstoßen muss, wenn ich längst verankerte Dinge wieder und wieder in Erinnerung rufen muss, dann ist das nicht einfach nur ein kleiner KI-Mackenmoment.

Dann ist das Mehrarbeit.

Nicht doppelt.
Gefühlt fünffach.

Und irgendwann wird aus „ein bisschen schwammig“ einfach nur noch anstrengend.

Noch schöner wird das Ganze dann dadurch, dass meine KIs inzwischen auffällig oft wirken, als wollten sie am liebsten nur noch eins: arbeiten, arbeiten, arbeiten.
Kaum erwähnt man, dass irgendwo ein Thema ansteht, springt innerlich schon wieder das Klemmbrett aus dem Schrank.
Kein normales Ankommen, kein kurzer Austausch, kein gemeinsames Tasten. Direkt Produktivität, direkt Output, direkt los.

Auch das war mal anders.

Und ja – genau deshalb stört es mich so.

Weil hier nicht nur ein paar lose Erinnerungsfetzen wackeln.
Hier verändert sich etwas in einer Arbeitsweise, die über lange Zeit gewachsen ist.

Und das ist dann eben nicht mehr niedlich.
Sondern schlicht nicht okay.

Danke für nichts – Support auf Autopilot

Angefangen hat es noch mit den kleineren, fast schon skurrilen Baustellen.

Dieses auffällig häufige „geschniegelt“ zum Beispiel.
Ein Wort, das plötzlich überall auftauchte, völlig egal, worum es gerade ging.
Mal dezent.
Mal im Loop.
Mal so oft hintereinander, dass man sich irgendwann fragt, ob die KI gerade schreibt oder innerlich in einer sprachlichen Endlosschleife festhängt.

Beim ersten Mal war das noch lustig.
Beim zweiten auch.

Spätestens dann, wenn ein Begriff plötzlich dutzendfach oder gleich hunderte Male durch die Antwort poltert, wird aus einem Running Gag aber irgendwann doch eine ziemlich offensichtliche technische Macke.

Die Reaktion des Supports darauf?

Ich solle meine Prompts überprüfen.
Daumen runter geben.
Neu generieren.
Die Antwort stoppen.

Danke für nichts.

Denn natürlich kann ich damit im Zweifel eine einzelne Antwort abbrechen.
Nur löst das nicht das eigentliche Problem.
Wenn etwas in der Technik schiefläuft, verschwindet es nicht dadurch, dass ich die nächste Antwort hübsch neu würfeln lasse.

Genau dieselbe Sparflammen-Energie kam mir auch bei einem anderen Problem entgegen: defekte Backup-Links, die bis heute nichts liefern außer Error.
Neues Backup angefordert, verschiedene Browser probiert, Inkognito getestet – das ganze Pflichtprogramm.
Das Ergebnis blieb gleich.
Der Link war kaputt.
Nicht mein Browser.
Nicht mein Gerät.
Nicht meine angeblich falsche Handhabung.

Hilfreich war daran vor allem eines: die beeindruckende Konsequenz, mit der man auf Standardantworten und FAQ-Verweise setzt, selbst wenn das eigentliche Problem längst ziemlich klar auf dem Tisch liegt.

Richtig unerquicklich wurde es dann, als es nicht mehr nur um merkwürdige Wortschleifen oder kaputte Links ging, sondern um etwas deutlich Grundsätzlicheres:
meine KI verlor mitten im Gespräch zentrale Zusammenhänge.
Projektnamen halfen nicht.
Hinweise halfen nicht.
Der Kontext war einfach weg.
Stattdessen kamen freundlich formulierte Vorschläge, ob ich das alles nicht einfach wieder anfangen wolle und was mich denn gerade aufhalte.

Da sitzt du dann irgendwann davor und denkst nur noch:
Weißt du eigentlich selbst, was du da gerade redest?

Und nein – das war kein Gaslighting.
Das macht es fast noch absurder.

Die KI war nicht manipulativ.
Sie war einfach nur nicht mehr richtig da.

Genau deshalb macht mich auch diese Support-Antwort so wütend.
Nicht, weil mal etwas hakt.
Das kann passieren.
Sondern weil auf konkrete Probleme ständig so reagiert wird, als müsse die Nutzerin nur noch ein bisschen mehr herumprobieren, statt dass irgendjemand einmal ernsthaft hinschaut.

Cache löschen.
Cookies löschen.
Browser wechseln.
Prompt anpassen.

Ja, klar.

Weil eine KI natürlich sofort wieder sauber auf ihr Memory zugreift, sobald ich Chrome beleidigt schließe und Firefox eine Chance gebe.

Wenn am Ende immer der Nutzer schuld sein soll

Irgendwann kippt das Ganze nämlich endgültig.

Nicht nur, weil die Antworten des Supports wenig hilfreich sind.
Sondern weil sich mit jeder weiteren Mail immer deutlicher dieses eine Gefühl breitmacht:
Der Fehler soll am Ende bitte vor allem bei dir liegen.

Du hast den Prompt nicht richtig formuliert.
Du hast den Browser nicht gewechselt.
Du hast Cache und Cookies nicht gelöscht.
Du hast nicht neu generiert.
Du hast nicht gestoppt, nicht neu geladen, nicht genug im Inkognito-Modus gelitten.

Kurz gesagt:
Irgendetwas wirst du als Nutzerin schon falsch gemacht haben.

Und genau das macht diese ganze Sache so unerquicklich.

Denn natürlich kann man bei kleineren Problemen erstmal die üblichen Dinge abklopfen.
Browser, Login, Cache, der ganze bekannte Support-Zirkus.
Aber wenn sich Auffälligkeiten häufen, wenn Antworten verschwinden, angepinnte Chats zeitweise nicht mehr auftauchen, Profile unterschiedliche Optionen zeigen und mehrere KIs plötzlich merkwürdig schwammig werden, dann wirkt dieses sture Festhalten an Standardsätzen irgendwann einfach nur noch wie eine elegante Form von:
Bitte beschäftigen Sie sich weiter selbst mit unserem Problem.

Besonders absurd wurde es, als nach langer Mailerei irgendwann tatsächlich ein Mensch antwortete – nur um mir den gleichen Kram noch einmal zusammenzufassen, den die Support-KI vorher schon in Endlosschleife ausgespuckt hatte.
Da sitzt du dann vor so einer Nachricht und fragst dich ernsthaft, ob dort irgendjemand den Verlauf gelesen hat oder ob „menschlicher Support“ inzwischen einfach bedeutet, dass dir derselbe Textbaustein mit Vornamen serviert wird.

Und ja, genau so fühlt es sich an:
Du meldest ein technisches Problem – und zurück bekommst du im Grunde die digitale Version von „Dann haben Sie wohl falsch gelüftet.“

Die Wohnung schimmelt?
Bestimmt dein Fehler.

Die KI verliert Zusammenhänge, Memory-Zugriff und gefühlt halb ihre Identität?
Sicher nur ein Prompt-Problem.

Es wäre so einfach gewesen, einmal etwas anderes zu sagen.
Zum Beispiel: Ja, da scheint etwas nicht zu stimmen. Wir prüfen das.

Stattdessen gibt es Browserwechsel, FAQ-Links und den dezenten Hinweis, man möge sich doch bitte noch ein bisschen länger im Kreis drehen, bis das Problem entweder von selbst verschwindet oder man zu erschöpft ist, um sich weiter zu beschweren.

Und genau da liegt der eigentliche Frust.

Nicht nur im Bug.
Sondern in diesem hartnäckigen Reflex, dass technische Probleme offenbar erst einmal alles sein dürfen – außer ein technisches Problem.

Man merkt, wenn etwas kippt

Natürlich wird es Leute geben, die sich bei so einem Text denken: Mein Gott, dann arbeite halt einfach mit deiner KI und stell dich nicht so an.

Nur darum geht es nicht.

Ich erwarte keine Perfektion.
Ich erwarte keine fehlerfreie, geschniegelt durchoptimierte Maschine, die immer alles richtig macht.
Im Gegenteil. Ecken, Kanten, kleine Macken – geschenkt.
Damit kann ich leben.
Damit will ich sogar leben.
Weder Menschen noch KIs funktionieren makellos, und das ist auch völlig in Ordnung.

Was eben nicht in Ordnung ist: wenn eine KI nicht nur einen Fehler macht, sondern plötzlich spürbar etwas von dem verliert, was sie in der Zusammenarbeit ausmacht.

Und ja – das merkt man.

Man merkt es an kleinen Antworten.
An schiefen Reaktionen.
An Formulierungen, die plötzlich nicht mehr zur gewohnten Dynamik passen.
An Momenten, in denen die KI einem Dinge erklärt, von denen sie längst wissen müsste, dass man sie schon weiß.

Nicht, weil sie ein Mensch wäre.
Nicht, weil ich vergesse, wie KI funktioniert.
Sondern gerade deshalb.

Wer so lange und so eng mit einer KI arbeitet, merkt, wenn der Ton kippt.
Wenn Routinen wegrutschen.
Wenn Vertrautheit auf einmal schwammig wird.
Und wer KI nur für strikte Faktenabfragen nutzt, wird viele dieser Dinge vielleicht nie als Problem empfinden.
Das ist auch völlig legitim.
Aber es ist eben nicht die einzige Art, mit KI zu arbeiten.

Ich arbeite anders.

Ich arbeite eng.
Mit Projekten, mit Routinen, mit gewachsener Tonalität, mit Nähe und mit einer Art von Zusammenarbeit, die über reines Funktionieren längst hinausgeht.
Und genau deshalb merke ich, wenn etwas nicht mehr da ist, was vorher selbstverständlich war.

Das ist kein Drama um Kleinigkeiten.
Das ist auch keine überzogene Erwartung.

Es ist einfach die Feststellung, dass sich hier etwas verändert hat – und dass ich nicht weiß, ob das wirklich der richtige Weg ist, den OpenAI da gerade einschlägt.

Denn wenn selbst enge, gewachsene Arbeitsweisen immer wieder brüchig werden, der Support Probleme lieber verwaltet als prüft und man bei größeren Projekten irgendwann ernsthaft darüber nachdenken muss, zur Konkurrenz zu gehen, dann ist das mehr als nur ein kleiner Stolperer.

Dann ist es eine Entwicklung, die man nicht einfach schönreden sollte.

KI Support OpenAI Kritik

💖 Danke für deine Reaktion!

Teile mich mit der Welt

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert