11.12.2025

Wir haben nun lange genug mit ChatGPT gespielt. Jetzt wird es Zeit, die Sache mit der KI wie Erwachsene anzugehen und Verantwortung zu übernehmen. Für das, was wir tun. Und das, was wir unterlassen.

Dirk Biermann, Chefredakteur KÜCHENPLANER.

Rückblickend waren die ersten Kontakte mit generativer KI von bedenklicher Naivität. Plötzlich sprach die ganze Welt nur noch von diesem ChatGPT und alle taten, als wüssten sie Bescheid. Nur man selbst schien keine Ahnung zu haben. Also prompteten wir ahnungslos drauflos und schwankten zwischen Ehrfurcht und Erleichterung. Alles ging rasend schnell. Beeindruckend. Aber viele Ergebnisse waren unbrauchbar. Zu allgemein, zu vage, zu unpräzise. Und dabei auf unangenehme Weise einschleimend und moralisierend. Immer eine Spur zu viel, der Stil unpassend. Wer konnte schon sagen, ob das, was innerhalb von Sekunden auf dem Bildschirm erschien, auch wirklich stimmte? Oder ob nicht eine Art Maschinenfantasie mit dem Chatbot durchgegangen war und „er, sie oder es“ im Brustton der Überzeugung vor sich hin halluzinierte, ohne zu wissen, worum es eigentlich geht. Dann wurde immer öfter der Leitsatz „Bullshit in, Bullshit out“ zitiert und uns dämmerte, dass wir an der miesen Qualität nicht ganz unbeteiligt sind. Denn wenn der Auftrag zu offen formuliert wird, werden Details, Quellen und Fakten erfunden. So tickt die Maschine eben. Sie hat kein Verständnis, sondern berechnet Wahrscheinlichkeiten. Wie sie das macht, ist ein Mysterium. Rückblickend dürften die frühen KI-Aktivitäten der meisten Anwenderinnen und Anwender an die Kleinkindzeit erinnern, als wir begannen, die Welt auf zwei Beinen zu erkunden. Wie es funktionieren könnte, war anfangs unklar. Hinfallen gehörte dazu, das immer wieder Aufstehen auch. Wer in einen Laufstall gesteckt wurde, hatte größere Chancen, diesen Lernprozess ohne gravierende Verletzungen zu überstehen.

Zahlreiche Möglichkeiten und konkrete Grenzen
Bei der Verwendung von generativer KI gibt es keinen Laufstall. Allenfalls sinnbildlich. Die Unfallgefahren äußern sich in einer unsachgemäßen Handhabung und potenzieren sich bei Lernresistenz und blauäugigem Enthusiasmus. Damit wir uns nicht falsch verstehen: Künstliche Intelligenz bietet zahllose Möglichkeiten, die wir nutzen sollten und an denen wir ohnehin nicht vorbeikommen. KI in Summe ist auch weit mehr als ein Sprachmodell wie ChatGPT. Doch gerade die generative KI ist unser täglich Brot. Sie hat konkrete Grenzen, die wir kennen sollten.
Wenn das System nicht daran gehindert wird, die eingegebenen Inhalte für Trainingszwecke zu verwenden, ist das ein gewagtes Unterfangen. Werden dann noch vertrauliche Geschäftsinformationen, persönliche Befindlichkeiten oder sogar Kundendaten in den Chat eingegeben oder in einer Dokumentzusammenfassung gespeichert, gibt es Probleme mit den Verschwiegenheitsklauseln und dem Datenschutz. Aber das alles muss man erst einmal wissen. Und was gilt eigentlich als „vertrauliche Information“? Wie funktioniert der Inkognito-Modus? Wo lässt sich einstellen, welche „Erinnerungen“ gespeichert werden und welche nicht.
Die gute Botschaft: Dieses Wissen kann man sich aneignen. Die empfehlenswerten Grundlagen zu den persönlichen Einstellungen in KI-Systemen sind bekannt. Ebenso ist bekannt, was in den Chat gehört und was nicht, und dass strukturiertes Prompten zu besseren Ergebnissen führt als unstrukturiertes Drauflos. Noch wichtiger ist jedoch der Kontext, also die Frage: In welcher Rolle arbeitet die KI?

Die eigenen Kompetenzen bewahren
Die vielen Grenzen der Sprachmodelle werden längst kritisch diskutiert. KI kann dazu neigen, einseitige Weltbilder und stereotype Rollenbilder zu verfestigen (Bias genannt). Zudem kann sie intellektuellen Einheitsbrei generieren, der entsteht, wenn sich oberflächliche oder falsche Inhalte gegenseitig zitieren. Auch das sogenannte „Deskilling“ sollte uns bewusst sein. Der Mensch verliert Fähigkeiten und Kompetenzen, wenn er zu viel von der Maschine erledigen lässt. Was alles geschehen könnte, wenn die Technik ausfällt, möchte man dann lieber nicht wissen. Doch genau darum geht es. Wir sollten immer gründlicher lernen, wie wir KI professionell anwenden, uns ihr aber nicht naiv ausliefern. Wer privat und beruflich mit KI arbeitet, ohne zu wissen, wie sie funktioniert und wie sie bestmöglich genutzt werden kann, läuft Gefahr, gegen Gesetze zu verstoßen, digital immer durchschaubarer zu sein und sich von einem Algorithmus an der Nase herumführen zu lassen, der von Menschen mit konkreten wirtschaftlichen und oft auch politischen Interessen in die Welt gesetzt wurde.

In diesem Sinne wünschen wir Ihnen eine ebenso besinnliche wie erkenntnisreiche Weihnachtszeit. Vielleicht liegt ja endlich eine KI-Schulung vom Arbeitgeber unter dem Baum. Die ist seit Februar 2025 ohnehin Pflicht.

Dirk Biermann


Dieser Beitrag erschien als Editorial in der Ausgabe KÜCHENPLANER 12/2025. Den Link zum E-Paper erhalten Abonnenten unseres kostenfreien wöchentlichen Newsletters. Hier geht es zur Anmeldung: https://www.kuechenplaner-magazin.de/newsletter/anmeldung/anmeldeformular/.