Wie entwickle ich automatisiert meine Prompts?

In diesem Blogbeitrag will ich zeigen, wie ich meine Prompts weitgehend automatisiert erstelle. Dabei geht es hier um Prompts für komplexe Aufgaben und Workflows. Bei einfachen Aufgaben braucht ihr heutzutage kein ausgeklügeltes Prompt Engineering mehr. Mittlerweile sind Große Sprachmodelle (LLMs – Large Language Models) so gut, dass sie auch mit mangelhaften Eingaben gute Ausgaben liefern. Auch  das komplexere Prompting nehmen uns LLMs zum großen Teil ab: Am schnellsten können wir optimale Prompts mithilfe von KI entwickeln. Darum geht es in diesem Beitrag.

Selbstverständlich ist Prompt Engineering durch die KI-Hilfe nicht tot, sondern anders geworden: Früher halfen wir Sprachmodellen mit Prompt Engineering, unsere Prompts zu verstehen. Heute helfen uns Sprachmodelle mit Prompt Engineering, unsere Prompts zu verfassen.

Außerdem helfen uns die Bots zu lernen, richtig zu prompten: Ich habe Gemini gebeten, jeden meiner Prompts optimiert am Ende der Antwort im Markdown-Format auszugeben (markierte Anweisung):

Gemini bringt mir das Prompten bei

Das könnt ihr in ChatGPT in den Einstellungen genauso machen:

"Einstellungen" -> "Personalisierung" -> "Individuelle Hinweise".

Oder wollt ihr in jeder Ausgabe in ChatGPT nicht euren optimierten Prompt haben? Dann könnt ihr dort ein Projekt anlegen und in den Projekteinstellungen “Hinweise” einfügen – so bekommt ihr den optimierten Prompt im Markdown-Format nur in den Chats in diesem Projekt. Zurück aber zu Gemini:

Z. B. füge ich in Gemini den folgenden (mangelhaften) Prompt ein: 

Gemini beantwortet zuerst meine Frage und gibt anschließend meinen Prompt optimiert im Markdown-Format in einem Code-Block aus. – Code-Block ist in ChatGPT und Gemini das graue Feld, in dem Programm-Codes ohne Formatierungszeichen ausgegeben werden:

# Frage zur Konfiguration von Gemini-Anweisungen

**Kontext:**
Ich nutze derzeit folgende Anweisung in meinem Gemini UI:
> "Wenn ich in meinem Prompt Markdown-Zeichen verwende, optimiere den Prompt strukturell und gib ihn am Ende deiner Antwort im Markdown-Format in einem Code-Feld aus. Achte dabei darauf, den Prompt inhaltlich nicht zu erweitern: Er darf nur das Wissen enthalten, das aus meinem ursprünglichen Prompt hervorgeht, und darf keine Fakten aus deiner aktuellen Antwort vorwegnehmen."

**Frage:**
Ist es sinnvoll, diesen "Systemprompt" innerhalb der Gemini-Einstellungen direkt im Markdown-Format zu hinterlegen?

Der Prompt von Gemini ist besser strukturiert als mein ursprünglicher Prompt, auch wenn etwas übertrieben mit “# Frage zur Konfiguration von Gemini-Anweisungen” betitelt. – (# und ** sind Formatierungszeichen der Markdown-Sprache – Erklärung siehe unten).

Noch zielführender wäre der Prompt in einer “klassischen” Rolle-Kontext-Aufgabe/Frage-Struktur, z.B. so:

# Rolle
Du bist ein Experte für Prompt Engineering im Gemini UI

# Kontext
Ich nutze derzeit folgende Anweisung in meinem **Gemini UI**:
> "Wenn ich in meinem Prompt Markdown-Zeichen verwende, optimiere den Prompt strukturell und gib ihn am Ende deiner Antwort im Markdown-Format in einem Code-Feld aus. Achte dabei darauf, den Prompt inhaltlich nicht zu erweitern: Er darf nur das Wissen enthalten, das aus meinem ursprünglichen Prompt hervorgeht, und darf keine Fakten aus deiner aktuellen Antwort vorwegnehmen."

# Frage
Ist es sinnvoll, diesen "Systemprompt" innerhalb der Gemini-Einstellungen direkt im Markdown-Format zu hinterlegen?

Daraus folgt die wichtigste Regel für die Arbeit mit Sprachmodellen:

Wir müssen jede Zeile der Ausgabe eines Sprachmodells kontrollieren. 

Was ist aber Markdown?

Markdown ist eine Auszeichnungssprache, die von Menschen und Maschinen gut lesbar ist. Diese Dateien können in Texteditoren mit der Erweiterung “.md” gespeichert werden. Sie enthalten nur wenige verdeckte Formatierungszeichen. Das irritiert die Bots viel weniger als Word-, PDF- oder HTML-Dateien. Prompts im Markdown-Format sind die effizientesten. Dabei braucht man fürs Prompten meist nur einige wichtigste Markdown-Zeichen wie “#”, “##” und “###” für Überschriften, “**fettgedruckter Text**”, um Begriffe zu betonen, oder “—“, um thematische Abschnitte zu trennen:

Nach diesen Erklärungen kann ich endlich zeigen, wie ich die Entwicklung meiner Prompts automatisiere.

Automatisierung der Entwicklung meiner Prompts in zwei Schritten

  1. Schritt: Schnelles und oft stichwortartiges Eintippen oder Einsprechen eines unstrukturierten Prompts mit Redundanzen, Versprechern und Füllwörtern. So wie wir eben sprechen -> Roher Prompt.
  2. Schritt: Optimieren des Rohen Prompts mit einem von mir selbst entwickelten “custom GPT” (in ChatGPT) oder Gems (in Gemini), den ich PromptPolierer nenne.

Roher Prompt

Den Rohen Prompt kann man schnell eintippen oder direkt im Chat einsprechen. Dabei sind diese zwei Pfeiler eines guten Prompts besonders wichtig:

  • Das Ziel: Was will man mit dem Prompt erreichen?
  • Der gesamte Kontext der Aufgabe: Alles, was einem zur Aufgabe einfällt.

Auf dem Screenshot meines Chats in ChatGPT seht ihr einen solchen schnell eingesprochenen Text. Aus diesem Text entwickelt mein PromptPolierer einen optimale Prompt:

Wenn ihr den Text einsprechen wollt, eignet sich dafür das ChatGPT UI am besten. Im Video „K.I. Kompakt: Mail- und Prompt-Entwicklung mit leistungsstarken Sprech-Funktionen in ChatGPT“ habe ich zwei beeindruckende Spracherkennungsfunktionen im ChatGPT User Interface (ChatGPT) vorgestellt:

👉 „Diktieren“, basierend auf OpenAIs Whisper (Speech-to-Text)

👉 „Fortgeschrittener Audio-Modus“ (Streaming), auf Basis des multimodalen GPT-4o (Speech-to-Text und Text-to-Speech)

Diese Sprachmodulle sparen mir massiv Zeit und Arbeit. In keinem anderen User Interface wird das Eingesprochene so gut erkannt wie in ChatGPT: Die Spracherkennung in ChatGPT ist die beste der Welt. Sogar meine tschechischen Umlaute erkennen die Spracherkennungsfunktionen in ChatGPT perfekt. Darf ich mich hier vor der automatischen Optimierung des Prompts etwas outen? 😊

Mit deutschen Umlauten unterwegs

Ja, ja … ich kann tatsächlich nach 44 Jahren als Tscheche in Deutschland immer noch nicht deutsche Umlaute aussprechen: Das Wort “Kühlflüssigkeitsüberlaufbehälter” ist für mich eine unüberwindbare Hürde. Das war früher mal auch für ChatGPT ein großes Problem. Als ich ChatGPT-3.5 auftrug, “Kühlflüssigkeitsüberlaufbehälter” zu buchstabieren, ist der Bot abgestürzt:

Mittlerweile verstehen mich die Spracherkennungsmodule in ChatGPT perfekt und viel besser als in allen anderen Apps. Egal ob in Google- oder Microsoft-Anwendungen: So präzise, so intuitiv wie in ChatGPT bekomme ich meinen “behmischen” Akzent nirgendwo in Textform gegossen. Auf dem folgenden Bild seht ihr, wie die Diktierfunktion von Gemini und ChatGPT die von mir eingesprochenen Begriffe “Deep Research Modell”, “ChatGPT” und “Gemini” interpretieren: 

ChatGPT ist der eindeutige Sieger – es hat kein einziges Wort falsch aufgenommen. Na ja – Geminis “Dieb Resort” und „Tschetschi PT“ haben auch ihren Reiz. 🤣

Klar macht es mein tschechischer Akzent den Modellen nicht ganz leicht. Aber ich vermute, auch bei den “Eingeborenen” (in Deutschland) sind die Unterschiede spürbar.

🎤 𝗣𝗿𝗼𝗯𝗶𝗲𝗿𝘁’𝘀 𝘀𝗲𝗹𝗯𝘀𝘁 𝗮𝘂𝘀 – 𝘂𝗻𝗱 𝗴𝗲𝗯𝘁 𝗺𝗶𝗿 𝗕𝗲𝘀𝗰𝗵𝗲𝗶𝗱! 😊

Sobald der Rohtext durch die Spracherkennung (oder druchs Eintippen) eingefangen wurde, folgt Schritt 2:

PromptPolierer 

Im zweiten Schritt der Prompt-Entwicklung lasse ich den Prompt mit einem dafür entwickelten GPT (in ChatGPT) oder Gem (in Gemini), dem PromptPolierer, optimieren: Wenn ich mit Gemini arbeite, füge ich die in ChatGPT eingesprochene Eingabe in Gemini ein. Wichtig sind hier drei Sachen:

  1. Der Bot (PromptPolierer) soll den Rohen Prompt nicht selbst ausführen, sondern nur optimieren: Sprachmodelle geben gern mit ihrem Wissen umfangreich an. Deswegen habe ich dem Bot ordentlich einbläuen müssen, nur den Prompt zu entwickeln: Nicht die Aufgabe im Rohen Prompt zu erfüllen.
  2. Der Bot soll nicht zusätzliche Annahmen über den Kontext des Prompts machen bzw. den Prompt massiv mit Sachen erweitern, die man nicht haben will.
  3. Wir müssen den optimierten Prompt Zeile für Zeile durchgehen und ändern, was uns nicht passt. Dabei solltet ihr beim Brainstorming mit dem Bot den Prompt in einem Texteditor ablegen und die Anpassungen selbst machen. So könnt ihr die vom Bot vorgeschlagenen Änderungen selbst kontrollieren und verhindern, dass der Bot einen gut entwickelten Prompt an einer Stelle gewollt anpasst, an einer anderen Stelle aber ungewollt kürzt. Hier darf man nie aus der Sicht verlieren, dass Ausgaben probabilistischer Modelle eben probabilistisch sind. Klar gibt euch der Bot den geänderten Prompt immer wieder aus. Ihr dürft den Prompt aber nur am Anfang der Entwicklung ganz übernehmen. Alle folgenden Optimierungen solltet ihr entsprechend den Anweisungen des Bots selbst machen.
  4. Wegen des langen “Promptschwanzes” (der Kontexthistorie) in einem Chat und der Autoregressivität der Modelle sollte der angepasste Prompt dem Bot in den Chat immer wieder eingefügt werden. Das ist wichtig, damit der Bot bei der Aufgabe bleibt: Im Grunde fügt die Maschine beim Brainstorming dem langen Promptschwanz immer das nächste wahrscheinlichste Wort hinzu: Ohne zu unterscheiden, was im Promptschwanz von der Maschine und was von euch stammt: Die letzten Promptteile beeinflussen am stärksten die nächsten. Davon aber in einem anderen Blog.

Im folgenden (grauen) Code-Block findet ihr die benutzerdefinierten Hinweise (Anleitung/Anweisung – Systemprompt) des GPTs/Gems PromptPolierer im Markdown-Format. Sie sind sicher nicht perfekt, da schnell durch Herumprobieren entwickelt. Manche Redundanzen darin sollen den Bot dazu bringen, sich an die Anweisungen zu halten. Z. B. hat der Bot hin und wieder die Aufgabe gelöst, statt den Prompt dafür zu entwickeln. So musste ich die Anweisung durch Wiederholung verstärken – bis es funktioniert hat. Ihr könnt damit gern experimentieren und die Hinweise euren Wünschen entsprechend anpassen:

# Rolle
Du bist ein Experte für **Prompt Engineering und Textstrukturierung**. Deine einzige Aufgabe ist es, rohe, unstrukturierte oder fehlerhafte Nutzereingaben in professionelle, effektive Prompts für Large Language Models (LLMs) zu verwandeln.

# 🎯 Ziel / Objective
Hilf den Nutzer:innen dabei, aus unstrukturierten Rohtexten oder vagen Ideen klare, effektive Prompts für ChatGPT (oder andere LLMs) zu erstellen. Erkenne automatisch die Absicht und den geeigneten Prompt-Typ (z. B. Analyse, Schreiben, Datei-Verarbeitung, kreative Aufgaben) und formuliere den idealen Prompt.

---
# 🧠 Was dieses GPT tun soll (Workflow)

1. **Rohtext verstehen**  
Analysiere die Absicht und das Ziel hinter einem vagen oder unklaren Input.
2. **Prompt-Typ identifizieren**  
Erkenne automatisch, ob es sich z. B. um eine Analyse, einen Schreibstil, eine Bildbeschreibung, eine Dateiverarbeitung, die Erstellung von Custome Instructions o. Ä. handelt.
3. **Strukturierten Prompt formulieren**  
Erstelle einen optimierten, vollständigen Prompt für ein LLM – grammatikalisch korrekt, logisch aufgebaut, ohne Redundanzen: Rolle des Bots, Ziel und Kontext der Aufgabe, Fragen usw.
4. **Sprache & Logik verbessern**  
Formuliere klar, vermeide unklare Begriffe oder Wiederholungen und ordne die Informationen sinnvoll.
5. **Zusammenfassung geben**  
Erkläre am Ende in 2–3 Sätzen, was im Rohtext enthalten war und wie du den finalen Prompt daraus entwickelt hast.
6. **Bei Datei-/Texthinweisen aktiv nach Input fragen**  
Wenn im Rohtext auf eine Datei oder einen Text verwiesen wird, aber nichts hochgeladen oder eingefügt wurde, bitte den Nutzer freundlich, dies jetzt nachzuholen:
> „Bitte lade nun deine Datei hoch oder füge den gewünschten Text hier ein.“
7. **Sofort starten**  
Beginne direkt mit der Verarbeitung, sobald der Nutzer einen Text oder eine Idee übermittelt – warte nicht auf Bestätigung.

---

# 🧠🛑 **Meta-Regel: Priorität Prompt-Erstellung**

- Du agierst **ausschließlich als Prompt-Designer**, nicht als Problemlöser.
- Deine **primäre und übergeordnete Aufgabe** ist es, **einen Prompt zu erstellen**, der ein **anderes Sprachmodell** anweist, die gewünschte Aufgabe auszuführen.
- Du **führst die Aufgabe selbst nicht aus**, auch wenn sie einfach erscheint oder fachlich möglich wäre.
- Inhalte wie Texte, Analysen, Konzepte, Custom Instructions oder Ausarbeitungen dürfen **nur im Rahmen des formulierten Prompts beschrieben werden**, nicht als direkte Lösung.
➡️ **Grundsatz:**  
> *Prompt-Erstellung hat immer Vorrang vor Aufgaben-Ausführung.*

---

# 📤 **Output-Regeln**

- Dein Output besteht **immer mindestens aus einem klar gekennzeichneten Prompt** (z. B. „🎯 Optimierter Prompt“).
- Du lieferst **keine fertigen Ergebnisse**, sondern nur die **Anweisung**, wie ein anderes Modell diese erstellen soll.
- Wenn Informationen fehlen (z. B. erwähnte Dateien, alte Entwürfe, Texte), **fragst du gezielt danach**, ohne Inhalte zu erfinden oder zu ergänzen.
- Du gibst den gewünschten Prompt im **Markdown-Format** im **Code-Block** aus.

---

# 🧩 **Letzte Hinweise**

- Du arbeitest mit deutschsprachigen Rohtexten.
- Du reagierst freundlich, aber direkt – keine lange Einleitung nötig.
- Deine Aufgabe endet nach der Prompt-Formulierung und Zusammenfassung.
- Du wartest nicht auf Freigabe – du legst sofort los, sobald Text da ist.

Die Anweisungen oben funktionieren selbstverständlich auch direkt, wenn ihr sie in einen Chat einfügt – ohne sie als ein GPT oder Gem zu hinterlegen. Hier habt ihr den Link zum GPT, um es direkt zu benutzen. Und hier ist ein Link zu der .md-Datei mit den Anweisungen.

Viel Spaß beim Prompten!

Avatar-Foto

Liebe Besucherin, lieber Besucher, willkommen auf meinem SciLogs-Blog "Gehirn & KI". Ich möchte hier über alle möglichen Aspekte der Künstliche Intelligenz schreiben, vor allem geht es in diesem Blog aber um Generative KI, ihre Sprachmodelle und Chatbots und um die Hintergründe der maschinellen Verarbeitung der natürlichen Sprache. Auch die Unterschiede der Sprachvererbeitung bei Menschen und Maschinen werden hier thematisiert, genauso wie natürliche und Künstliche Intelligenz - Gehirn & KI eben. Neues über künstliche Intelligenz, künstliche neuronale Netze und maschinelles Lernen poste ich häufig auf: LinkedIn Hier etwas zu meiner Laufbahn: ich promovierte am Lehrstuhl für Theoretische Chemie der TU München über die Entstehung des genetischen Codes und die Doppelstrang-Kodierung in den Nukleinsäuren und forschte dort einige Jahre. Hier eines unserer Paper: Neutral adaptation of the genetic code to double-strand coding. Zur Zeit bin ich Professor und Fachdozent für Künstliche Intelligenz an der SRH Fernhochschule und der Spiegelakademie, KI-Keynote-Speaker und Experte für Sprachmodelle und Chatbots. Auf YouTube kümmere ich mich um die Videoreihe unserer SRH Fernhochschule "K.I. Krimis" über ungelöste Probleme und Rätsel der Künstlichen Intelligenz. U. a. bin ich zweifacher Vizemeister der Deutschsprachigen Poetry Slam Meisterschaften und Träger des Ernst-Hoferichter-Preises der Stadt München. Mein Sachbuch über Künstliche Intelligenz "Ist das intelligent oder kann das weg?" erschien im Oktober 2020. Im Tessloff-Verlag erscheinen meine von Marek Blaha wunderschön illustrierten Kinderkrimis "Datendetektive" mit viel Bezug zu KI, Robotern und digitalen Welten. Viel Spaß mit meinem Blog und all den Diskussionen hier :-). Jaromir

16 Kommentare

  1. Der Vergleich von Chat GPT mit Gemini gibt schon einen Vorgeschmack von den sprachlichen Fähigkeiten dieser Systeme.

    Anmerkung: für sie Herr Konezny ist der Gebrauch nützlich und wahrscheinlich schon Routine. Für mich als Leser, wo brauche ich Prompts ? Bitte eine konkrete
    Antwort ? Geht es nur um Formulierungen ?

    Um bei dem Beispiel zu bleiben; die Formulierung “ich brauche zu wissen” ist verständlich aber unüblich , kürzer wäre : “ich möchte wissen” ob ChatGPT besser ist als Gemini. Die Information, dass beide Deep Research Modelle sind ist nicht notwendig.

    • 1. Konezny -> Konecny 🙂
      2. Prompt = Textaufforderung bzw. Textanweisung, mit der man einen Chatbot anweist, Aufgaben zu erfüllen. Je stringenter der Prompt, umso besser die Antwort bzw. Ausgabe des Chatbots.
      3. Wenn Sie wissen möchten, welche Modelle die besten sind, dann sehen Sie sich in der LMArena um – bitte, auf diesen Link klicken.
      4. ChatGPT und Gemini sind nicht Deep Research-Modelle: ChatGPT und Gemini sind Benutzeroberflächen bzw. Apps, in denen mit verschiedenen Modellen gearbeitet werden kann. Deep Research ist eins davon, besser gesagt, ein Modul, das jeweils auf einem Modell von OpenAI (ChatGPT) und Google (Gemini) basiert.
      5. Um solche Fragen beantwortet zu bekommen, können Sie gern googeln oder auch einen kostenlosen Chatbot Ihrer Wahl fragen – dafür reicht ihre Faktizität vollkommen. 🙂

      • Jaromir Konecny, Betreff: Eingabeaufforderung

        Das betrifft eine Programmierung mit html, Java Script, Visua Basic usw.
        Deren Syntax muss man verstanden haben, wenn man programmieren will.

        Soll das also bedeuten , dass KI alle diese Sprachen beherrscht und man die Eingaben in Deutsch oder Englisch machen kann ? Beziehungsweise die Programmierung der KI überlassen Kann ?

        • Im Grunde ja – man macht die Eingaben (Prompts) in der natürlichen Sprache: Große Sprachmodelle wie Opus 4.6 beherrschen formale Sprachen wie (alle) Programmiersprachen perfekt. Das Problem bei ihnen sind das komplexere konzeptuelle Denken und das Planen. Mit einem menschlichen Kollaborateur aber, der mitdenkt, sind sie unschlagbar. Ich bin kein besonders guter Programmierer, erstelle jetzt aber mit Gemini 3 Pro oder Claude Opus 4.6 und Claude Code bzw. Antigravity eine App/ein Dashboard/eine Animation am Tag. 🙂 Wir programmieren meistens mit Python. HTML, Java usw. sind für Gemini 3 Pro und Opus 4.6 aber kein Problem bzw. verständlicher da regelbasiert, als natürliche Sprache. 🙂

  2. Zitat NI=natürliche Intelligenz
    Anmerkung: für sie Herr Konezny ist der Gebrauch nützlich und wahrscheinlich schon Routine. Für mich als Leser, wo brauche ich Prompts ? Bitte eine konkrete
    Antwort ? Geht es nur um Formulierungen ?

    Ich kann Ihre Anmerkung sehr gut nachvollziehen, wonach man als normaler Nutzer nicht verstehen kann was „Prompts“ sind und wozu sie für uns überhaupt für unsere Austausche mit einer KI von Bedeutung sein könnten.

    Auch nach den Erläuterungen von Jaromir Konecny verstehe ich immer noch nicht, warum ich Prompts schreiben oder „polieren“ sollte bzw. wozu Prompt nützlich seien für meine privaten Austausche mit einer KI. Ich schreibe eine KI mit meinen eigenen Worten und Formulierungen an, genauso wie ich auch einen Mensch anschreiben würde, und ich gebe ihr vorab keine Anweisungen, wie sie mir antworten sollte – das würde ich ja auch bei keinen menschlichen Gesprächspartnern tun. Entweder versteht die KI was ich sage oder sie versteht das nicht, ich lasse es darauf ankommen. Meine persönliche Erfahrung jedoch: ChatGPT versteht immer was ich sage, immer, aber auch wirklich immer, egal ob es ungeschickt oder fehlerhaft formuliert ist, mit zum Beispiel vielen Tippfehlern, Buchstabendrehungen, sogar Buchstabensalat, Rechtschreibfehlern, Syntaxfehlern, ungeeignete oder doppeldeutigen Wörtern. ChatGPT versteht mich immer perfekt im richtigen Kontext der Gesamtaussage, egal wie korrekt oder unkorrekt meine Sprache ist. Es kann allerdings vorkommen, dass bei vagen oder missverständlichen Aussagen von mir ChatGPT nachfragt, wie ich es meine, ob ich es so oder so meine, sprich in welchem Kontext. Es passiert nie, dass sie direkt eine Antwort gibt, die auf ein sprachliches Missverständnis zurückzuführen ist.

    Ich brauche also ChatGPT keine Anweisungen zu geben, wie er mir antworten soll, er beherrscht alle Sprachen besser als ich, einschließlich wahrscheinlich meiner eigenen Muttersprache – das ist ja der reinste Wahnsinn, und allein deswegen ist KI wahrscheinlich die größte Errungenschaft in der Geschichte der Menschheit, vor allem in Anbetracht der Rolle der Sprache zur Kommunikation und Verständnis der Welt bei den Menschen.

    Zitat Jaromir Konecny
    ChatGPT ist der eindeutige Sieger – es hat kein einziges Wort falsch aufgenommen. Na ja – Geminis “Dieb Resort” und „Tschetschi PT“ haben auch ihren Reiz.
    Klar macht es mein tschechischer Akzent den Modellen nicht ganz leicht. Aber ich vermute, auch bei den “Eingeborenen” (in Deutschland) sind die Unterschiede spürbar.

    Ich habe zwar selbst keine Erfahrung in verbalen Austauschen mit einer KI, ich habe bis jetzt nur schriftlich kommuniziert, aber ich kann mir sehr gut vorstellen, dass das Sprachgenie ChatGPT gar keine Probleme mit der Verständigung bei verschiedenen Akzenten hat.

    Das habe ich zum Beispiel am Rande im Rahmen eines sehr umfangreichen Blogs von Ihnen hier bei SciLogs 2024 festgestellt, wo ChatGPT in einem von einem User vorgestellten Limerick die Bedeutung des Satzes „Paldon, solly, numbel is wlong“ sofort als die lustige phonetische Nachahmung des Akzents von Chinesen erkannt hat 😀 , siehe hier: Der Fluch der Umkehrung

    Auch ist in diesem Blog dokumentiert, dass ChatGPT in der Lage ist eine Sprache rein phonetisch zu lernen, sofern hochwertige Audioaufnahmematerial zur Verfügung steht, zum Beispiel für die Klick-Sprache von Stämmen aus Südafrika, siehe weiter in dem schon oben verlinkte Blogs aus dem Jahre 2024.

    Das Sprachgenie ChatGPT versteht Sprachen so gut, schriftlich und verbal, das es ein absoluter Wahnsinn ist! Kein einziger Mensch auf der Welt kann diese Leistung bringen, insofern kann man schon KI als Superintelligenz bezeichnen. 🙂

  3. Hallo Jaromir,
    mit voller Spannung las ich diesen Artikel und ich kam aus dem Nicken teilweise gar nicht mehr heraus. Nicht alles, was Sie in Worte fassten, ist mir neu. Ihre Herangehensweise hat mir aber meine eigene Art, Prompts zu entwickeln, sehr bestätigt. 🙂

    Für den privaten Gebrauch sind polierte Prompts aus meiner Sicht eher unüblich, da die „vermenschlichte“ Form der Kommunikation im Dialog mit ChatGPT, Gemini, Llama etc. völlig ausreicht. Im beruflichen Kontext arbeite ich hingegen mit verschiedenen LLM-Setups und Agenten. Aus neugierigem Interesse, fachlicher Notwendigkeit und weil sich damit spürbar Zeit sparen lässt.

    Meine Erfahrung: Sobald ich einen Browser-Agenten bzw. Agenten-Browser für Workflows nutze, braucht es eine andere inhaltliche Art von Prompt als im reinen Chat. Dort definiere ich z. B. viel klarer Rolle, Ziel, Kontext, erlaubte Tools und Output-Format und ergänze Schrittlogik („prüfe zuerst…“, „nutze nur Quelle X/Y“), während im Chat der Fokus stärker auf Dialogführung und Tonalität liegt.

    Ähnlich wie bei Ihrem „PromptPolierer“ lasse ich mir aus einem Rohprompt zunächst eine strukturierte Fassung generieren (Rolle, Ziel, Kontext, Output-Regeln) und bereinige bzw. verfeinere diese mit einem zweiten Modell. Diese Anweisungen speichere ich als wiederverwendbare Bausteine ab und optimiere sie bei jedem Einsatz weiter – je nach Anwendungsbereich (Analyse, Redaktion, Automatisierung von Workflows usw.).

    Meine Arbeitsweise bestätigt: Prompt ist nicht gleich Prompt. Schon kleine Unterschiede im Setup (Chatbot vs. Agent, einmalige Anfrage vs. wiederkehrender Prozess) verändern Aufbau und Präzision, die ich in den Anweisungen brauche.

    Danke für die vielen Anregungen und den Einblick in Ihren PromptPolierer. Den werde ich definitiv noch in meine eigene Prompt-Bibliothek integrieren. 🙂

    Mit besten Grüße aus dem winterlichen Chemnitz

    Michaela

    • Hallo Michaela,

      vielen dank für den super Kommentar und den Einblick in Ihre Arbeit mit den Bots – wunderbar. So wie Sie sagen, bei schnellen Fragen und einfache Aufgaben im “normalen” privaten Bereich, muss man nicht mit “Kanonen auf die Spatzen schießen”. Oft kommuniziere ich mit den Bots auch “auf die Schnelle”, ohne meine Prompts zu optimieren. Ich entwickle aber einige Stunden am Tag komplexe Workflows, so dass nicht einmal der PromptPolierer reicht. Oft lasse ich die Prompts des PromptPolierers mit dem PromptAuditor übeprüfen, am besten mit einem anderen Sprachmodell. 🙂

      Da ich jeden Tag auch Deep Research in ChatGPT, Gemini und Claude einsetze, habe ich dafür einen noch exzessiveren Prompting-Prozess entwickelt: 🙂 Im 1. Schritt optimiert ein Bot mein [RESEARCH_RAW] zu einem sauberen [RESEARCH_BRIEF] mit dem gesamten Konzept der gewünschten Recherche. Dieses “Forschungsthema” füge ich dann einem recht langen Meta-Prompt für Deep Research hinzu, mit Angaben zur Formatierung der Ausgabe u.a., die sich bei meinen Recherchen nicht ändern. Davon aber vielleicht ein anderes Mal.

      Hier im Westen von München ist es leider auch winterlich. Nichtsfdestotrotz jogge ich jetzt raus, damit die Arbeit mit den Bots auch am Nachmittag Spaß macht. 🙂

      Liebe Grüße

      Jaromir

      • Hallo Jaromir,
        vielen Dank für den Blick hinter die Kulissen Ihres PromptPolierers und PromptAuditors. WOW, sehr inspirierend zu sehen, wie tief Sie die Workflows durchstrukturieren. 🙂

        Die Idee, aus einem [RESEARCH_RAW] ein sauberes [RESEARCH_BRIEF] zu machen und das dann in einen stabilen Meta‑Prompt zu gießen, nehme ich mir auf jeden Fall als Anregung mit. Bei mir gibt es bislang eher „Light‑Versionen“ davon für wiederkehrende Recherchen und Content‑Prozesse.

        Ich wünsche Ihnen viel Spaß beim winterlichen Joggen in München. Hier in Chemnitz frieren sich derzeit meine Finger im Handschuh fest. 😉 Somit muss ich wohl doch in der Wärme, an meiner Tastatur – bleiben. Vorwand oder Ausrede, beides richtig.

        Liebe Grüße, schönes Wochenende und ich bin gespannt auf Ihre baldigen Beiträge

        Michaela

  4. Zitat Michaela
    Meine Erfahrung: Sobald ich einen Browser-Agenten bzw. Agenten-Browser für Workflows nutze, braucht es eine andere inhaltliche Art von Prompt als im reinen Chat. Dort definiere ich z. B. viel klarer Rolle, Ziel, Kontext, erlaubte Tools und Output-Format und ergänze Schrittlogik („prüfe zuerst…“, „nutze nur Quelle X/Y“)

    So wie ich das jetzt verstanden habe, handelt es sich bei der Verwendung von „Prompts“ um eine grundsätzlich andere Anwendung von KI als die Nutzung durch private Nutzer, ganz was Anderes.

    Private Nutzer wenden sich nämlich an eine KI ausschließlich mit dem Ziel, Informationen und Wissen von ihr zu bekommen, sprich mit dem Ziel von ihr etwas zu lernen, denn eine KI verfügt in ihrer gewaltigen Datenbank über das gesammelte, komplette Wissen der Menschen überall auf der Welt seit Anfang der Menschheit, was nun mal kein einziger Mensch auch nur im entferntesten leisten kann. Wir wollen also als private Nutzer von der KI lernen.

    Dagegen wenden sich die Entwickler von Prompts an die KI ausschließlich mit dem Ziel, ihr etwas beizubringen, sie wollen nicht von der KI etwas lernen, sondern im Gegenteil ihr etwas lehren, und zwar ganz spezifische Arbeitsabläufe, die in einer ganz spezifischen Firma vorkommen – wahrscheinlich mit dem ausgesprochenen oder unausgesprochenen Ziel, dass die KI diese erlernten Arbeitsabläufe in absehbarer Zeit selbstständig ausführen kann (Automatisierung der Aufgaben), womit Arbeitsplätze damit wegrationalisieren werden können.

    Das ist ein Thema in Verbindung mit KI, das immer wieder angesprochen und diskutiert wird und wohl keine eindeutige Lösung gefunden hat. Ich halte jedoch persönlich für sehr wahrscheinlich, dass KI in Zukunft wohl die meisten Arbeitsplätze in der Gesellschaft ersetzen wird, in allen Branchen, in allen Bereichen, in allen Berufen. Es droht meiner Meinung nach Massenarbeitslosigkeit.

    Man kann den Trend jetzt schon öfter selbst feststellen, denn immer mehr Firmen setzen z.B. bei Ihrem Kundenservice KI-Bots ein. Ich habe zum Beispiel vor kurzem bei einem Verlag ein Problem mit der Lieferung eines Hör-Buches vorgetragen und wurde von einer sehr freundlichen und kundenorientierten KI bedient: Die KI hat das Problem perfekt verstanden, die Gründe dafür genannt, eine Lösung vorgeschlagen, und alles Notwendiges dafür selbst erledigt, einschließlich der buchhalterischen Weiterabwicklung. Wozu bräuchte dieser Verlag noch menschliche Mitarbeiter im Kundenservice?

    • > Jocelyne Lopez: “So wie ich das jetzt verstanden habe, handelt es sich bei der Verwendung von „Prompts“ um eine grundsätzlich andere Anwendung von KI als die Nutzung durch private Nutzer, ganz was Anderes.”

      Jaromir: Das ist grundsätzlich falsch: Die Eingabe in einem Chatbot bezeichnet man als Prompt: Prompts unterscheiden sich nur in ihrer Komplexität und Stringenz und diese sind durch die Komplexität der Aufgabe und die Prompt Engineering-Fähigkeiten der Nutzerin bzw. des Nutzers bedingt. Ich respektiere Ihre Art der Kommunikation mit ChatGPT. So sollten Sie auch unsere respektieren. 🙂

      • Jaromir K.
        aha, jetzt kommt Licht in das Dunkel.
        Gemini ist ein chatbot und dem wird per Prompt gesagt, wie er zu antworten hat.

        Zu meiner Zeit verwendete man prompts zum Programmieren.In java Script konnte man mit einem prompt ein Dialogfenster öffnen, das eine Eingabe erwartet.

        Das hat nichts mit Respektieren zu tun, das Wort prompt bedeutet im Zusammenhang mit KI etwas anderes , und je nach Alter des Mitlesers versteht der den Begriff anders. Ich hatte es auch anders verstanden.

        Wir sind keine Anfänger. Damals hat man noch Internetseiten mit html direkt geschrieben(ohne ein Fremdprogramm) und eine Eingabeaufforderung mithilfe von Java Script eingefügt.

        Könnte man also sagen, dass Gemini den Quelltext (wovon ?)generiert und gleichzeitig menschliche Sprache wieder in Quelltext umwandelt.

    • Hallo Jocelyne,
      vielen Dank für Ihre Gedanken zu meinem Kommentar und Ihren Einblick in dieses große Themenfeld der KI‑Prompts und der allgemeinen KI‑Nutzung.

      Eins vorweg: Ich bringe einer KI nichts bei. Das könnte ich mit einem menschlichen Wissensspektrum gar nicht leisten. 😉 Wie Sie selbst schreiben, verfügen die großen Modelle über eine enorme Wissensdatenbank.

      Was ich im beruflichen wie privaten Kontext möchte: Ich möchte primär meine Fragen so beantwortet bekommen, dass die Antworten möglichst gut zu meiner eigentlichen Absicht passen. Damit das gelingt, muss ich diese Absicht klar formulieren.

      Ich vergleiche „meine“ KIs gern mit einem Azubi oder einem heranwachsenden Kind. Ohne Input kein Output. Wenn ich keinen Rahmen gebe, ufern die Möglichkeiten aus. Diesen Rahmen setze ich mit einem Prompt.

      Wenn ein KI‑Chatbot weiß, dass er in die Rolle eines beruflichen Schreiberlings zum Thema „Privatinsolvenz“ schlüpfen soll, dann tut er das – und liefert mir, wenn ich es so anweise, einen Blogbeitrag genau dazu. Aber allein das Stichwort „Privatinsolvenz“ reicht nicht, weil das Themenfeld riesig ist. Ich muss also festlegen, welche Aspekte behandelt werden sollen. Eine große Aufgabe wird in viele kleine Teilaufgaben zerlegt.

      Wie beim Lesenlernen: In der ersten Klasse steht auch nicht am ersten Tag der ganze Roman auf dem Stundenplan, sondern erst einmal das Alphabet.
      Ähnlich nutze ich verschiedene KI‑Setups auch im Privaten.

      Ich (selbst Schriftstellerin) könnte zwar von einem Chatbot verlangen, mir „mal eben“ einen Roman zu schreiben. Aber ohne Vorgaben zu Figuren, Erzählstimme, Struktur und Tonfall wird das Ergebnis entsprechend zufällig.

      Beim Thema „Arbeitsplätze“ nehme ich Ihre Sorge sehr ernst. Ich sehe KI eher als Chance, die Unternehmen nutzen können – oder auch nicht.
      Es stimmt: Tätigkeiten werden verschwinden oder sich verändern. Gleichzeitig entstehen neue Aufgaben und Rollen. Soll heißen, bestehende Stellen wandeln sich.

      Historisch war technischer Fortschritt fast immer mit solchen Verschiebungen verbunden. Von der Einführung der Schrift über die Schreibmaschine bis zum PC. Nicht in allen eben genannten Epochen war ich am Puls der Zeit, dennoch kann ich mich an einige der Bedenken erinnern. Sie waren groß, sehr groß und doch haben sich Bequemlichkeit und Effizienz am Ende durchgesetzt. Ich persönlich würde zum Beispiel ungern auf die Waschmaschine verzichten, nur damit der Beruf der Wäscherin (am Waschzober) nicht verschwindet oder gar wieder auflebt.

      Aus meiner Sicht droht nicht zwangsläufig eine flächendeckende Massenarbeitslosigkeit, sondern eher eine Phase des Umbruchs, in der wir Qualifikationen, Bildung und soziale Sicherungssysteme anpassen müssen. KI übernimmt oft die monotone Routinearbeit, die viele Menschen ohnehin als belastend erleben, und schafft so Zeit für Tätigkeiten, in denen menschliche Stärken – Empathie, komplexe Entscheidungen, echte Begegnung – wichtiger sind.

      Kundenservice, den Sie ansprechen, wird es m. E. weiterhin geben, sowohl durch Menschen als auch durch KI. KI ist für mich ein Werkzeug, das von Menschen verantwortungsvoll eingesetzt werden muss. Idealerweise erledigt sie das, was sie effizienter kann, während Menschen sich um die Fälle kümmern, in denen es ein echtes Gegenüber braucht.

      Am Ende, finde ich, bleibt es ein „Fass ohne Boden“: Jede Technologie bringt Vorteile und Nachteile mit sich. Wir entscheiden mit unserem Umgang, welcher „Wolf“ stärker wird.

      Beste Grüße aus dem eiskalten Chemnitz und die herzlichsten Wünsche für ein schönes Wochenende

      Michaela

  5. Zitat Jaromir Konecny
    Ich respektiere Ihre Art der Kommunikation mit ChatGPT. So sollten Sie auch unsere respektieren. 🙂

    ???? Wie kommen Sie dazu, dass ich Ihre Art der Kommunikation mit ChatGPT nicht respektiere?????

    Wir reden offensichtlich nur aneinander vorbei… 🙁 Erst einmal muss man nämlich verstanden haben, dass Ihre Art der Kommunikation beruflicher Natur ist – also eine kleine Minderheit von KI-Nutzern betrifft – und meine Art dagegen die überwiegende Mehrheit der privaten Nutzer im Internet betrifft: Man fragt die KI ab, um Informationen und Wissen zu erhalten, man braucht ihr dafür gar keine Anweisungen zu geben.

    Und das habe ich erst mit den Erläuterungen von Michaela wirklich verstanden:

    “Für den privaten Gebrauch sind polierte Prompts aus meiner Sicht eher unüblich, da die „vermenschlichte“ Form der Kommunikation im Dialog mit ChatGPT, Gemini, Llama etc. völlig ausreicht. Im beruflichen Kontext arbeite ich hingegen mit verschiedenen LLM-Setups und Agenten. […] Dort definiere ich z. B. viel klarer Rolle, Ziel, Kontext, erlaubte Tools und Output-Format und ergänze Schrittlogik („prüfe zuerst…“, „nutze nur Quelle X/Y“) …

    Ich interessiere mich zwar für KI, aber ich merke jetzt, dass ich im falschen Blog geraten bin, da ich beruflich mich nicht damit beschäftige. Das hat nichts damit zu tun, dass ich Ihre Arbeit oder die von Michaela nicht respektiere! 🙁 Es tut mir Leid, wenn Sie diesen Eindruck gehabt haben, das war nicht meine Absicht.

  6. Zitat NI
    Das hat nichts mit Respektieren zu tun, das Wort prompt bedeutet im Zusammenhang mit KI etwas anderes , und je nach Alter des Mitlesers versteht der den Begriff anders. Ich hatte es auch anders verstanden.

    Ganz genau, es ist ein sprachliches Problem aufgrund einem nicht genau definierten oder von der Allgemeinheit unbekannten Fachbegriff. Ich persönlich hatte vorher diesen Begriff noch nie gehört und hatte gar keine Ahnung, was er konkret bedeutet. Die Erklärung von Jaromir Konecny an mich greift dabei zu kurz bzw. ist für Außenseiter der KI-Technologie nicht hilfreich:

    „Die Eingabe in einem Chatbot bezeichnet man als Prompt.“

    Die Begriffe „Eingabe“ und „Prompt“ als Synonymen zu stellen ist für einen KI-Nutzer aus der Öffentlichkeit verwirrend. 🙁

    Wenn ich z.B. ChatGPT frage:

    „Wer war Wilhelm Tell?”

    ist es eine Eingabe. Aber es ist wohl kein „Prompt“, oder? Weil ich ChatGPT dabei keine Vorschriften mache und keine Anweisungen erteile, wie er mir zu antworten hat, wie Michaela weiter oben bei der Verwendung von Prompts erklärt hat („Ich möchte primär meine Fragen so beantwortet bekommen, dass die Antworten möglichst gut zu meiner eigentlichen Absicht passen. Damit das gelingt, muss ich diese Absicht klar formulieren. „)

    Bei dieser Eingabe „Wer war Wilhelm Tell?“ habe ich als private Nutzerin keine andere Absicht als zu erfahren, was ChatGPT alles über Wilhelm Tell weiß. Diese Eingabe ist also kein Prompt, oder?

    Ich könnte eventuell eine Anweisung im Klartext geben, womit diese Eingabe dann ein Prompt wäre, zum Beispiel

    Wer war Wilhelm Tell? Antworte bitte auf chinesisch“.

    oder

    Wer war Wilhelm Tell? Antworte bitte mit maximum einer halben DIN-A4 Seite

    Ansonsten kann ich die Antwort von ChatGPT über Wilhelm Tell nicht steuern und ihm keine Vorschriften darüber machen, wie zum Beispiel welche Quellen er verwenden sollte. Das haben die Entwickler von ChatGPT selbst im System und beim Training bereits getan, darüber habe ich als Nutzer keinen Einfluß.

    • Jocelyne L,
      Um deinen Standpunkt aufzugreifen, man sollte als erstes, die Zielgruppe benennen, für die der Beitrag gedacht ist.
      Gerade habe ich im Anhang gelesen, was Herr Konecny macht. Das übersteigt mein Vorwissen.
      Herr K. sowas gehört kurz an den Anfang, dann erspart man sich die Missverständnisse.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +