Chain-of-Thought Prompting motiviert das Modell dazu, Zwischenüberlegungen verbal zu formulieren. Statt nur einer Antwort erhältst du einen nachvollziehbaren Lösungsweg. Der Ansatz wurde 2022 durch das Paper "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models" von Google Research bekannt und gilt seitdem als Standardtechnik im Prompt Engineering.
Identifiziere, ob logische Zwischenschritte nötig sind (z. B. Rechnen, Planen, Ursachenanalyse).
Entscheide zwischen kurzer Anweisung (zero-shot) oder strukturiertem Beispieldurchlauf (few-shot).
Lass das Modell reflektieren (“Überprüfe dein Ergebnis”) oder nutze ein separates Verifier-Modell.
Die Cafeteria hat 23 Äpfel. Sie verbraucht 20 für das Mittagessen und kauft 6 dazu. Wie viele Äpfel bleiben übrig? Denke Schritt für Schritt nach und erkläre jeden Zwischenschritt.Frage: Roger hat 5 Tennisbälle. Er kauft 2 Dosen mit je 3 Bällen. Wie viele Bälle hat er jetzt?
Antwort: Roger startet mit 5 Bällen. 2 Dosen × 3 Bälle = 6 zusätzliche Bälle. 5 + 6 = 11. Roger hat 11 Bälle.
Frage: Die Cafeteria hat 23 Äpfel. Sie verbraucht 20 und kauft 6 nach. Wie viele Äpfel bleiben?
Antwort: Denke Schritt für Schritt nach.Du bist ein logischer Assistent. Löse das Problem Schritt für Schritt und überprüfe anschließend, ob jeder Schritt korrekt ist.Komplexe Aufgaben in Mathematik, Logik oder Programmierung werden zuverlässiger gelöst, weil das Modell seinen Lösungsweg offenlegt.
COT macht die Zwischenschritte sichtbar und erleichtert damit Debugging, Audits und Qualitätskontrollen in regulierten Branchen.
Anstelle teurer Modellanpassungen reichen gezielte Prompts aus, um reasoning-lastige Aufgaben zu verbessern.
1. Moderne Modelle nutzen: GPT-4o, Claude 4 und Gemini 2.5 erzeugen bereits ohne Aufforderung oft Ketten von Gedanken. Verwende CoT gezielt für besonders schwierige Aufgaben.
2. Temperatur anpassen: Für deterministische Rechenaufgaben empfiehlt sich eine Temperatur zwischen 0 und 0,2, damit Zwischenschritte konsistent bleiben.
3. Reflexion kombinieren: Lass das Modell seinen Lösungsweg überprüfen ("Reflexion" oder "Self-Consistency"), um Fehler frühzeitig zu erkennen.
Ketten von Gedanken verlängern Antworten und erhöhen Kosten. Für einfache Aufgaben genügt häufig ein prägnanter Prompt.
Der sichtbare Denkprozess garantiert keine Korrektheit. Falsche Zwischenschritte führen zu falschen Endergebnissen.
Kleinere Sprachmodelle (≤13B) profitieren weniger, weil ihnen reasoning-Fähigkeiten fehlen.
Reasoning-orientierte Modelle wie GPT-4.1, Claude 4 Opus oder OpenAI o1 erzeugen häufig von selbst ausführliche Erklärungen. Für Standardaufgaben (Zusammenfassungen, leichte Rechenaufgaben) genügt oft ein normaler Prompt. Bei regulatorischen Anforderungen, Prüfungsaufgaben oder Agenten-Workflows bleibt CoT jedoch unverzichtbar.