Zum Hauptinhalt springen
gradually.ai logogradually.ai
  • Blog
  • Über uns
KI-Newsletter
KI-Newsletter
  1. Start
  2. KI-Lexikon
  3. Was ist Chain of Thought (CoT) Prompting? Beispiele und Vorteile

Was ist Chain of Thought (CoT) Prompting? Beispiele und Vorteile

Was ist Chain-of-Thought Prompting? Lerne, wie du KI-Modelle dazu bringst, Schritt für Schritt zu denken und bessere Antworten zu liefern.

FHFinn Hillebrandt
Zuletzt aktualisiert:4. Januar 2026
Read in English
Technik
Was ist Chain of Thought (CoT) Prompting? Beispiele und Vorteile
𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen

Chain of Thought Prompting (CoT-Prompting) ist eine Technik im Bereich des Prompt Engineering, die darauf abzielt, die logischen Denkfähigkeiten von großen Sprachmodellen (LLMs) zu verbessern.

Dabei werden die Modelle dazu angeregt, bei der Beantwortung komplexer Fragen Zwischenschritte zu machen, durch die der Denkprozess nachvollziehbar wird.

CoT-Prompting wurde 2022 erstmals in dem oft zitierten und bekannten Paper Chain-of-Thought Prompting Elicits Reasoning in Large Language Models, das von Forschern bei Google Research verfasst wurde, vorgestellt.

1. Funktionsweise

Bei herkömmlichem Prompting gibt man dem Sprachmodell einfach eine Frage oder Aufgabe und erhält direkt eine Antwort.

Beim Chain of Thought Prompting fügt man zusätzlich Aufforderungen wie „Denke Schritt für Schritt nach“ oder „Erkläre deine Antwort Schritt für Schritt“ hinzu.

Zum Beispiel:

Die Cafeteria hat 23 Äpfel auf Lager. Wenn sie 20 davon für das Mittagessen verwendet haben und 6 weitere dazugekauft haben, wie viele Äpfel hat sie noch? Erkläre deine Antwort Schritt für Schritt.

Wahlweise oder zusätzlich kann man auch ein Beispiel hinzufügen, in dem Schritt für Schritt nachgedacht wird:

Frage: Roger hat 5 Tennisbälle. Er kauft 2 weitere Dosen mit Tennisbällen. Jede Dose enthält 3 Tennisbälle. Wie viele Tennisbälle hat er jetzt?

Antwort: Roger hatte anfangs 5 Bälle. 2 Dosen mit jeweils 3 Tennisbällen sind 6 Tennisbälle. 5 + 6 = 11. Die Antwort ist 11.

Frage: Die Cafeteria hat 23 Äpfel auf Lager. Wenn sie 20 davon für das Mittagessen verwendet haben und 6 weitere dazugekauft haben, wie viele Äpfel hat sie noch?

Antwort:

2. Vorteile von Chain of Thought Prompting

Die Vorteile von Chain of Thought Prompting sind vielfältig:

  1. Verbesserte Genauigkeit: Durch die schrittweise Erklärung des Lösungswegs können Sprachmodelle komplexe Aufgaben in den Bereichen Mathematik, Logik und Schlussfolgerung deutlich besser lösen als mit „Standard-Prompts“.
  2. Erhöhte Nachvollziehbarkeit: CoT-Prompting macht die Denkprozesse von LLMs transparenter und nachvollziehbarer.
  3. Flexibilität: Die Methode lässt sich auf viele verschiedene Aufgabentypen anwenden.
  4. Erfordert nicht viele Beispiele: Oft reichen schon wenige Beispiele im Prompt reichen oft aus, um bessere Ergebnisse zu bekommen.
  5. Erspart mitunter Fine-Tuning: Chain-of-Thought-Prompting kann (in manchen Fällen) das Fine-Tuning eines KI-Modells ersparen.
  6. Emergente Fähigkeit: CoT Prompting scheint eine inhärente Fähigkeit von ausreichend großen Sprachmodellen zu aktivieren. Die Modelle müssen dafür nicht speziell trainiert werden.

3. Wie viel bringt Chain of Thought wirklich?

Die Forschung zeigt beeindruckende Verbesserungen durch Chain-of-Thought Prompting, besonders bei Mathematik- und Logikaufgaben. Hier sind die konkreten Benchmark-Ergebnisse aus den wichtigsten Papers:

CoT Performance im Vergleich

Genauigkeit verschiedener Prompting-Methoden auf bekannten Benchmarks (PaLM-540B)

Standard Prompting
Chain-of-Thought
Self-Consistency

Quelle: Wei et al. 2022, Wang et al. 2022

Wichtige Erkenntnisse aus der Forschung

+218 %

GSM8K: +218 % Verbesserung

Bei Mathe-Textaufgaben steigerte Chain-of-Thought die Genauigkeit von 17,9 % auf 56,9 % – eine Verbesserung um über 200 %.

Wei et al. 2022
+17,5 pp

Self-Consistency: +17,5 Prozentpunkte

Durch Mehrheitsentscheidung über 40 Lösungswege verbesserte Self-Consistency die GSM8K-Genauigkeit von 56,9 % auf 74,4 %.

Wang et al. 2022
+794 %

Symbolisches Reasoning: +794 % bei Last Letter

Bei symbolischen Aufgaben wie der Buchstabenverkettung stieg die Genauigkeit von 6,6 % auf 59 % – fast 8-fache Verbesserung.

Wei et al. 2022

GSM8K

Mathematik
Standard Prompting17.9 %
Chain-of-Thought56.9 %
Self-Consistency74.4 %
Verbesserung+217.9 %

SVAMP

Mathematik
Standard Prompting79.0 %
Chain-of-Thought79.0 %
Self-Consistency86.6 %
Verbesserung+0.0 %

StrategyQA

Logisches Denken
Standard Prompting65.4 %
Chain-of-Thought77.8 %
Self-Consistency81.6 %
Verbesserung+19.0 %

CommonsenseQA

Alltagswissen
Standard Prompting79.0 %
Chain-of-Thought79.9 %
Verbesserung+1.1 %

Last Letter

Symbolisch
Standard Prompting6.6 %
Chain-of-Thought59.0 %
Verbesserung+793.9 %

Coin Flip

Symbolisch
Standard Prompting50.0 %
Chain-of-Thought99.6 %
Verbesserung+99.2 %
Quellen
Wei et al. 2022 - Chain-of-Thought PromptingWang et al. 2022 - Self-ConsistencyKojima et al. 2022 - Zero-Shot CoT

4. CoT-Varianten: Von Zero-Shot bis Graph of Thoughts

Seit der Einführung von Chain-of-Thought Prompting im Jahr 2022 wurden zahlreiche Varianten und Weiterentwicklungen erforscht. Von der einfachen Zero-Shot-Variante bis hin zu komplexen Baumstrukturen wie Tree of Thoughts – jede Technik hat ihre Stärken und optimalen Anwendungsbereiche.

Die folgende Übersicht zeigt alle wichtigen CoT-Varianten im Vergleich:

Chain-of-Thought Varianten im Vergleich

Alle wissenschaftlich fundierten CoT-Techniken aus aktuellen Forschungspapers

Zeige 14 von 14 Techniken

5. Ist Chain of Thought Prompting bei neueren KI-Modellen noch erforderlich?

Die Modelle heutzutage sind deutlich schlauer als die Modelle, die im Research Paper von Wei et al. zum Testen verwendet wurden (z. B. PaLM 540B, LaMDA 137B, GPT-3 175B und Codex).

Bei aktuellen LLMs wie GPT-4o, Gemini 3 Pro oder Claude Opus 4.6 ist Chain of Thought Prompting in den meisten Fällen nicht erforderlich.

Selbst GPT-3.5 denkt schon „Schritt für Schritt“ (allerdings nicht so umfassend wie GPT-4o).

Moderne LLMs haben Chain-of-Thought-Reasoning bereits internalisiert und wenden es automatisch an, wenn es sinnvoll erscheint. Dennoch kann es bei besonders komplexen Mathematik- oder Logikaufgaben hilfreich sein, explizit um schrittweises Denken zu bitten.

Quellen und Referenzen
𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen
FH

Finn Hillebrandt

KI-Experte & Blogger

Finn Hillebrandt ist der Gründer von Gradually AI, SEO- und KI-Experte. Er hilft Online-Unternehmern, ihre Prozesse und ihr Marketing mit KI zu vereinfachen und zu automatisieren. Finn teilt sein Wissen hier auf dem Blog in 50+ Fachartikeln sowie über seinen ChatGPT-Kurs und den KI Business Club.

Erfahre mehr über Finn und das Team, folge Finn bei LinkedIn, tritt seiner Facebook-Gruppe zu ChatGPT, OpenAI & KI-Tools bei oder mache es wie 17.500+ andere und abonniere seinen KI-Newsletter mit Tipps, News und Angeboten rund um KI-Tools und Online-Business. Besuche auch seinen anderen Blog, Blogmojo, auf dem es um WordPress, Bloggen und SEO geht.

Verwandte KI-Begriffe

AI GovernanceContext WindowExplainable AI (XAI)Fine-TuningKnowledge Cutoff DateKünstliche Intelligenz (KI)Large Language Model (LLM)PromptPrompt InjectionSystem PromptTemperature & Sampling-Parameter
Zum KI-Lexikon

Bleib auf dem Laufenden mit dem KI-Newsletter

Erhalte wöchentlich die neuesten KI-Tools, Tutorials und exklusive Tipps direkt in Deinen Posteingang

Abmeldung jederzeit möglich. Etwa 4 bis 8 E-Mails im Monat. Die Einwilligung umfasst die Hinweise zu Widerruf, Versanddienstleister und Statistik gemäß unserer Datenschutzerklärung.

gradually.ai logogradually.ai

Deutschlands führende Plattform für KI-Tools und Wissen für Online-Unternehmer.

KI-Tools

  • KI-Chat
  • ChatGPT auf Deutsch
  • Text-Generator
  • Prompt-Verbesserer
  • Prompt-Link-Generator
  • FLUX KI-Bildgenerator
  • KI-Kunstgenerator
  • Midjourney Prompt-Generator
  • Veo 3 Prompt-Generator
  • AI Humanizer
  • KI-Text-Detektor
  • Gemini Wasserzeichen-Entferner
  • Alle Tools →

Kreativ-Tools

  • Blognamen-Generator
  • Buchtitel-Generator
  • Songtext-Generator
  • Künstlernamen-Generator
  • Teamnamen-Generator
  • Mindmap-Generator
  • Überschriften-Generator
  • Firmennamen-Generator
  • Slogan-Generator
  • Markennamen-Generator
  • Newsletter-Namengenerator
  • YouTube-Kanal-Namengenerator

Business-Tools

  • API-Kostenrechner
  • Token-Zähler
  • Werbeanzeigen-Generator
  • Werbetext-Generator
  • Essay-Generator
  • Story-Generator
  • Text-Umschreiber
  • Blogartikel-Generator
  • SERP-Snippet-Generator
  • E-Mail-Generator
  • E-Mail-Betreffzeilen-Generator
  • Instagram-Bio-Generator
  • KI-Hashtag-Generator

Ressourcen

  • Claude Code MCP-Server
  • Claude Code Skills
  • n8n-Hosting Vergleich
  • OpenClaw-Hosting Vergleich
  • Claude Code Plugins
  • Claude Code Use Cases
  • Claude Cowork Use Cases
  • OpenClaw Use Cases
  • Changelogs

© 2025 Gradually AI. Alle Rechte vorbehalten.

  • Blog
  • Angebote
  • Über uns
  • Impressum
  • Datenschutz