Zum Hauptinhalt springen
gradually.ai logogradually.ai
  • Blog
  • Über uns
KI-Newsletter
KI-Newsletter
  1. Start
  2. KI-Lexikon
  3. Temperature, Top P, Top K, Frequency & Presence Penalty einfach erklärt

Temperature, Top P, Top K, Frequency & Presence Penalty einfach erklärt

Was bedeuten Temperature, Top-P, Top-K und Penalties bei KI-Modellen? Lerne, wie du Kreativität und Wiederholungen steuerst.

FHFinn Hillebrandt
Zuletzt aktualisiert:3. Januar 2026
Read in English
Grundlagen
Temperature, Top P, Top K, Frequency & Presence Penalty einfach erklärt
𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen

Claude, Gemini oder GPT-4 geben dir nicht den Output, den du gerne hättest und neigen zu Antworten, die zu faktisch oder zu kreativ sind oder sich wiederholen?

Dann kann es Sinn ergeben, erweiterte LLM-Parameter wie Temperature, Top P, Top K, Frequency Penalty oder Presence Penalty anzupassen.

Das ist möglich, wenn du die respektiven APIs verwendest, z. B. die Google Gemini API oder die OpenAI Chat Completions API oder wahlweise über die Entwicklerkonsolen, z. B. die Anthropic Console oder den OpenAI Playground.

1. Temperature

Die Temperature steuert, wie „kreativ“ oder „überraschend“ die Antworten eines KI-Modells sind:

Ein niedriger Wert dazu, dass das Modell eher vorhersehbare, konservative Antworten gibt. Es wählt Wörter und Sätze aus, die sehr wahrscheinlich sind. Ein hoher Wert lässt das Modell kreativer und abwechslungsreicher antworten. Es wählt auch mal überraschendere Formulierungen aus.

Für faktische Antworten empfiehlt sich bei der OpenAI API ein niedriger Wert zwischen 0.5 und 0.9. Für kreativere Antworten empfiehlt sich ein Wert von 1.0 bis 1.4. Werte von 1.5 oder höher sind in den wenigsten Fällen empfehlenswert.

Bei der Claude API ergibt es meistens Sinn, die Temperature auf 1.0 zu belassen und nicht niedriger zu stellen (hier ist die mögliche Spanne zwischen 0 und 1.0).

Die folgende interaktive Tabelle zeigt, wie sich der Output bei verschiedenen Temperature-Werten verändert:

Wie sich der Output verändert

Ziehe den Regler, um den Effekt zu sehen

NiedrigAktueller Wert: 1.0Hoch
02

"Die Sonne taucht wie ein brennender Phoenix in das Meer aus Wolken, während der Himmel in ekstatischen Farben explodiert."

Sehr kreativ, intensiv

Prompt:"Beschreibe einen Sonnenuntergang in einem Satz."
Empfohlener Bereich:0.3–0.9 für die meisten Anwendungen
Werte über 1.5 führen oft zu inkohärenten oder unbrauchbaren Ergebnissen.

2. Top P (Nucleus Sampling)

Top P ist eine Alternative zur Temperature, um die Kreativität zu steuern. Bei Top P wählt das Modell die nächsten Wörter aus den Top X % der wahrscheinlichsten Kandidaten aus.

Ein niedriger Wert wie 0.1 beschränkt die Auswahl auf die 10 % wahrscheinlichsten Wörter. Die Antworten werden vorhersehbarer. Ein hoher Wert wie 0.9 lässt das Modell aus den Top 90 % wählen. Es kommen auch mal unwahrscheinlichere Wörter vor, was die Antworten abwechslungsreicher macht.

Tipp: Den Wert für Top P anzupassen, ist nur für fortgeschrittene Anwendungsfälle sinnvoll. Generell empfiehlt sich, nur mit der Temperature zu arbeiten. Bitte beachte zudem, dass du entweder Top P oder die Temperature anpassen solltest, nicht beides gleichzeitig.

So verändert sich der Output bei verschiedenen Top-P-Werten:

Wie sich der Output verändert

Ziehe den Regler, um den Effekt zu sehen

NiedrigAktueller Wert: 0.5Hoch
01

"Der Himmel ist blau aufgrund eines physikalischen Phänomens namens Rayleigh-Streuung, bei dem kürzere Wellenlängen des Lichts stärker gestreut werden."

Ausgewogen, informativ

Prompt:"Erkläre, warum der Himmel blau ist."
Empfohlener Bereich:0.8–0.95 (oder Standard 1.0 belassen)

3. Top K

Top K funktioniert ähnlich wie Top P, ist aber etwas einfacher zu verstehen. Hier wählt das Modell aus den K wahrscheinlichsten nächsten Wörtern aus.

Ein niedriger Wert für K (z. B. 10) führt zu vorhersehbareren Antworten. Ein hoher Wert für K (z. B. 100) erlaubt mehr Kreativität und Abwechslung.

Tipp: Den Wert für Top K anzupassen, ist nur für fortgeschrittene Anwendungsfälle sinnvoll. Generell empfiehlt sich, nur mit der Temperature zu arbeiten. Bitte beachte zudem, dass du entweder Top P oder die Temperature anpassen solltest, nicht beides gleichzeitig.

Die folgende Tabelle demonstriert den Einfluss von Top K:

Wie sich der Output verändert

Ziehe den Regler, um den Effekt zu sehen

NiedrigAktueller Wert: 20Hoch
1100

"Papaya, Granatapfel, Litschi."

Ungewöhnlichere Auswahl

Prompt:"Nenne drei Früchte."
Empfohlener Bereich:10–50 für ausgewogene Ergebnisse

4. Frequency Penalty

Die Frequency Penalty bestraft die Wiederholung von Token, die im bisherigen Text schon oft vorkamen, wobei die Häufigkeit der Token gemessen wird.

Ein hoher Wert (nahe 2) führt dazu, dass ein KI-Modell dieselben Phrasen oder Sätze wiederholt und sich abwechslungsreicher formuliert. Ein niedriger Wert (nahe 0) lässt mehr Wiederholungen von Phrasen oder Sätze zu.

Hier siehst du, wie verschiedene Frequency-Penalty-Werte die Wiederholung beeinflussen:

Wie sich der Output verändert

Ziehe den Regler, um den Effekt zu sehen

NiedrigAktueller Wert: 1.0Hoch
02

"Treue Vierbeiner bereichern das menschliche Dasein. Pelzige Gefährten erfreuen sich an Bewegung und schenken bedingungslose Zuneigung."

Aktiv verschiedene Wörter

Prompt:"Schreibe einen kurzen Text über Hunde."
Empfohlener Bereich:0.0–0.8 für natürlichen Text
Werte über 1.5 führen oft zu inkohärenten oder unbrauchbaren Ergebnissen.

5. Presence Penalty

Die Presence Penalty funktioniert ähnlich wie der Frequency Penalty. Er bestraft aber die Wiederholung von Token unabhängig davon, wie häufig die exakten Token vorkamen.

Ein hoher Wert sorgt dafür, dass das Modell seltener bereits erwähnte Themen aufgreift. Ein niedriger Wert lässt thematische Wiederholungen eher zu.

Alternativ könnte man sagen: Bei einem hohen Wert ist das KI-Modell „offener für neue Themen“.

Tipp: Du solltest entweder die Presence Penalty oder die Frequency Penalty anpassen, nicht beides gleichzeitig.

Die Tabelle zeigt, wie die Presence Penalty das Modell dazu bringt, thematisch abzuschweifen:

Wie sich der Output verändert

Ziehe den Regler, um den Effekt zu sehen

NiedrigAktueller Wert: 1.0Hoch
02

"Mobilität prägt unsere moderne Gesellschaft. Dabei spielen auch Nachhaltigkeit und ökologischer Fußabdruck eine wichtige Rolle."

Verwandte Themen

Prompt:"Erzähle etwas über das Thema Reisen."
Empfohlener Bereich:0.0–0.6 für fokussierte Antworten
Werte über 1.5 führen oft zu inkohärenten oder unbrauchbaren Ergebnissen.

6. Wie finde ich die richtigen Werte für jede Einstellung?

Bei der Einstellung der Parameter gilt:

Probieren geht über Studieren. Das heißt, ändere die Werte und schaue, wie sich das auf den Output auswirkt.

Bitte beachte dabei, nur einen der Parameter zurzeit zu verändern, weil du sonst nicht nachvollziehen kannst, durch welchen Parameter sich der Output verbessert oder verschlechtert hat.

Generell empfehlen sich für faktische Antworten eher niedrige Werte für Temperature/Top P, für kreative Aufgaben höhere. Die Strafparameter helfen, einen guten Mittelweg zwischen Wiederholung und Abwechslung zu finden.

7. Welche Parameter sind in welcher API einstellbar?

Bitte beachte, dass manche der Parameter, wie Frequency Penalty oder Presence Penalty nicht in jeder API einstellbar sind. Hier findest du eine kleine Übersicht:

ParameterGoogle Gemini APIClaude APIOpenAI API
Temperature✓✓✓
Top P✓✓✓
Top K✓✓✓
Frequency Penalty✓-✓
Presence Penalty✓-✓
Quellen und Referenzen
𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen
FH

Finn Hillebrandt

KI-Experte & Blogger

Finn Hillebrandt ist der Gründer von Gradually AI, SEO- und KI-Experte. Er hilft Online-Unternehmern, ihre Prozesse und ihr Marketing mit KI zu vereinfachen und zu automatisieren. Finn teilt sein Wissen hier auf dem Blog in 50+ Fachartikeln sowie über seinen ChatGPT-Kurs und den KI Business Club.

Erfahre mehr über Finn und das Team, folge Finn bei LinkedIn, tritt seiner Facebook-Gruppe zu ChatGPT, OpenAI & KI-Tools bei oder mache es wie 17.500+ andere und abonniere seinen KI-Newsletter mit Tipps, News und Angeboten rund um KI-Tools und Online-Business. Besuche auch seinen anderen Blog, Blogmojo, auf dem es um WordPress, Bloggen und SEO geht.

Verwandte KI-Begriffe

AI GovernanceChain-of-Thought PromptingContext WindowExplainable AI (XAI)Fine-TuningKnowledge Cutoff DateKünstliche Intelligenz (KI)Large Language Model (LLM)PromptPrompt InjectionSystem Prompt
Zum KI-Lexikon

Bleib auf dem Laufenden mit dem KI-Newsletter

Erhalte wöchentlich die neuesten KI-Tools, Tutorials und exklusive Tipps direkt in Deinen Posteingang

Abmeldung jederzeit möglich. Etwa 4 bis 8 E-Mails im Monat. Die Einwilligung umfasst die Hinweise zu Widerruf, Versanddienstleister und Statistik gemäß unserer Datenschutzerklärung.

gradually.ai logogradually.ai

Deutschlands führende Plattform für KI-Tools und Wissen für Online-Unternehmer.

KI-Tools

  • KI-Chat
  • ChatGPT auf Deutsch
  • Text-Generator
  • Prompt-Verbesserer
  • Prompt-Link-Generator
  • FLUX KI-Bildgenerator
  • KI-Kunstgenerator
  • Midjourney Prompt-Generator
  • Veo 3 Prompt-Generator
  • AI Humanizer
  • KI-Text-Detektor
  • Gemini Wasserzeichen-Entferner
  • Alle Tools →

Kreativ-Tools

  • Blognamen-Generator
  • Buchtitel-Generator
  • Songtext-Generator
  • Künstlernamen-Generator
  • Teamnamen-Generator
  • Mindmap-Generator
  • Überschriften-Generator
  • Firmennamen-Generator
  • Slogan-Generator
  • Markennamen-Generator
  • Newsletter-Namengenerator
  • YouTube-Kanal-Namengenerator

Business-Tools

  • API-Kostenrechner
  • Token-Zähler
  • Werbeanzeigen-Generator
  • Werbetext-Generator
  • Essay-Generator
  • Story-Generator
  • Text-Umschreiber
  • Blogartikel-Generator
  • SERP-Snippet-Generator
  • E-Mail-Generator
  • E-Mail-Betreffzeilen-Generator
  • Instagram-Bio-Generator
  • KI-Hashtag-Generator

Ressourcen

  • Claude Code MCP-Server
  • Claude Code Skills
  • n8n-Hosting Vergleich
  • OpenClaw-Hosting Vergleich
  • Claude Code Plugins
  • Claude Code Use Cases
  • Claude Cowork Use Cases
  • OpenClaw Use Cases
  • Changelogs

© 2025 Gradually AI. Alle Rechte vorbehalten.

  • Blog
  • Angebote
  • Über uns
  • Impressum
  • Datenschutz