Zum Hauptinhalt springen
gradually.ai logogradually.ai
  • Blog
  • Über uns
KI-Newsletter
KI-Newsletter
  1. Start
  2. KI-Lexikon
  3. Was ist ein Context Window?

Was ist ein Context Window?

Was ist ein Context Window bei KI-Modellen? Erfahre, wie viel Text GPT-4, Claude und Gemini gleichzeitig verarbeiten können.

FHFinn Hillebrandt
Zuletzt aktualisiert:2. Januar 2025
Read in English
Modelle
Was ist ein Context Window?
𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen

Ein Context Window ist das „Sichtfenster“ eines LLMs, also die Menge oder den Bereich an Text, den es auf einmal verarbeiten kann.

Es wird in Token gemessen, also kleine Textstücke wie Wörter oder Wortteile. Ein Token entspricht dabei ungefähr 4 Zeichen.

Das Context Window bei modernen LLMs liegt bei 128.000 Token bis 10 Millionen Token.

Spitzenreiter sind aktuell Metas Llama 4 Scout und Alibabas Qwen-Long mit jeweils 10 Millionen Token. Aber auch Googles Gemini 3.1 Pro mit 1 Million Token und xAIs Grok 4 Fast mit 2 Millionen Token bieten beeindruckende Context Windows.

Die Forschung an größeren Context Windows schreitet weiter voran. Microsoft Research hat mit LongRoPE gezeigt, dass Context Windows von mehr als 2 Millionen Token möglich sind.

1. Context Window & Antwortqualität

Die Größe des Context Windows beeinflusst direkt, wie viele Informationen einem LLM (großem Sprachmodell) für kohärente und kontextbezogene Antworten zur Verfügung stehen.

Ein größeres Fenster ermöglicht nuanciertere Ausgaben, da mehr Kontext berücksichtigt werden kann.

Claude Opus 4.6 und Claude Sonnet 4.6, die ein Context Window von bis zu 1 Million Token haben (200K Standard), können z. B. 30 bis 40 Blogartikel oder ein Harry-Potter-Band in ihren Antworten einbeziehen.

2. Auswirkungen auf Rechenleistung & Speicher

Sprachmodelle mit großen Context Windows wie Gemini 3.1 Pro oder Claude Opus 4.6 erfordern mehr Rechenleistung und Speicher als LLMs mit kleineren Context Windows wie GPT-4o mini oder Mixtral.

Aus diesem Grund setzen viele Betreiber und Entwickler von KI-Chatbots stattdessen auf Techniken wie Retrieval Augmented Generation (RAG), das Anfragen sehr viel günstiger macht, aber auch ungenauer ist.

3. Vor- und Nachteile großer Context Windows

Große Context Windows haben Vorteile, aber auch einige Nachteile. Zu den Vorteilen zählen:

  • Das LLM kann längere und komplexere Texte besser verstehen
  • Es erkennt Zusammenhänge über größere Textspannen hinweg
  • Es erzeugt kohärentere, passendere Antworten

Nachteile sind:

  • Das LLM benötigt deutlich mehr Rechenleistung und Speicher
  • Abfragen erzeugen höhere Kosten
  • Das LLM braucht länger, um zu antworten
  • Je umfangreicher der Prompt, desto schlechter sind oft die Ergebnisse

4. Anwendungsbereiche großer Context Windows

Große Context Windows eignen sich besonders gut für anspruchsvolle Aufgaben wie:

  • Zusammenfassung langer Dokumente
  • Beantwortung komplexer Fragen
  • Verarbeitung von Prompts mit vielen Schritten
  • Generierung langer, zusammenhängender Texte
  • Programmierung und Analyse von Code
  • Unterhaltungen mit Chatbots über viele Nachrichten hinweg

Für einfache Aufgaben wie Small Talk oder Frage-Antwort-Spiele reichen dagegen auch LLMs mit kleinerem Context Window.

5. Aktuelle Context Windows im Vergleich

Hier findest du eine interaktive Übersicht der Context Windows für über 140 aktuelle LLMs von Anthropic, Google, OpenAI, Meta und anderen führenden Anbietern:

Legende:
1 Mio.+ Tokens
200.000–1 Mio. Tokens
100.000–200.000 Tokens
32.000–100.000 Tokens
Unter 32.000 Tokens
Zeige 154 Modelle
Kontextfenster-Größen aktueller KI-Sprachmodelle (Stand: Januar 2026)
Modell
Entwickler
Kontextfenster
Entspricht ca.
Llama 4 Scout
Meta
10 Mio.
≈ 25.000 Seiten (ca. 30 Harry-Potter-Bände)
Qwen-Long
Alibaba
10 Mio.
≈ 25.000 Seiten (ca. 30 Harry-Potter-Bände)
Gemini 2.0 Pro
Google
2 Mio.
≈ 5.000 Seiten (ca. 6 Harry-Potter-Bände)
Gemini 1.5 Pro
Google
2 Mio.
≈ 5.000 Seiten (ca. 6 Harry-Potter-Bände)
Grok 4.1 Fast
xAI
2 Mio.
≈ 5.000 Seiten (ca. 6 Harry-Potter-Bände)
Grok 4 Fast
xAI
2 Mio.
≈ 5.000 Seiten (ca. 6 Harry-Potter-Bände)
Llama 4 Maverick
Meta
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Gemini 3.1 Pro
Google
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Gemini 3 Pro
Google
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Gemini 3 Flash
Google
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Gemini 2.5 Pro
Google
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Gemini 2.5 Flash
Google
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Gemini 2.5 Flash-Lite
Google
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Gemini 2.0 Flash
Google
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Gemini 1.5 Flash
Google
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Claude Opus 4.6 (1M Beta)
Anthropic
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Claude Sonnet 4.6 (1M Beta)
Anthropic
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Claude Sonnet 4.5 (1M Beta)
Anthropic
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Claude Sonnet 4 (1M Beta)
Anthropic
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
GPT-4.1
OpenAI
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
GPT-4.1 mini
OpenAI
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
GPT-4.1 nano
OpenAI
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Qwen-Plus
Alibaba
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Qwen-Turbo
Alibaba
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Amazon Nova Premier
Amazon
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Amazon Nova 2 Lite
Amazon
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
Amazon Nova 2 Sonic
Amazon
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
MiniMax-01
MiniMax
1 Mio.
≈ 2.500 Seiten (ca. 3 Harry-Potter-Bände)
GPT-5.3-Codex
OpenAI
400.000
≈ 1.000 Seiten (ca. 4 Romane)
GPT-5.2
OpenAI
400.000
≈ 1.000 Seiten (ca. 4 Romane)
GPT-5.2 Pro
OpenAI
400.000
≈ 1.000 Seiten (ca. 4 Romane)
GPT-5.1
OpenAI
400.000
≈ 1.000 Seiten (ca. 4 Romane)
GPT-5
OpenAI
400.000
≈ 1.000 Seiten (ca. 4 Romane)
GPT-5 mini
OpenAI
400.000
≈ 1.000 Seiten (ca. 4 Romane)
GPT-5 nano
OpenAI
400.000
≈ 1.000 Seiten (ca. 4 Romane)
Amazon Nova Pro
Amazon
300.000
≈ 750 Seiten (ca. 3 Romane)
Amazon Nova Lite
Amazon
300.000
≈ 750 Seiten (ca. 3 Romane)
Qwen3-Max
Alibaba
262.144
≈ 655 Seiten (ca. 2 Romane)
Grok 4.1
xAI
256.000
≈ 640 Seiten (ca. 2 Romane)
Grok 4
xAI
256.000
≈ 640 Seiten (ca. 2 Romane)
Mistral Large 3
Mistral
256.000
≈ 640 Seiten (ca. 2 Romane)
Codestral Mamba
Mistral
256.000
≈ 640 Seiten (ca. 2 Romane)
Qwen3-235B-A22B (256K Update)
Alibaba
256.000
≈ 640 Seiten (ca. 2 Romane)
Command A
Cohere
256.000
≈ 640 Seiten (ca. 2 Romane)
Command A Reasoning
Cohere
256.000
≈ 640 Seiten (ca. 2 Romane)
Jamba 1.5 Large
AI21 Labs
256.000
≈ 640 Seiten (ca. 2 Romane)
Jamba 1.5 Mini
AI21 Labs
256.000
≈ 640 Seiten (ca. 2 Romane)
Jamba
AI21 Labs
256.000
≈ 640 Seiten (ca. 2 Romane)
abab6.5s
MiniMax
245.760
≈ 614 Seiten (ca. 2 Romane)
Claude Opus 4.6
Anthropic
200.000
≈ 500 Seiten (ca. 2 Romane)
Claude Sonnet 4.6
Anthropic
200.000
≈ 500 Seiten (ca. 2 Romane)
Claude Opus 4.5
Anthropic
200.000
≈ 500 Seiten (ca. 2 Romane)
Claude Sonnet 4.5
Anthropic
200.000
≈ 500 Seiten (ca. 2 Romane)
Claude Sonnet 4
Anthropic
200.000
≈ 500 Seiten (ca. 2 Romane)
Claude Opus 4
Anthropic
200.000
≈ 500 Seiten (ca. 2 Romane)
Claude 3.5 Sonnet
Anthropic
200.000
≈ 500 Seiten (ca. 2 Romane)
Claude 3.5 Haiku
Anthropic
200.000
≈ 500 Seiten (ca. 2 Romane)
Claude 3 Opus
Anthropic
200.000
≈ 500 Seiten (ca. 2 Romane)
Claude 3 Sonnet
Anthropic
200.000
≈ 500 Seiten (ca. 2 Romane)
Claude 3 Haiku
Anthropic
200.000
≈ 500 Seiten (ca. 2 Romane)
o3
OpenAI
200.000
≈ 500 Seiten (ca. 2 Romane)
o4-mini
OpenAI
200.000
≈ 500 Seiten (ca. 2 Romane)
o3-mini
OpenAI
200.000
≈ 500 Seiten (ca. 2 Romane)
o1
OpenAI
200.000
≈ 500 Seiten (ca. 2 Romane)
Yi-34B-200K
01.AI
200.000
≈ 500 Seiten (ca. 2 Romane)
Yi-6B-200K
01.AI
200.000
≈ 500 Seiten (ca. 2 Romane)
Grok 3
xAI
131.072
≈ 328 Seiten (ca. 1 Roman)
Llama 3.3 70B
Meta
128.000
≈ 320 Seiten (ca. 1 Roman)
Llama 3.2 90B Vision
Meta
128.000
≈ 320 Seiten (ca. 1 Roman)
Llama 3.2 11B Vision
Meta
128.000
≈ 320 Seiten (ca. 1 Roman)
Llama 3.2 3B
Meta
128.000
≈ 320 Seiten (ca. 1 Roman)
Llama 3.2 1B
Meta
128.000
≈ 320 Seiten (ca. 1 Roman)
Llama 3.1 405B
Meta
128.000
≈ 320 Seiten (ca. 1 Roman)
Llama 3.1 70B
Meta
128.000
≈ 320 Seiten (ca. 1 Roman)
Llama 3.1 8B
Meta
128.000
≈ 320 Seiten (ca. 1 Roman)
Gemma 3 27B
Google
128.000
≈ 320 Seiten (ca. 1 Roman)
Gemma 3 12B
Google
128.000
≈ 320 Seiten (ca. 1 Roman)
Gemma 3 4B
Google
128.000
≈ 320 Seiten (ca. 1 Roman)
Grok 2
xAI
128.000
≈ 320 Seiten (ca. 1 Roman)
o1-mini
OpenAI
128.000
≈ 320 Seiten (ca. 1 Roman)
GPT-4.5
OpenAI
128.000
≈ 320 Seiten (ca. 1 Roman)
GPT-4o
OpenAI
128.000
≈ 320 Seiten (ca. 1 Roman)
GPT-4o mini
OpenAI
128.000
≈ 320 Seiten (ca. 1 Roman)
GPT-4 Turbo
OpenAI
128.000
≈ 320 Seiten (ca. 1 Roman)
DeepSeek V3.1
DeepSeek
128.000
≈ 320 Seiten (ca. 1 Roman)
DeepSeek V3
DeepSeek
128.000
≈ 320 Seiten (ca. 1 Roman)
DeepSeek R1
DeepSeek
128.000
≈ 320 Seiten (ca. 1 Roman)
DeepSeek R1 Distill Llama 70B
DeepSeek
128.000
≈ 320 Seiten (ca. 1 Roman)
DeepSeek R1 Distill Qwen 32B
DeepSeek
128.000
≈ 320 Seiten (ca. 1 Roman)
DeepSeek R1 Distill Qwen 14B
DeepSeek
128.000
≈ 320 Seiten (ca. 1 Roman)
DeepSeek R1 Distill Qwen 7B
DeepSeek
128.000
≈ 320 Seiten (ca. 1 Roman)
DeepSeek R1 Distill Llama 8B
DeepSeek
128.000
≈ 320 Seiten (ca. 1 Roman)
DeepSeek V2.5
DeepSeek
128.000
≈ 320 Seiten (ca. 1 Roman)
DeepSeek Coder V2
DeepSeek
128.000
≈ 320 Seiten (ca. 1 Roman)
Mistral Large 2
Mistral
128.000
≈ 320 Seiten (ca. 1 Roman)
Mistral Small 3
Mistral
128.000
≈ 320 Seiten (ca. 1 Roman)
Ministral 8B
Mistral
128.000
≈ 320 Seiten (ca. 1 Roman)
Ministral 3B
Mistral
128.000
≈ 320 Seiten (ca. 1 Roman)
Mistral NeMo
Mistral
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen3-235B-A22B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen3-32B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen3-14B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen3-8B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen3-30B-A3B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen 2.5 72B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen 2.5 32B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen 2.5 14B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen 2.5 7B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen 2.5 Coder 32B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen 2.5 Coder 14B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Qwen 2.5 Coder 7B
Alibaba
128.000
≈ 320 Seiten (ca. 1 Roman)
Command R+
Cohere
128.000
≈ 320 Seiten (ca. 1 Roman)
Command R
Cohere
128.000
≈ 320 Seiten (ca. 1 Roman)
Amazon Nova Micro
Amazon
128.000
≈ 320 Seiten (ca. 1 Roman)
Phi-4-mini
Microsoft
128.000
≈ 320 Seiten (ca. 1 Roman)
Phi-3.5-mini
Microsoft
128.000
≈ 320 Seiten (ca. 1 Roman)
Phi-3.5-MoE
Microsoft
128.000
≈ 320 Seiten (ca. 1 Roman)
Phi-3 Medium
Microsoft
128.000
≈ 320 Seiten (ca. 1 Roman)
Phi-3 Small
Microsoft
128.000
≈ 320 Seiten (ca. 1 Roman)
Phi-3 Mini
Microsoft
128.000
≈ 320 Seiten (ca. 1 Roman)
Yi-Coder 9B
01.AI
128.000
≈ 320 Seiten (ca. 1 Roman)
Yi-Coder 1.5B
01.AI
128.000
≈ 320 Seiten (ca. 1 Roman)
Llama-3.1-Nemotron-70B
Nvidia
128.000
≈ 320 Seiten (ca. 1 Roman)
Llama-3.1-Nemotron-51B
Nvidia
128.000
≈ 320 Seiten (ca. 1 Roman)
Mistral-NeMo-Minitron 8B
Nvidia
128.000
≈ 320 Seiten (ca. 1 Roman)
Reka Core
Reka
128.000
≈ 320 Seiten (ca. 1 Roman)
Reka Flash
Reka
128.000
≈ 320 Seiten (ca. 1 Roman)
Reka Edge
Reka
128.000
≈ 320 Seiten (ca. 1 Roman)
GLM-4
Zhipu AI
128.000
≈ 320 Seiten (ca. 1 Roman)
ChatGLM3-6B
Zhipu AI
128.000
≈ 320 Seiten (ca. 1 Roman)
ERNIE 4.0
Baidu
128.000
≈ 320 Seiten (ca. 1 Roman)
Mixtral 8x22B
Mistral
65.536
≈ 164 Seiten
Phi-4-mini-flash-reasoning
Microsoft
64.000
≈ 160 Seiten
Mixtral 8x7B
Mistral
32.768
≈ 82 Seiten
Codestral
Mistral
32.768
≈ 82 Seiten
Qwen3-4B
Alibaba
32.768
≈ 82 Seiten
Qwen3-1.7B
Alibaba
32.768
≈ 82 Seiten
Qwen3-0.6B
Alibaba
32.768
≈ 82 Seiten
Phi-4-reasoning
Microsoft
32.768
≈ 82 Seiten
DBRX
Databricks
32.768
≈ 82 Seiten
Gemma 3 1B
Google
32.000
≈ 80 Seiten
Yi-Large
01.AI
32.000
≈ 80 Seiten
Phi-4
Microsoft
16.384
≈ 41 Seiten
Yi-Zap
01.AI
16.000
≈ 40 Seiten
Gemma 2 27B
Google
8.192
≈ 20 Seiten
Gemma 2 9B
Google
8.192
≈ 20 Seiten
GPT-4
OpenAI
8.192
≈ 20 Seiten
Jurassic-2 Ultra
AI21 Labs
8.192
≈ 20 Seiten
GLM-4V
Zhipu AI
8.192
≈ 20 Seiten
ERNIE 3.5
Baidu
8.000
≈ 20 Seiten
Command
Cohere
4.096
≈ 10 Seiten
Nemotron-4 340B
Nvidia
4.096
≈ 10 Seiten
StableLM 2 12B
Stability AI
4.096
≈ 10 Seiten
StableLM Zephyr 3B
Stability AI
4.096
≈ 10 Seiten

Kontextfenster-Größen aktueller KI-Sprachmodelle (Stand: Januar 2026)

Die Tabelle zeigt deutlich den rasanten Fortschritt: Während frühe Modelle wie GPT-3.5 nur 4.000 bis 16.000 Token verarbeiten konnten, erreichen aktuelle Modelle wie Llama 4 Scout bereits 10 Millionen Token – das entspricht etwa 30 Harry-Potter-Bänden oder 25.000 Buchseiten.

Quellen und Referenzen
𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen
FH

Finn Hillebrandt

KI-Experte & Blogger

Finn Hillebrandt ist der Gründer von Gradually AI, SEO- und KI-Experte. Er hilft Online-Unternehmern, ihre Prozesse und ihr Marketing mit KI zu vereinfachen und zu automatisieren. Finn teilt sein Wissen hier auf dem Blog in 50+ Fachartikeln sowie über seinen ChatGPT-Kurs und den KI Business Club.

Erfahre mehr über Finn und das Team, folge Finn bei LinkedIn, tritt seiner Facebook-Gruppe zu ChatGPT, OpenAI & KI-Tools bei oder mache es wie 17.500+ andere und abonniere seinen KI-Newsletter mit Tipps, News und Angeboten rund um KI-Tools und Online-Business. Besuche auch seinen anderen Blog, Blogmojo, auf dem es um WordPress, Bloggen und SEO geht.

Verwandte KI-Begriffe

AI GovernanceChain-of-Thought PromptingExplainable AI (XAI)Fine-TuningKnowledge Cutoff DateKünstliche Intelligenz (KI)Large Language Model (LLM)PromptPrompt InjectionSystem PromptTemperature & Sampling-Parameter
Zum KI-Lexikon

Bleib auf dem Laufenden mit dem KI-Newsletter

Erhalte wöchentlich die neuesten KI-Tools, Tutorials und exklusive Tipps direkt in Deinen Posteingang

Abmeldung jederzeit möglich. Etwa 4 bis 8 E-Mails im Monat. Die Einwilligung umfasst die Hinweise zu Widerruf, Versanddienstleister und Statistik gemäß unserer Datenschutzerklärung.

gradually.ai logogradually.ai

Deutschlands führende Plattform für KI-Tools und Wissen für Online-Unternehmer.

KI-Tools

  • KI-Chat
  • ChatGPT auf Deutsch
  • Text-Generator
  • Prompt-Verbesserer
  • Prompt-Link-Generator
  • FLUX KI-Bildgenerator
  • KI-Kunstgenerator
  • Midjourney Prompt-Generator
  • Veo 3 Prompt-Generator
  • AI Humanizer
  • KI-Text-Detektor
  • Gemini Wasserzeichen-Entferner
  • Alle Tools →

Kreativ-Tools

  • Blognamen-Generator
  • Buchtitel-Generator
  • Songtext-Generator
  • Künstlernamen-Generator
  • Teamnamen-Generator
  • Mindmap-Generator
  • Überschriften-Generator
  • Firmennamen-Generator
  • Slogan-Generator
  • Markennamen-Generator
  • Newsletter-Namengenerator
  • YouTube-Kanal-Namengenerator

Business-Tools

  • API-Kostenrechner
  • Token-Zähler
  • Werbeanzeigen-Generator
  • Werbetext-Generator
  • Essay-Generator
  • Story-Generator
  • Text-Umschreiber
  • Blogartikel-Generator
  • SERP-Snippet-Generator
  • E-Mail-Generator
  • E-Mail-Betreffzeilen-Generator
  • Instagram-Bio-Generator
  • KI-Hashtag-Generator

Ressourcen

  • Claude Code MCP-Server
  • Claude Code Skills
  • n8n-Hosting Vergleich
  • OpenClaw-Hosting Vergleich
  • Claude Code Plugins
  • Claude Code Use Cases
  • Claude Cowork Use Cases
  • OpenClaw Use Cases
  • Changelogs

© 2025 Gradually AI. Alle Rechte vorbehalten.

  • Blog
  • Angebote
  • Über uns
  • Impressum
  • Datenschutz