Home > KI-Lexikon

Was ist ein Context Window?

KI-Lexikon
Foto des Autors

Finn Hillebrandt

Zuletzt aktualisiert:

Ein Context Window ist das „Sichtfenster“ eines LLMs, also die Menge oder den Bereich an Text, den es auf einmal verarbeiten kann.

Es wird in Token gemessen, also kleine Textstücke wie Wörter oder Wortteile. Ein Token entspricht dabei ungefähr 4 Zeichen.

Das Context Window bei modernen LLMs liegt bei 4.000 Token bis 128.000 Token.

Spitzenreiter ist aktuell Google Gemini 1.5 Pro mit 1 Million Token. Laut eigenen Angaben hat Google es bereits intern erfolgreich mit 10 Millionen Token getestet.

Auch andere Unternehmen und Organisationen forschen aktiv an größeren Context Windows. Microsoft Research hat im Februar 2024 z. B. LongRoPe vorgestellt, das Context Windows von mehr als 2 Millionen ermöglichen soll.

1. Context Window & Antwortqualität

Die Größe des Context Windows beeinflusst direkt, wie viele Informationen einem LLM (großem Sprachmodell) für kohärente und kontextbezogene Antworten zur Verfügung stehen.

Ein größeres Fenster ermöglicht nuanciertere Ausgaben, da mehr Kontext berücksichtigt werden kann.

Claude 3 Opus, das ein Context Window von 200K Token hat, kann z. B. 30 bis 40 Blogartikel oder ein Harry-Potter-Band in seiner Antworten einbeziehen.

2. Auswirkungen auf Rechenleistung & Speicher

Sprachmodelle mit großen Context Windows wie Claude 3 Opus oder Gemini 1.5 Pro erfordern mehr Rechenleistung und Speicher als LLMs mit kleineren Context Windows wie GPT-3.5 oder Llama 3.

Aus diesem Grund setzen viele Betreiber und Entwickler von KI-Chatbots stattdessen auf Techniken wie Retrieval Augmented Generation (RAG), das Anfragen sehr viel günstiger macht, aber auch ungenauer ist.

3. Vor- und Nachteile großer Context Windows

Große Context Windows haben Vorteile, aber auch einige Nachteile. Zu den Vorteilen zählen:

  • Das LLM kann längere und komplexere Texte besser verstehen
  • Es erkennt Zusammenhänge über größere Textspannen hinweg
  • Es erzeugt kohärentere, passendere Antworten

Nachteile sind:

  • Das LLM benötigt deutlich mehr Rechenleistung und Speicher
  • Abfragen erzeugen höhere Kosten
  • Das LLM braucht länger, um zu antworten
  • Je umfangreicher der Prompt, desto schlechter sind oft die Ergebnisse

4. Anwendungsbereiche großer Context Windows

Große Context Windows eignen sich besonders gut für anspruchsvolle Aufgaben wie:

  • Zusammenfassung langer Dokumente
  • Beantwortung komplexer Fragen
  • Verarbeitung von Prompts mit vielen Schritten
  • Generierung langer, zusammenhängender Texte
  • Programmierung und Analyse von Code
  • Unterhaltungen mit Chatbots über viele Nachrichten hinweg

Für einfache Aufgaben wie Small Talk oder Frage-Antwort-Spiele reichen dagegen auch LLMs mit kleinerem Context Window.

5. Beispiele

Hier findest du die Context Windows für 15 bekannte LLMs von Anthropic, Google, OpenAI und Meta:

LLMContext Window
(in Token)
Entwickler
Claude Instant 1.2100KAnthropic
Claude 2100KAnthropic
Claude 2.1200KAnthropic
Claude 3 Haiku200KAnthropic
Claude 3 Sonnet200KAnthropic
Claude 3 Opus200KAnthropic
Gemini 1.0 Pro32KGoogle Research
Gemini 1.5 Pro1 MillionGoogle Research
Gemini 1.0 Ultra32KGoogle Research
GPT-3.5 Turbo4K bis 16KOpenAI
GPT-48K bis 32KOpenAI
GPT-4 Turbo128KOpenAI
Lllama 12KMeta AI
Lllama 24KMeta AI
Lllama 38KMeta AI

Bessere Texte mit ChatGPT

14 simple Tipps, mit denen ChatGPT dramatisch bessere Texte schreibt

ChatGPTs Schreibstil ist von Haus aus eher mittelmäßig. Texte enthalten z. B. Wiederholungen oder klingen monoton.

In unserem E-Book zeigen wir dir, wie es mit nur kleinen Änderungen deutlich bessere Texte schreibt. 💪

👉 Ja, zeig mir das E-Book!