Home > KI-Lexikon

Was ist das Knowledge Cutoff Date?

KI-Lexikon
Foto des Autors

Finn Hillebrandt

Zuletzt aktualisiert:

Das „Knowledge Cutoff Date“ (deutsch etwa: Wissensstichtag) bezeichnet bei Large Language Models (LLMs) den Zeitpunkt, bis zu dem Informationen in die Trainingsdaten eines Modells eingeflossen sind.

Wissen über Ereignisse, Entwicklungen und Fakten nach diesem Datum ist im LLM nicht enthalten.

1. Bedeutung des Knowledge Cutoff Dates

Stell dir vor, du willst aktuelle Infos über ein Ereignis, das gerade erst passiert ist. Wenn das Knowledge Cutoff Date deines LLMs aber schon ein paar Monate oder sogar Jahre zurückliegt, dann hat es von diesem Ereignis keine Ahnung und kann dir keine Infos dazu geben.

So weiß ChatGPT (mit GPT-3.5) etwa nicht, wer den Super Bowl 2024 gewonnen hat:

Beispiel des Knowledge Cutoff Dates bei ChatGPT

Das kann manchmal ziemlich unpraktisch sein, besonders wenn du auf dem neuesten Stand bleiben möchtest.

Außerdem kann es passieren, dass das LLM aufgrund seines veralteten Wissensstands „halluziniert“. Das heißt, es generiert Antworten, die nicht mehr aktuell oder sogar falsch sind.

Um das zu umgehen, nutzen manche Tools Techniken wie Retrieval-Augmented Generation (RAG), bei der das LLM auf aktuelle externe Datenquellen zugreifen kann, um sein Wissen zu erweitern und aktuellere Antworten zu liefern.

2. Wie finde ich das Knowledge Cutoff Date heraus?

Bei den meisten LLMs kannst du einfach nach dem Knowledge Cutoff Date fragen, um es herauszufinden:

Knowledge Cutoff Date herausfinden

Folgende Prompts kannst du dafür benutzen:

Was ist dein Knowledge Cutoff Date?

Oder wahlweise:

Bis wann reichen deine Trainingsdaten?

3. Knowledge Cutoff Date bekannter LLMs

KI-ModellKnowledge
Cutoff Date
LizenzEntwickler
OLMo-7B-instruct2024/2Apache-2.0Allen AI
Gemma-7B-it2024/2Gemma licenseGoogle
Gemma-2B-it2024/2Gemma licenseGoogle
Qwen1.5-72B-Chat2024/2Qianwen LICENSEAlibaba
Qwen1.5-7B-Chat2024/2Qianwen LICENSEAlibaba
Qwen1.5-4B-Chat2024/2Qianwen LICENSEAlibaba
OpenChat-3.5-01062024/1Apache-2.0OpenChat
Nous-Hermes-2-Mixtral-8x7B-DPO2024/1Apache-2.0NousResearch
CodeLlama-70B-instruct2024/1Llama 2 CommunityMeta
Mixtral-8x7b-Instruct-v0.12023/12Apache 2.0Mistral
StripedHyena-Nous-7B2023/12Apache 2.0Together AI
Mistral-7B-Instruct-v0.22023/12Apache-2.0Mistral
GPT-4-0125-preview2023/12proprietärOpenAI
Tulu-2-DPO-70B2023/11AI2 ImpACT Low-riskAllenAI/UW
OpenChat-3.52023/11Apache-2.0OpenChat
OpenHermes-2.5-Mistral-7b2023/11Apache-2.0NousResearch
Starling-LM-7B-alpha2023/11CC-BY-NC-4.0UC Berkeley
SOLAR-10.7B-Instruct-v1.02023/11CC-BY-NC-4.0Upstage AI
DeepSeek-LLM-67B-Chat2023/11DeepSeek LicenseDeepSeek AI
NV-Llama2-70B-SteerLM-Chat2023/11Llama 2 CommunityNvidia
Dolphin-2.2.1-Mistral-7B2023/10Apache-2.0Cognitive Computations
ChatGLM3-6B2023/10Apache-2.0Tsinghua
Zephyr-7b-beta2023/10MITHuggingFace
Zephyr-7b-alpha2023/10MITHuggingFace
Mistral-7B-Instruct-v0.12023/9Apache 2.0Mistral
falcon-180b-chat2023/9Falcon-180B TII LicenseTII
WizardLM-70B-v1.02023/8Llama 2 CommunityMicrosoft
Vicuna-33B2023/8nicht-kommerziellLMSYS
Claude 3 Sonnet2023/8proprietärAnthropic
Claude 3 Opus2023/8proprietärAnthropic
Qwen-14B-Chat2023/8Qianwen LICENSEAlibaba
Vicuna-13B-16k2023/7Llama 2 CommunityLMSYS
Vicuna-7B-16k2023/7Llama 2 CommunityLMSYS
Llama-2-70b-chat2023/7Llama 2 CommunityMeta
WizardLM-13b-v1.22023/7Llama 2 CommunityMicrosoft
Vicuna-13B2023/7Llama 2 CommunityLMSYS
CodeLlama-34B-instruct2023/7Llama 2 CommunityMeta
Llama-2-13b-chat2023/7Llama 2 CommunityMeta
Llama-2-7b-chat2023/7Llama 2 CommunityMeta
Vicuna-7B2023/7Llama 2 CommunityLMSYS
WizardLM-13B-v1.12023/7nicht-kommerziellMicrosoft
XGen-7B-8K-Inst2023/7nicht-kommerziellSalesforce
H2O-Oasst-OpenLLaMA-13B2023/6Apache 2.0h2oai
ChatGLM2-6B2023/6Apache-2.0Tsinghua
MPT-30B-chat2023/6CC-BY-NC-SA-4.0MosaicML
MPT-30B-Instruct2023/6CC-BY-SA 3.0MosaicML
WizardLM-30B2023/6nicht-kommerziellMicrosoft
Tulu-30B2023/6nicht-kommerziellAllenAI/UW
Nous-Hermes-13B2023/6nicht-kommerziellNousResearch
Yi-34B-Chat2023/6Yi License01 AI
Falcon-40B-Instruct2023/5Apache 2.0TII
MPT-7B-Chat2023/5CC-BY-NC-SA-4.0MosaicML
Guanaco-65B2023/5nicht-kommerziellUW
WizardLM-13B-v1.02023/5nicht-kommerziellMicrosoft
Guanaco-33B2023/5nicht-kommerziellUW
RWKV-4-Raven-14B2023/4Apache 2.0RWKV
OpenAssistant-Pythia-12B2023/4Apache 2.0OpenAssistant
FastChat-T5-3B2023/4Apache 2.0LMSYS
StableLM-Tuned-Alpha-7B2023/4CC-BY-NC-SA-4.0Stability AI
Dolly-V2-12B2023/4MITDatabricks
OpenAssistant-LLaMA-30B2023/4nicht-kommerziellOpenAssistant
Baize-v2-13B2023/4nicht-kommerziellUCSD
Koala-13B2023/4nicht-kommerziellUC Berkeley
GPT-4-1106-preview2023/4proprietärOpenAI
Gemini Pro2023/4proprietärGoogle
Gemini Pro (Dev API)2023/4proprietärGoogle
GPT4All-13B-Snoozy2023/3nicht-kommerziellNomic AI
Alpaca-13B2023/3nicht-kommerziellStanford
ChatGLM-6B2023/3nicht-kommerziellTsinghua
LLaMA-13B2023/2nicht-kommerziellMeta
GPT-4-03142021/9proprietärOpenAI
GPT-4-06132021/9proprietärOpenAI
GPT-3.5-Turbo-06132021/9proprietärOpenAI
GPT-3.5-Turbo-03142021/9proprietärOpenAI
GPT-3.5-Turbo-11062021/9proprietärOpenAI
GPT-3.5-Turbo-01252021/9proprietärOpenAI
PaLM-Chat-Bison-0012021/6proprietärGoogle
Gemini AdvancedonlineproprietärGoogle
Gemini (Bard)onlineproprietärGoogle
pplx-70b-onlineonlineproprietärPerplexity AI
pplx-7b-onlineonlineproprietärPerplexity AI
Claude-1unbekanntproprietärAnthropic
Claude-2.0unbekanntproprietärAnthropic
Claude-2.1unbekanntproprietärAnthropic
Claude-Instant-1unbekanntproprietärAnthropic
Mistral MediumunbekanntproprietärMistral
Mistral-NextunbekanntproprietärMistral
Mistral-Large-2402unbekanntproprietärMistral

Bitte beachte, dass manche LLMs auch nach dem Wissensstichtag noch mit neuen Daten nachtrainiert werden können – dies ist aber nicht bei allen Modellen der Fall bzw. in unterschiedlichem Ausmaß.

Bei manchen LLMs ist das Knowledge Cutoff Date auch nicht bekannt oder die Modell sind online, das heißt, sie haben kein Knowledge Cutoff Date.

Bessere Texte mit ChatGPT

14 simple Tipps, mit denen ChatGPT dramatisch bessere Texte schreibt

ChatGPTs Schreibstil ist von Haus aus eher mittelmäßig. Texte enthalten z. B. Wiederholungen oder klingen monoton.

In unserem E-Book zeigen wir dir, wie es mit nur kleinen Änderungen deutlich bessere Texte schreibt. 💪

👉 Ja, zeig mir das E-Book!