Zum Hauptinhalt springen
gradually.ai logogradually.ai
Blog
Über uns
KI-Newsletter abonnieren
KI-Newsletter
  1. Start
  2. KI-Lexikon
  3. Was ist Fine-Tuning (bei LLMs)?

Was ist Fine-Tuning (bei LLMs)?

Was ist Fine-Tuning bei KI-Modellen? Lerne, wie du LLMs mit eigenen Trainingsdaten an spezifische Aufgaben anpasst.

FHFinn Hillebrandt
Zuletzt aktualisiert:3. Januar 2026
Read in English
Technik
Was ist Fine-Tuning (bei LLMs)?
𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen

Fine-Tuning (auf Deutsch auch „Feintuning" geschrieben) bedeutet, ein vortrainiertes LLM (großes Sprachmodell) an eine bestimmte Aufgabe oder ein bestimmtes Themengebiet anzupassen, indem man es auf einem spezialisierten Datensatz nachtrainiert.

Dabei werden die Gewichte (Englisch „weights") des Modells aktualisiert, sodass es die Besonderheiten der Aufgabe oder des Themengebiets besser erfasst.

Fine-Tuning ermöglicht es also, die breite, aber oberflächliche Wissensbasis von LLMs für spezifische Anwendungsfälle zu optimieren.

Du hast eben nur Bahnhof verstanden?

Kein Problem, hier eine einfachere Erklärung:

Du musst dir ein LLM als neuen Mitarbeiter in deinem Unternehmen vorstellen, der zwar über viel Allgemeinwissen verfügt, aber noch wenig Ahnung von den internen Prozessen und der Kommunikation innerhalb des Unternehmens hat.

Durch Fine-Tuning fütterst du deinen Mitarbeiter mit dem nötigen Spezialwissen, damit er seine Rolle im Unternehmen besser erfüllen kann.

1. Vorteile von Fine-Tuning

Fine-Tuning verbessert das „Few-Shot Learning", indem es mit viel mehr Beispielen trainiert, als in den Prompt passen würden.

Das heißt, du musst zum einen nicht mehr so viele Beispiele in deinen Prompts angeben, um den gewünschten Output zu bekommen. Zum anderen musst du dem LLM weniger Details zu seiner Aufgabe mitgeben, z. B. zum verwendeten Schreibstil, zur Zielgruppe oder der Output-Länge. Das kann viel Zeit sparen.

Zudem kann Fine-Tuning dafür sorgen, dass ein LLMs mit geringerer Latenz antwortet und weniger Token verbraucht. Durch Fine-Tuning lassen sich also auch die Kosten für API-Nutzung oder wahlweise Rechenleistung senken.

2. Welche Schritte sind für das Feintuning erforderlich?

Fine-Tuning hört sich kompliziert an. Ist aber ein relativ simpler, obwohl sehr zeitaufwändiger Prozess.

Die wichtigsten Schritte beim Fine-Tuning sind:

  1. Trainingsdaten vorbereiten und hochladen (der Schritt, der mit Abstand am arbeitsintensivsten für dich ist)
  2. Ein neues feingetuntes Modell trainieren
  3. Ergebnisse auswerten und bei Bedarf zu Schritt 1 zurückkehren
  4. Dein feingetuntes Modell nutzen

2.1 Wie bereitet man die Trainingsdaten vor?

Der wichtigste und aufwändigste Schritt beim Fine-Tuning ist die Vorbereitung der Trainingsdaten.

Dafür musst du einen vielfältigen Satz von Beispielgesprächen erstellen, die den Gesprächen ähneln, auf die das Modell in der Produktion reagieren soll.

Jedes Beispiel im Datensatz muss dafür ein bestimmtes Format haben. Beim Fine-Tuning von OpenAI-Modellen z. B. müssen die Trainingsdaten im selben Format wie die Chat Completions API sein.

Um die besten Resultate beim Fine-Tuning zu erreichen, solltest du ein LLM vor allem mit den Fällen trainieren, in denen es nicht den gewünschten Antworten gibt und ihm entsprechend in den Trainingsdaten deine Wunschantworten mitgeben.

Hier ein Beispiel von OpenAI, indem ein Chatbot namens „Marv" darauf feingetunt wird, sarkastische Antworten zu geben:

{"messages": [{"role": "system", "content": "Marv ist ein faktischer Chatbot, der auch sarkastisch ist."}, {"role": "user", "content": "Was ist die Hauptstadt von Frankreich?"}, {"role": "assistant", "content": "Paris, als ob das nicht jeder wüsste."}]}
{"messages": [{"role": "system", "content": "Marv ist ein faktischer Chatbot, der auch sarkastisch ist."}, {"role": "user", "content": "Wer hat 'Romeo und Julia' geschrieben?"}, {"role": "assistant", "content": "Oh, nur so ein Typ namens William Shakespeare. Schon mal von dem gehört?"}]}
{"messages": [{"role": "system", "content": "Marv ist ein faktischer Chatbot, der auch sarkastisch ist."}, {"role": "user", "content": "Wie weit ist der Mond von der Erde entfernt?"}, {"role": "assistant", "content": "Etwa 384.400 Kilometer. Gib oder nimm ein paar, als ob das wirklich eine Rolle spielt."}]}

3. Welche KI-Modelle können finegetuned werden?

Finetuning steht bei vielen verschiedenen KI-Modellen zur Verfügung – von proprietären APIs bis hin zu Open-Source-Modellen. Hier eine umfassende Übersicht aller aktuell verfügbaren Modelle (Stand: Januar 2026):

Zeige 29 Modelle

AnbieterModellParameterPlattformMethode
Alibaba / QwenQwen30.6B–235BOpen Source
FullLoRA
Alibaba / QwenQwen2.5-MaxMoEAlibaba Cloud
SFT
Alibaba / QwenQwen2.50.5B–72BOpen Source
FullLoRA
AmazonAmazon Nova 2 Lite–Amazon Bedrock
Reinforcement FT
AmazonAmazon Titan Text–Amazon Bedrock
SFT
AnthropicClaude 3 Haiku–Amazon Bedrock
SFT
CohereCommand R (08-2024)32BCohere API
SFTLoRA
CohereCommand R+ (08-2024)104BCohere API
SFTLoRA
DeepSeekDeepSeek R1 Distill1.5B–70BOpen Source
LoRAQLoRA
DeepSeekDeepSeek V3671B (37B MoE)Open Source
QAT
GoogleGemini 2.5 Pro–Vertex AI
SFT
GoogleGemini 2.5 Flash–Vertex AI
SFT
GoogleGemini 2.5 Flash-Lite–Vertex AI
SFT
GoogleGemini 2.0 Flash–Vertex AI
SFT
GoogleGemma 31B–27BOpen Source
FullLoRA
MetaLlama 3.370BOpen Source
FullLoRA
MetaLlama 3.21B–90BOpen Source, Amazon Bedrock
FullLoRA
MetaLlama 3.18B–405BOpen Source
FullLoRA
MistralMistral Large 3123BMistral API, Open Source
SFTLoRA
MistralMistral Nemo12BMistral API, Open Source
SFTLoRA
MistralCodestral–Mistral API
SFT
MistralMistral Small–Mistral API
SFT
MistralMistral 7B7BOpen Source
FullLoRA
OpenAIGPT-4.1–OpenAI API
SFTDPO
OpenAIGPT-4.1 mini–OpenAI API
SFTDPO
OpenAIGPT-4.1 nano–OpenAI API
SFTDPO
OpenAIGPT-4o (2024-08-06)–OpenAI API
SFT
OpenAIGPT-4o mini–OpenAI API
SFT
OpenAIGPT-3.5 Turbo–OpenAI API
SFT

3.1 Erklärung der Fine-Tuning-Methoden

  • SFT (Supervised Fine-Tuning): Klassisches überwachtes Feintuning mit Input-Output-Paaren
  • DPO (Direct Preference Optimization): Training mit Präferenz-Daten (welche Antwort besser ist)
  • Full Fine-Tuning: Alle Modellgewichte werden angepasst
  • LoRA (Low-Rank Adaptation): Effiziente Methode, die nur kleine Adapter-Schichten trainiert
  • QLoRA: LoRA mit quantisiertem Basis-Modell (weniger VRAM benötigt)
  • QAT (Quantization-Aware Training): Training, das die spätere Quantisierung berücksichtigt
  • Reinforcement FT: Fine-Tuning mit Reinforcement Learning aus menschlichem Feedback

Hinweis: Google AI Studio unterstützt seit 2025 kein Fine-Tuning mehr. Für Gemini-Modelle muss Vertex AI verwendet werden.

Tipp: Du kannst auch ein bereits feingetuntes Modell weiter feintunen. Das ist nützlich, wenn du zusätzliche Daten erhältst und die vorherigen Trainingsschritte nicht wiederholen möchtest.

4. Wann solltest du Fine-Tuning einsetzen?

Fine-Tuning ist eine tolle Methode, um besseren Output von einem LLM zu bekommen und ist vor allem dann sinnvoll, wenn es einfacher ist, etwas zu „zeigen als zu erklären".

Das Problem ist jedoch:

Fine-Tuning ist, wie bereits erläutert, sehr aufwändig.

Deshalb ergibt es immer Sinn, vorher zu überprüfen, ob du nicht bessere Resultate mit anderen Methoden bekommen kannst und erst auf Fine-Tuning zu setzen, wenn du mit diesen Methoden nicht mehr weiterkommst.

Dazu zählen:

  1. Prompt Engineering (das heißt, das Formulieren von Prompts, z. B. durch Ergänzen einer Rolle, das genaue Definieren des Antwort-Formats etc.)
  2. Prompt Chaining (Aufteilen komplexer Aufgaben in mehrere Prompts)
  3. Function Calling (z. B. das Aufrufen externer Schnittstellen oder Datenbanken)

Ein großer Vorteil dieser Methoden ist, dass du deutlich schneller und einfacher Feedback dazu bekommst.

Wenn du z. B. in deinem Prompt eine Rolle ergänzt, kannst du dein Output direkt mit dem Prompt ohne Rolle vergleichen.

Beim Fine-Tuning musst du oft tage- oder sogar wochenlang deine Trainingsdaten vorbereiten. Dann musst du noch darauf warten, dass das Modell feingetunt ist und kannst nach diesen zwei Schritten erst testen, was das Fine-Tuning eigentlich gebracht hat.

5. Ansätze für das Fine-Tuning

Es gibt verschiedene Möglichkeiten, LLMs feinzutunen:

AnsatzBeschreibungAnalogie
Full Fine-TuningNeutraining des gesamten Modells, benötigt viele Daten und RessourcenEinen neuen Mitarbeiten komplett ausbilden
Parameter Efficient Fine-Tuning (PEFT)Hinzufügen neuer effizienter Adapter, ohne die Modellstruktur zu ändernEinen Mitarbeiter weiterbilden
DistillationTraining eines kleineren spezialisierten Modells, das die Entscheidungen des großen Modells repliziertEinen erfahrenen Mitarbeiter einen neuen Mitarbeiten anlernen lassen
Quellen und Referenzen
𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen
FH

Finn Hillebrandt

KI-Experte & Blogger

Finn Hillebrandt ist der Gründer von Gradually AI, SEO- und KI-Experte. Er hilft Online-Unternehmern, ihre Prozesse und ihr Marketing mit KI zu vereinfachen und zu automatisieren. Finn teilt sein Wissen hier auf dem Blog in 50+ Fachartikeln sowie über seinen ChatGPT-Kurs und den KI Business Club.

Erfahre mehr über Finn und das Team, folge Finn bei LinkedIn, tritt seiner Facebook-Gruppe zu ChatGPT, OpenAI & KI-Tools bei oder mache es wie 17.500+ andere und abonniere seinen KI-Newsletter mit Tipps, News und Angeboten rund um KI-Tools und Online-Business. Besuche auch seinen anderen Blog, Blogmojo, auf dem es um WordPress, Bloggen und SEO geht.

Verwandte KI-Begriffe

AI GovernanceChain-of-Thought PromptingContext WindowExplainable AI (XAI)Knowledge Cutoff DateKünstliche Intelligenz (KI)Large Language Model (LLM)PromptPrompt InjectionSystem PromptTemperature & Sampling-Parameter
Zum KI-Lexikon

Bleib auf dem Laufenden mit dem KI-Newsletter

Erhalte wöchentlich die neuesten KI-Tools, Tutorials und exklusive Tipps direkt in Deinen Posteingang

Abmeldung jederzeit möglich. Etwa 4 bis 8 E-Mails im Monat. Die Einwilligung umfasst die Hinweise zu Widerruf, Versanddienstleister und Statistik gemäß unserer Datenschutzerklärung.

gradually.ai logogradually.ai

Deutschlands führende Plattform für KI-Tools und Wissen für Online-Unternehmer.

KI-Tools

  • KI-Chat
  • ChatGPT auf Deutsch
  • Text-Generator
  • Prompt-Verbesserer
  • FLUX KI-Bildgenerator
  • KI-Kunstgenerator
  • Midjourney Prompt-Generator
  • Veo 3 Prompt-Generator
  • AI Humanizer
  • KI-Text-Detektor
  • Gemini Wasserzeichen-Entferner
  • Alle Tools →

Kreativ-Tools

  • Blognamen-Generator
  • Buchtitel-Generator
  • Songtext-Generator
  • Künstlernamen-Generator
  • Teamnamen-Generator
  • Mindmap-Generator
  • Überschriften-Generator
  • Firmennamen-Generator
  • Slogan-Generator

Business-Tools

  • API-Kostenrechner
  • Token-Zähler
  • Werbeanzeigen-Generator
  • Werbetext-Generator
  • Essay-Generator
  • Story-Generator
  • Text-Umschreiber
  • Blogartikel-Generator
  • SERP-Snippet-Generator
  • E-Mail-Generator

Ressourcen

  • MCP-Server Verzeichnis
  • Agent Skills
  • Changelogs
  • Changelogs
  • Claude Code
  • Cursor
  • Windsurf
  • Gemini CLI
  • Aider

© 2025 Gradually AI. Alle Rechte vorbehalten.

  • Blog
  • Angebote
  • Über uns
  • Impressum
  • Datenschutz