Zum Hauptinhalt springen
gradually.ai logogradually.ai
  • Blog
  • Über uns
KI-Newsletter
KI-Newsletter
  1. Startseite
  2. KI-Blog

Die 50 besten Open-Source-LLMs (und wie du sie nutzt)

Hier findest du einen Überblick über die aktuell besten Open-Source-LLMs, ihre Lizenzen und wie du selbst freie LLMs lokal auf deinem PC nutzen kannst.

FHFinn Hillebrandt
8. März 2026
Read in English
KI-Technik
Die 50 besten Open-Source-LLMs (und wie du sie nutzt)
𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen
Mit * gekennzeichnete Links sind Affiliate-Links. Kommt über solche Links ein Kauf zustande, bekommen wir eine Provision.

Open-Source-LLMs sind einer der wichtigsten KI-Trends für 2025.

Und das nicht zu Unrecht:

Open-Source-Modelle waren lange Zeit deutlich schwächer als proprietäre Modelle. Aber dieses Jahr haben sie aufgeholt:

Mit GPT-OSS-120B, DeepSeek R1, Qwen3-235B-A22B-Thinking, Llama 4 Maverick und Kimi K2 sind Modelle erschienen, die sich mit den besten proprietären LLMs wie GPT-5, Claude 4.6 oder Gemini 2.5 messen können (und diese in manchen Benchmarks sogar übertreffen).

In diesem Artikel findest du einen Überblick über die aktuell 50 besten Open-Source-LLMs mit ihren wichtigsten Benchmark-Scores und Lizenzen.

Zudem zeige ich dir, wie du freie LLMs einfach und kostenlos auf deinem Rechner nutzen kannst (ohne programmieren oder das Terminal nutzen zu müssen).

TL;DRDas Wichtigste in Kürze
  • GPT-OSS-120B (OpenAI), DeepSeek R1 und Qwen3-235B führen 2025 die Open-Source-Rankings an und übertreffen GPT-4 in vielen Benchmarks (MMLU: 90 %+, MATH: 97 %+)
  • 50 Open-Source-LLMs mit verschiedenen Lizenzen verfügbar - von MIT über Apache 2.0 bis zu eingeschränkten kommerziellen Lizenzen
  • Neue 2025er-Modelle wie Llama 4 Maverick, Kimi K2 und Gemma 3 27B setzen neue Maßstäbe für Effizienz bei kleineren Modellgrößen
  • Lokale Nutzung mit Tools wie Ollama, LM Studio oder GPT4All möglich - benötigt aber leistungsstarke Hardware (RTX 4090+ empfohlen)

Open-Source-LLMs im Vergleich

#
Modell
MMLU
Math
Code
Hersteller
Lizenz
1GPT-OSS-120B (117B MoE)90,0 %80,1 %96,6 %OpenAIApache 2.0
2DeepSeek-R1 (671B MoE)90,8 %97,3 %71,5 %DeepSeekMIT
3Qwen3-235B-A22B-Thinking87,0 %92,3 %74,1 %AlibabaApache 2.0
4Llama 4 Maverick (400B MoE)80,5 %69,8 %43,4 %MetaLlama 4 Community
5Kimi K2 (1T MoE)97,4 %71,6 %53,7 %Moonshot AIMIT
6DeepSeek-V3 (671B MoE)88,5 %90,2 %85,0 %DeepSeekMIT
7GPT-OSS-20B (20B MoE)85,3 %96,0 %69,0 %OpenAIApache 2.0
8Llama 3.3 70B Instruct86,0 %77,3 %83,0 %MetaLlama 3.3 Community
9Qwen2.5-72B-Instruct85,3 %82,3 %82,0 %AlibabaQwen License
10Llama 3.1 405B Instruct88,6 %81,1 %73,8 %MetaLlama 3.1 Community
11Gemma 3 27B67,5 %42,4 %69,0 %GoogleGemma Terms of Use
12Command R+ (104B)88,2 %85,0 %92,0 %CohereCC BY-NC-4.0
13Llama-3.1-Nemotron-70B85,0 %57,6 %8,98NVIDIALlama 3.1 Community
14Mixtral-8x22B (141B MoE)77,8 %68,0 %75,0 %Mistral AIApache 2.0
15Mistral Large 2 (123B)84,0 %76,9 %82,0 %Mistral AIMistral Research License
16Phi-4 (14B)56,1 %82,6 %80,4 %MicrosoftMIT
17Qwen3-32B-Instruct83,5 %77,0 %78,0 %AlibabaApache 2.0
18OLMo 2 32B74,0 %78,6 %84,0 %Allen InstituteApache 2.0
19DBRX (132B MoE)73,7 %70,1 %66,9 %DatabricksDatabricks Open Model
20DeepSeek Coder V2 (236B MoE)78,5 %90,2 %76,2 %DeepSeekMIT
21Llama 3.1 70B Instruct79,3 %68,0 %80,5 %MetaLlama 3.1 Community
22Yi-34B76,3 %67,6 %85,0 %01.AIApache 2.0
23Falcon 3 10B73,1 %42,5 %58,0 %TIIFalcon License
24Qwen2.5-32B-Instruct83,1 %75,5 %78,9 %AlibabaApache 2.0
25Mistral NeMo 12B68,0 %83,5 %76,8 %Mistral AI / NVIDIAApache 2.0
26InternLM3 8B-Instruct72,3 %75,0 %75,6 %Shanghai AI LabApache 2.0
27Granite Code 34B75,4 %68,3 %67,5 %IBMApache 2.0
28Falcon 180B70,4 %85,3 %77,6 %TIIFalcon License
29WizardLM-2 8x22B77,2 %83,0 %73,2 %MicrosoftApache 2.0
30Qwen2-72B-Instruct84,2 %89,5 %64,6 %AlibabaApache 2.0
31Mixtral-8x7B (46.7B MoE)70,6 %74,4 %40,2 %Mistral AIApache 2.0
32Llama 3.1 8B Instruct68,4 %84,5 %72,6 %MetaLlama 3.1 Community
33Gemma 3 8B70,9 %77,9 %56,0 %GoogleGemma Terms of Use
34Code Llama 70B Instruct62,0 %67,8 %62,0 %MetaLlama 2 Community
35Falcon 3 7B67,4 %39,2 %70,8 %TIIFalcon License
36SOLAR 10.7B v1.066,0 %69,9 %71,0 %UpstageApache 2.0
37Mistral 7B v0.362,5 %52,2 %83,0 %Mistral AIApache 2.0
38Yi-1.5 34B76,8 %80,1 %75,0 %01.AIApache 2.0
39OLMo 2 13B68,2 %71,4 %82,1 %Allen InstituteApache 2.0
40StarCoder2 15B46,0 %36,6 %49,6 %BigCodeBigCode Open RAIL-M v1
41Phi-3 Medium (14B)78,0 %91,0 %62,2 %MicrosoftMIT
42InternLM2-Chat-20B67,0 %79,6 %67,1 %Shanghai AI LabApache 2.0
43DeepSeek LLM 67B71,3 %63,4 %40,0 %DeepSeekDeepSeek License
44Vicuna 1.5 13B55,0 %48,3 %81,6 %LMSYSLlama 2 Community
45Zephyr 7B Beta61,4 %42,0 %61,1 %HuggingFaceMIT
46Gemma 2 9B71,3 %68,6 %51,8 %GoogleGemma Terms of Use
47OLMo 2 7B64,1 %62,5 %79,8 %Allen InstituteApache 2.0
48Baichuan 2 13B59,5 %58,1 %52,8 %Baichuan Inc.Baichuan 2 License
49Orca 2 13B59,0 %60,5 %61,7 %MicrosoftMicrosoft Research License
50Grok-1 (314B MoE)73,0 %62,9 %63,2 %xAIApache 2.0

Farbcodierung der Benchmark-Scores:

ExzellentTop-Bereich
GutÜberdurchschnittlich
DurchschnittSolide
SchwachUnterdurchschnittlich

1. Die wichtigsten Benchmarks erklärt

Um die Open-Source-LLMs objektiv zu vergleichen, nutze ich drei zentrale Benchmark-Kategorien:

MMLU / MMLU-Pro: Der Massive Multitask Language Understanding Benchmark testet allgemeines Wissen über 57 Fächer hinweg (STEM, Sozialwissenschaften, Geisteswissenschaften). MMLU-Pro ist die anspruchsvollere Variante mit weniger Kontamination. Top-Modelle erreichen hier 85–90 %.

MATH / GPQA: Diese Benchmarks testen mathematisches und wissenschaftliches Reasoning. MATH-500 enthält anspruchsvolle Mathematikaufgaben, während GPQA (Graduate-Level Physics Questions Answers) Expertenwissen in Biologie, Physik und Chemie testet. Top-Modelle erreichen hier 70–97 %.

HumanEval / LiveCodeBench: Diese Benchmarks testen Code-Generierung. HumanEval enthält Python-Programmieraufgaben, LiveCodeBench testet Code-Performance mit aktuellen, nicht kontaminierten Aufgaben. Top-Modelle erreichen hier 60–90 %.

Die Tabelle zeigt für jedes Modell drei Benchmark-Scores, die je nach Stärke des Modells variieren (z. B. Code-fokussierte Modelle haben höhere HumanEval-Scores).

2. Die Top-Modelle 2025/2026

GPT-OSS-120B von OpenAI führt die Rankings an (MMLU: 90,0 %, GPQA: 80,1 %, AIME: 96,6 %) und ist das erste Open-Weight-Modell von OpenAI seit GPT-2.

DeepSeek R1 mit seinen 671 Milliarden Parametern (nur 37B aktiv) übertrifft GPT-4 in vielen Bereichen (MMLU: 90,8 %, MATH-500: 97,3 %) und wurde mit nur $5,6 Millionen trainiert.

Qwen3-235B-A22B-Thinking von Alibaba setzt neue Maßstäbe für Reasoning (AIME25: 92,3 %, LiveCodeBench: 74,1 %) und übertrifft DeepSeek R1 in 17 von 23 Benchmarks.

Llama 4 Maverick von Meta erreicht mit nur 17B aktiven Parametern (von 400B total) beeindruckende Scores (MMLU-Pro: 80,5 %, GPQA: 69,8 %) und schlägt deutlich größere Modelle.

3. LLM-Lizenzen erklärt

Hier findest du einen Überblick über die am häufigsten verwendeten Lizenzen bei Open-Source-LLMs.

Warnung
Achtung: Bitte schaue dir immer die aktuellen Lizenzbestimmungen der LLMs noch einmal selbst an, bevor du sie nutzt. Lizenzbedingungen können sich jederzeit ändern.

MIT License

Eine sehr freizügige Open-Source-Lizenz, ähnlich wie Apache 2.0. Sie erlaubt die uneingeschränkte Nutzung, Modifikation und Weitergabe des LLMs, auch in proprietären Programmen, solange der Urheberrechtshinweis erhalten bleibt. DeepSeek V3 verwendet MIT mit einigen Einschränkungen für militärische Nutzung.

Llama 2 Community / Llama 3 Community

Unter den Lizenzen hat Meta Llama 2 und Llama 3 veröffentlicht. Sie erlauben die kostenlose Nutzung der LLMs für Forschung und kommerzielle Anwendungen mit bis zu 700 Millionen monatlich aktiven Nutzern. Der Quellcode und die Modellgewichte sind frei verfügbar.

Qwen License / Qianwen LICENSE

Die Qwen-Modelle werden unter verschiedenen Lizenzen veröffentlicht. Während kleinere Modelle oft unter Apache 2.0 lizenziert sind, haben größere Modelle wie Qwen2.5-72B spezielle Lizenzbedingungen, die kommerzielle Nutzung mit bestimmten Einschränkungen erlauben.

Apache 2.0

Eine sehr freizügige Open-Source-Lizenz, die nur minimale Beschränkungen vorsieht. Sie erlaubt die Nutzung, Modifikation und Weitergabe des LLMs, auch in proprietären Programmen, solange der Urheberrechtshinweis erhalten bleibt. Sie enthält keine Copyleft-Klausel.

CC BY-NC-4.0

Eine Creative-Commons-Lizenz, die es erlaubt, das LLM in jeglicher Form zu bearbeiten und zu teilen, jedoch nicht für kommerzielle Zwecke. Der Name des Urhebers muss genannt werden.

CC BY-NC-SA-4.0

Ähnlich wie CC BY-NC-4.0, jedoch mit der zusätzlichen Share-Alike-Bedingung. Das bedeutet, Forks oder bearbeitete Versionen eines LLMs müssen unter den gleichen Bedingungen weitergegeben werden.

nicht-kommerziell

Hier ist die Nutzung des LLMS für kommerzielle Zwecke untersagt. Was genau als „kommerziell" gilt, ist aber nicht immer eindeutig definiert oder eingegrenzt.

Meistens sind „nicht-kommerzielle" Modelle nur für Forschungszwecke oder zur privaten Nutzung freigegeben.

4. Open-Source-LLMs lokal auf dem eigenen Rechner nutzen

Open-Source-LLMs lokal auf dem eigenen Rechner zu nutzen, geht einfacher, als du vielleicht denkt:

1. Lade LM Studio herunter

Lade LM Studio von der Website herunter. Es ist kostenlos und für Mac, Windows und Linux verfügbar:

LM Studio

2. Installiere und öffne LM Studio

Im nächsten Schritt installierst du LM Studio auf deinem Rechner und öffnest es.

3. Lade gewünschte Open-Source-LLMs herunter

Jetzt musst du die Open-Source-LLMs in LM Studio herunterladen, die du nutzen möchtest.

Viele beliebte LLMs findest du bereits auf dem Startbildschirm. Um ein LLM herunterzuladen, klickst du einfach auf den blauen Download-Button:

Open-Source-LLMs herunterladen

Um bestimmte Open-Source-LLMs zu finden, kannst du auch die Suchfunktion nutzen:

Open-Source-LLMs suchen

4. Wichtig: Vor dem Download Systemvoraussetzungen beachten

Bevor du ein LLMs herunterlädst, solltest du dir die Systemvoraussetzungen anschauen.

Lllama 3 benötigt zum Beispiel mehr als 8 GB RAM und 4,92 GB freien Speicherplatz:

Open-Source-LLM Systemvoraussetzungen

5. Mit dem Open-Source-LLM chatten

Nachdem du ein Open-Source-LLM heruntergeladen hast, kannst du es direkt in LM Studio nutzen.

Dazu klickst du einfach links in der Seitenleiste auf das Sprechblasen-Icon (?).

Die Benutzeroberfläche und die Einstellungsmöglichkeiten erinnern dabei an den OpenAI Playground:

Mit Open-Source-LLM chatten

Häufig gestellte Fragen zu Open-Source-LLMs

𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen
FH

Finn Hillebrandt

KI-Experte & Blogger

Finn Hillebrandt ist der Gründer von Gradually AI, SEO- und KI-Experte. Er hilft Online-Unternehmern, ihre Prozesse und ihr Marketing mit KI zu vereinfachen und zu automatisieren. Finn teilt sein Wissen hier auf dem Blog in 50+ Fachartikeln sowie über seinen ChatGPT-Kurs und den KI Business Club.

Erfahre mehr über Finn und das Team, folge Finn bei LinkedIn, tritt seiner Facebook-Gruppe zu ChatGPT, OpenAI & KI-Tools bei oder mache es wie 17.500+ andere und abonniere seinen KI-Newsletter mit Tipps, News und Angeboten rund um KI-Tools und Online-Business. Besuche auch seinen anderen Blog, Blogmojo, auf dem es um WordPress, Bloggen und SEO geht.

Ähnliche Artikel

Google Gemini API: Wie du einen API Key erstellst (und nutzt)
KI-Technik

Google Gemini API: Wie du einen API Key erstellst (und nutzt)

13. März 2026
FHFinn Hillebrandt
GPT-3.5 vs. GPT-4: Was ist der Unterschied?
KI-Technik

GPT-3.5 vs. GPT-4: Was ist der Unterschied?

13. März 2026
FHFinn Hillebrandt
GPT-4 kostenlos nutzen: 7 Wege ohne ChatGPT Plus
KI-Technik

GPT-4 kostenlos nutzen: 7 Wege ohne ChatGPT Plus

13. März 2026
FHFinn Hillebrandt
Die 9 besten KI-Modelle zur Bildgenerierung in 2026
KI-Technik

Die 9 besten KI-Modelle zur Bildgenerierung in 2026

13. März 2026
FHFinn Hillebrandt
9 Merkmale, an denen du KI-Bilder erkennen kannst
KI-Technik

9 Merkmale, an denen du KI-Bilder erkennen kannst

11. März 2026
FHFinn Hillebrandt
ChatGPT-Versionen: Alle 32 GPT-Modelle im Überblick
KI-Technik

ChatGPT-Versionen: Alle 32 GPT-Modelle im Überblick

8. März 2026
FHFinn Hillebrandt

Bleib auf dem Laufenden mit dem KI-Newsletter

Erhalte wöchentlich die neuesten KI-Tools, Tutorials und exklusive Tipps direkt in Deinen Posteingang

Abmeldung jederzeit möglich. Etwa 4 bis 8 E-Mails im Monat. Die Einwilligung umfasst die Hinweise zu Widerruf, Versanddienstleister und Statistik gemäß unserer Datenschutzerklärung.

gradually.ai logogradually.ai

Deutschlands führende Plattform für KI-Tools und Wissen für Online-Unternehmer.

KI-Tools

  • KI-Chat
  • ChatGPT auf Deutsch
  • Text-Generator
  • Prompt-Verbesserer
  • Prompt-Link-Generator
  • FLUX KI-Bildgenerator
  • KI-Kunstgenerator
  • Midjourney Prompt-Generator
  • Veo 3 Prompt-Generator
  • AI Humanizer
  • KI-Text-Detektor
  • Gemini Wasserzeichen-Entferner
  • Alle Tools →

Kreativ-Tools

  • Blognamen-Generator
  • Buchtitel-Generator
  • Songtext-Generator
  • Künstlernamen-Generator
  • Teamnamen-Generator
  • Mindmap-Generator
  • Überschriften-Generator
  • Firmennamen-Generator
  • Slogan-Generator
  • Markennamen-Generator
  • Newsletter-Namengenerator
  • YouTube-Kanal-Namengenerator

Business-Tools

  • API-Kostenrechner
  • Token-Zähler
  • Werbeanzeigen-Generator
  • Werbetext-Generator
  • Essay-Generator
  • Story-Generator
  • Text-Umschreiber
  • Blogartikel-Generator
  • SERP-Snippet-Generator
  • E-Mail-Generator
  • E-Mail-Betreffzeilen-Generator
  • Instagram-Bio-Generator
  • KI-Hashtag-Generator

Ressourcen

  • MCP-Server Verzeichnis
  • Agent Skills
  • n8n-Hosting Vergleich
  • OpenClaw-Hosting Vergleich
  • Claude Code Plugins
  • Claude Code Use Cases
  • Claude Cowork Use Cases
  • OpenClaw Use Cases

© 2025 Gradually AI. Alle Rechte vorbehalten.

  • Blog
  • Angebote
  • Über uns
  • Impressum
  • Datenschutz