Open-Source-LLMs sind einer der KI-Trends für 2024.
Und das nicht zu Unrecht:
In den letzten zwei Jahren sind viele Open-Source-LLMs herausgekommen, die in einer Liga mit GPT-3.5 spielen und sogar besser sind.
Mit Metas Llama 3 und Command R+ sind sogar vor kurzem Modelle herausgekommen, die sich mit den besten proprietären LLMs wie Claude 3 Opus, GPT-4 Turbo oder Gemini Ultra messen können.
In diesem Artikel findest du einen Überblick über die aktuell 49 besten Open-Source-LLMs und ihre Lizenzen.
Zudem zeige ich dir, wie du freie LLMs einfach und kostenlos auf deinem Rechner nutzen kannst (ohne programmieren oder das Terminal nutzen zu müssen).
Open-Source-LLMs im Vergleich
Platz | Open-Source-LLM | Performance | Knowledge Cutoff | Entwickler | Lizenz |
---|---|---|---|---|---|
1 | Meta Llama 3 70b Instruct | ≈ GPT-4 | 2023/12 | Meta | Llama 3 Community |
2 | Command R+ | ≈ GPT-4 | 2024/3 | Cohere | CC BY-NC-4.0 |
3 | Qwen1.5-72B-Chat | > GPT 3.5 Turbo | 2024/2 | Alibaba | Qianwen LICENSE |
4 | Meta Llama 3 8b Instruct | > GPT 3.5 Turbo | 2023/3 | Meta | Llama 3 Community |
5 | Mixtral-8x22b-Instruct-v0.1 | > GPT 3.5 Turbo | 2024/4 | Mistral | Apache 2.0 |
6 | Qwen1.5-32B-Chat | > GPT 3.5 Turbo | 2024/2 | Alibaba | Qianwen LICENSE |
7 | Zephyr-ORPO-141b-A35b-v0.1 | > GPT 3.5 Turbo | 2024/4 | HuggingFace | Apache 2.0 |
8 | Qwen1.5-14B-Chat | > GPT 3.5 Turbo | 2024/2 | Alibaba | Qianwen LICENSE |
9 | Starling-LM-7B-beta | > GPT 3.5 Turbo | 2024/3 | Nexusflow | Apache 2.0 |
10 | Yi-34B-Chat | > GPT 3.5 Turbo | 2023/6 | 01 AI | Apache 2.0 |
11 | WizardLM-70B-v1.0 | > GPT 3.5 Turbo | 2023/8 | Microsoft | Llama 2 Community |
12 | Mixtral-8x7b-Instruct-v0.1 | > GPT 3.5 Turbo | 2023/12 | Mistral | Apache 2.0 |
13 | OpenHermes-2.5-Mistral-7b | ≈ GPT 3.5 Turbo | 2023/11 | NousResearch | Apache 2.0 |
14 | Qwen1.5-7B-Chat | ≈ GPT 3.5 Turbo | 2024/2 | Alibaba | Qianwen LICENSE |
15 | Dolphin-2.2.1-Mistral-7B | ≈ GPT 3.5 Turbo | 2023/10 | Cognitive Computations | Apache 2.0 |
16 | Mistral-7B-Instruct-v0.2 | ≈ GPT 3.5 Turbo | 2023/12 | Mistral | Apache 2.0 |
17 | SOLAR-10.7B-Instruct-v1.0 | ≈ GPT 3.5 Turbo | 2023/11 | Upstage AI | CC BY-NC-4.0 |
18 | CodeLlama-70B-instruct | ≈ GPT 3.5 Turbo | 2024/1 | Meta | Llama 2 Community |
19 | WizardLM-13b-v1.2 | ≈ GPT 3.5 Turbo | 2023/7 | Microsoft | Llama 2 Community |
20 | Zephyr-7b-alpha | ≈ GPT 3.5 Turbo | 2023/10 | HuggingFace | MIT |
21 | Zephyr-7b-beta | ≈ GPT 3.5 Turbo | 2023/10 | HuggingFace | MIT |
22 | Llama-2-13b-chat | ≈ GPT 3.5 Turbo | 2023/7 | Meta | Llama 2 Community |
23 | MPT-30B-chat | ≈ GPT 3.5 Turbo | 2023/6 | MosaicML | CC BY-NC-SA-4.0 |
24 | CodeLlama-34B-instruct | ≈ GPT 3.5 Turbo | 2023/7 | Meta | Llama 2 Community |
25 | Gemma-7B-it | ≈ GPT 3.5 Turbo | 2024/2 | Apache 2.0 | |
26 | falcon-180b-chat | ≈ GPT 3.5 Turbo | 2023/9 | TII | Falcon-180B TII License |
27 | Qwen-14B-Chat | ≈ GPT 3.5 Turbo | 2023/8 | Alibaba | Qianwen LICENSE |
28 | Llama-2-7b-chat | ≈ GPT 3.5 Turbo | 2023/7 | Meta | Llama 2 Community |
29 | Guanaco-33B | ≈ GPT 3.5 Turbo | 2023/5 | UW | nicht-kommerziell |
30 | StripedHyena-Nous-7B | ≈ GPT 3.5 Turbo | 2023/12 | Together AI | Apache 2.0 |
31 | OLMo-7B-instruct | ≈ GPT 3.5 Turbo | 2024/2 | Allen AI | Apache 2.0 |
32 | Gemma-1.1-2B-it | ≈ GPT 3.5 Turbo | 2024/2 | Apache 2.0 | |
33 | Vicuna-7B | ≈ GPT 3.5 Turbo | 2023/7 | LMSYS | Llama 2 Community |
34 | Mistral-7B-Instruct-v0.1 | ≈ GPT 3.5 Turbo | 2023/9 | Mistral | Apache 2.0 |
35 | Qwen1.5-4B-Chat | ≈ GPT 3.5 Turbo | 2024/2 | Alibaba | Qianwen LICENSE |
36 | Gemma-2B-it | < GPT-3.5 Turbo | 2024/2 | Apache 2.0 | |
37 | ChatGLM3-6B | < GPT-3.5 Turbo | 2023/10 | Tsinghua | Apache 2.0 |
38 | Koala-13B | < GPT-3.5 Turbo | 2023/4 | UC Berkeley | nicht-kommerziell |
39 | MPT-7B-Chat | < GPT-3.5 Turbo | 2023/5 | MosaicML | CC BY-NC-SA-4.0 |
40 | GPT4All-13B-Snoozy | < GPT-3.5 Turbo | 2023/3 | Nomic AI | nicht-kommerziell |
41 | RWKV-4-Raven-14B | < GPT-3.5 Turbo | 2023/4 | RWKV | Apache 2.0 |
42 | ChatGLM2-6B | < GPT-3.5 Turbo | 2023/6 | Tsinghua | Apache 2.0 |
43 | OpenAssistant-Pythia-12B | < GPT-3.5 Turbo | 2023/4 | OpenAssistant | Apache 2.0 |
44 | Alpaca-13B | < GPT-3.5 Turbo | 2023/3 | Stanford | nicht-kommerziell |
45 | ChatGLM-6B | < GPT-3.5 Turbo | 2023/3 | Tsinghua | nicht-kommerziell |
46 | FastChat-T5-3B | < GPT-3.5 Turbo | 2023/4 | LMSYS | Apache 2.0 |
47 | StableLM-Tuned-Alpha-7B | < GPT-3.5 Turbo | 2023/4 | Stability AI | CC BY-NC-SA-4.0 |
48 | Dolly-V2-12B | < GPT-3.5 Turbo | 2023/4 | Databricks | MIT |
49 | LLaMA-13B | < GPT-3.5 Turbo | 2023/2 | Meta | nicht-kommerziell |
1. Vergleich mit GPT-3.5 und GPT-4
Damit du eine Vorstellung davon hast, wie gut die einzelnen Open-Source-LLMs sind, habe ich sie der Performance von GPT-4 und GPT-3.5 Turbo gegenübergestellt.
Dabei habe ich mich zum einen nach den Elo-Scores des Chatbot Arena Leaderboards orientiert und zum anderen an meiner eigenen Erfahrung (ich habe 20 der 49 LLMs selbst getestet).
Bitte beachte, dass es sich eher um eine Klassifikation handelt, als um einen direkten Vergleich.
Meta Llama 3 70b Instruct
ist im direkten Vergleich z. B. besser als einige ältere GPT-4 Modelle, aber schlechter als das neueste GPT-4-Turbo-2024-04-09
.
Das heißt auch:
Wenn ein LLM „ungefähr so gut ist wie GPT-4“, kann es sein, dass es bei manchen Aufgaben besser und bei manchen Aufgaben schlechter abschneidet.
2. LLM-Lizenzen erklärt
Hier findest du einen Überblick über die am häufigsten verwendeten Lizenzen bei Open-Source-LLMs.
Llama 2 Community / Llama 3 Community
Unter den Lizenzen hat Meta Llama 2 und Llama 3 veröffentlicht. Sie erlauben die kostenlose Nutzung der LLMs für Forschung und kommerzielle Anwendungen mit bis zu 700 Millionen monatlich aktiven Nutzern. Der Quellcode und die Modellgewichte sind frei verfügbar.
Apache 2.0
Eine sehr freizügige Open-Source-Lizenz, die nur minimale Beschränkungen vorsieht. Sie erlaubt die Nutzung, Modifikation und Weitergabe des LLMs, auch in proprietären Programmen, solange der Urheberrechtshinweis erhalten bleibt. Sie enthält keine Copyleft-Klausel.
CC BY-NC-4.0
Eine Creative-Commons-Lizenz, die es erlaubt, das LLM in jeglicher Form zu bearbeiten und zu teilen, jedoch nicht für kommerzielle Zwecke. Der Name des Urhebers muss genannt werden.
CC BY-NC-SA-4.0
Ähnlich wie CC BY-NC-4.0, jedoch mit der zusätzlichen Share-Alike-Bedingung. Das bedeutet, Forks oder bearbeitete Versionen eines LLMs müssen unter den gleichen Bedingungen weitergegeben werden.
MIT
Eine sehr freizügige Open-Source-Lizenz, ähnlich wie Apache 2.0. Sie erlaubt die uneingeschränkte Nutzung, Modifikation und Weitergabe des LLMs, auch in proprietären Programmen, solange der Urheberrechtshinweis erhalten bleibt.
nicht-kommerziell
Hier ist die Nutzung des LLMS für kommerzielle Zwecke untersagt. Was genau als „kommerziell“ gilt, ist aber nicht immer eindeutig definiert oder eingegrenzt.
Meistens sind „nicht-kommerzielle“ Modelle nur für Forschungszwecke oder zur privaten Nutzung freigegeben.
3. Open-Source-LLMs lokal auf dem eigenen Rechner nutzen
Open-Source-LLMs lokal auf dem eigenen Rechner zu nutzen, geht einfacher, als du vielleicht denkt:
1. Lade LM Studio herunter
Lade LM Studio von der Website herunter. Es ist kostenlos und für Mac, Windows und Linux verfügbar:
2. Installiere und öffne LM Studio
Im nächsten Schritt installierst du LM Studio auf deinem Rechner und öffnest es.
3. Lade gewünschte Open-Source-LLMs herunter
Jetzt musst du die Open-Source-LLMs in LM Studio herunterladen, die du nutzen möchtest.
Viele beliebte LLMs findest du bereits auf dem Startbildschirm. Um ein LLM herunterzuladen, klickst du einfach auf den blauen Download-Button:
Um bestimmte Open-Source-LLMs zu finden, kannst du auch die Suchfunktion nutzen:
4. Wichtig: Vor dem Download Systemvoraussetzungen beachten
Bevor du ein LLMs herunterlädst, solltest du dir die Systemvoraussetzungen anschauen.
Lllama 3 benötigt zum Beispiel mehr als 8 GB RAM und 4,92 GB freien Speicherplatz:
5. Mit dem Open-Source-LLM chatten
Nachdem du ein Open-Source-LLM heruntergeladen hast, kannst du es direkt in LM Studio nutzen.
Dazu klickst du einfach links in der Seitenleiste auf das Sprechblasen-Icon (?).
Die Benutzeroberfläche und die Einstellungsmöglichkeiten erinnern dabei an den OpenAI Playground: