Zum Hauptinhalt springen
gradually.ai logogradually.ai
  • Blog
  • Über uns
KI-Newsletter
KI-Newsletter
  1. Startseite
  2. KI-Blog

DeepSeek-Statistiken 2026: Zahlen, Daten & Fakten

Aktuelle DeepSeek-Statistiken zu Nutzerzahlen, Downloads, Trainingskosten, Benchmarks, API-Preisen und Unternehmensdaten.

FHFinn Hillebrandt
19. April 2026
Read in English
KI-Technik
DeepSeek-Statistiken 2026: Zahlen, Daten & Fakten
𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen
Mit * gekennzeichnete Links sind Affiliate-Links. Kommt über solche Links ein Kauf zustande, bekommen wir eine Provision.

5,5 Millionen USD. Das ist, was DeepSeek ausgegeben hat, um ein Modell zu trainieren, das GPT-4 auf mehreren Benchmarks schlägt. OpenAI soll für GPT-4 schätzungsweise 100 Millionen USD investiert haben, also etwa das 18-fache. Als DeepSeek im Januar 2025 seine App veröffentlichte, war es innerhalb von Stunden die meistgeladene App der Welt. Die NVIDIA-Aktie verlor an einem einzigen Tag rund 600 Milliarden USD an Marktkapitalisierung.

Denkste, KI ist ein amerikanisches Spiel? Weit gefehlt.

In diesem Artikel findest du alle aktuellen Zahlen, Daten und Fakten zu DeepSeek: von Nutzerzahlen und Downloads über Trainingskosten und Benchmarks bis hin zu API-Preisen und Unternehmenskennzahlen.

TL;DRDas Wichtigste in Kürze
  • DeepSeek erschütterte im Januar 2025 den KI-Markt: 173 Mio. Downloads, 96,9 Mio. monatlich aktive Nutzer und die Nummer-1-App weltweit im App Store
  • DeepSeek-V3 wurde für nur 5,5 Mio. USD trainiert, etwa 1/18 der geschätzten GPT-4-Trainingskosten, und erreicht dennoch vergleichbare Benchmark-Ergebnisse
  • Nur 150-200 Mitarbeiter, ohne externe VC-Finanzierung bis 2026: DeepSeek ist das kapitaleffizienteste KI-Frontier-Labor der Welt

1. Was ist DeepSeek?

DeepSeek ist ein chinesisches KI-Forschungsunternehmen, gegründet im Juli 2023 in Hangzhou. Dahinter steckt Liang Wenfeng, der zuvor den quantitativen Hedge-Fonds High-Flyer Capital mitgegründet hatte. High-Flyer finanzierte frühzeitig den Aufbau eines umfangreichen GPU-Clusters, bevor die USA Exportbeschränkungen für leistungsstarke Chips nach China einführten.

Das erklärte Ziel:

Frontier-KI-Forschung mit einem Bruchteil der Ressourcen westlicher Labore. DeepSeek veröffentlicht seine Modelle als Open Source auf HuggingFace und legt technische Berichte transparent offen, eine Praxis, die unter kommerziellen KI-Anbietern selten ist.

Das Besondere am Team: Statt erfahrener Industrie-KI-Forscher setzt DeepSeek bewusst auf frische Hochschulabsolventen und Doktoranden. Nur etwa 20-25 % der Mitarbeitenden haben mehr als drei Jahre Berufserfahrung.

2. Downloads und Nutzerzahlen

Der Januar 2025 war der Monat, in dem DeepSeek die KI-Welt auf den Kopf stellte. Die Zahlen sprechen für sich:

  • 173 Mio. Downloads insgesamt (bis Mai 2025)
  • 96,9 Mio. Monthly Active Users (April 2025)
  • 22,15 Mio. Daily Active Users im Peak (Januar 2025)
  • 57,2 Mio. App-Downloads (34,6 Mio. Google Play + 22,6 Mio. App Store bis Mai 2025)
Quellen: DemandSage, Business of Apps
|
CC BY 4.0
gradually.ai

Zum Vergleich: ChatGPT brauchte nach dem Launch im November 2022 zwei Monate, um 100 Millionen Nutzer zu erreichen. Das war damals ein Rekord. DeepSeek kam ihm in nur drei Monaten sehr nahe, und das ohne das globale Marketing-Budget eines Silicon-Valley-Konzerns.

2.1 Geografische Verteilung

DeepSeek ist global verbreitet, hat aber eine klare Heimatbasis:

Quelle: DemandSage, 2025
|
CC BY 4.0
gradually.ai

Bemerkenswert ist der vergleichsweise geringe US-Anteil von 5 %. Das liegt an politischen Bedenken und der Tatsache, dass amerikanische Unternehmen und Behörden DeepSeek oft aus Sicherheitsgründen meiden. In Deutschland ist die App problemlos verfügbar.

3. Modelle und technische Spezifikationen

DeepSeek hat in kurzer Zeit mehrere leistungsstarke Modelle veröffentlicht. Das Wichtigste vorab: Alle großen Modelle sind Open Source und können auf der eigenen Hardware betrieben werden.

3.1 DeepSeek-V3

DeepSeek-V3 ist das Flaggschiff-Modell für allgemeine Aufgaben. Die technischen Eckdaten sind beeindruckend:

  • 671 Milliarden Parameter insgesamt, davon 37 Milliarden aktiviert pro Token (Mixture-of-Experts-Architektur)
  • Trainingskosten: 5,5 Mio. USD (2,788 Mio. H800-GPU-Stunden)
  • Verfügbar als API und Open Source auf HuggingFace
Benchmark
DeepSeek-V3
GPT-4o
Claude 3.5 Sonnet
MMLU88,5 %87,2 %88,3 %
HumanEval65,2 %90,2 %92,0 %
MATH61,6 %74,6 %71,1 %
BBH87,5 %83,1 %88,0 %
GPQA59,1 %53,6 %65,0 %

Fakt ist: DeepSeek-V3 liegt auf Augenhöhe mit GPT-4o auf dem MMLU-Benchmark. Bei einigen Coding-Benchmarks sind westliche Modelle vorn, bei allgemeinen Wissenstests ist das Ergebnis nahezu identisch. Das alles für 5,5 Millionen USD Trainingskosten.

3.2 DeepSeek-R1

DeepSeek-R1 ist das Reasoning-Modell, vergleichbar mit OpenAIs o1. Es ist für logisches Schlussfolgern, Mathematik und komplexe Programmieraufgaben optimiert:

  • MMLU: 90,8 % (höher als V3 mit 88,5 %)
  • AIME 2025: 87,5 % (mathematische Olympiade-Aufgaben); AIME 2024 laut ursprünglichem Paper: 79,8 %
  • Open Source, Gewichte auf HuggingFace verfügbar

3.3 DeepSeek-V3.2 und V4 (2026)

Die neuesten Modelle setzen noch einen drauf:

  • V3.2-Exp: 0,028 USD pro Million Input-Tokens, AIME 2025: 96,0 % (übertrifft GPT-5 High mit 94,6 %)
  • V4: 0,30 USD/0,50 USD pro Million Tokens (Input/Output)

4. API-Preise

Der günstigste Preis ist das stärkste Argument für DeepSeek in der Developer-Community. Hier ein direkter Vergleich mit den wichtigsten Wettbewerbern:

Modell
Input (USD/Mio. Tokens)
Output (USD/Mio. Tokens)
DeepSeek V3.2-Exp$0,028$0,028
DeepSeek V3.2$0,26$0,38
DeepSeek R1$0,55$2,19
DeepSeek V4$0,30$0,50
GPT-4o$2,50$10,00
Claude 3.5 Sonnet$3,00$15,00
Gemini 2.0 Flash$0,075$0,30
Quelle: Offizielle Preisseiten der Anbieter, April 2026
|
CC BY 4.0
gradually.ai

Das Tolle daran ist: DeepSeek V3.2-Exp kostet nur 1,1 % von dem, was Claude 3.5 Sonnet verlangt. Für viele Anwendungsfälle ist die Qualität vergleichbar. Das hat die gesamte API-Preisgestaltung der Branche unter Druck gesetzt.

5. Benchmark-Vergleich mit der Konkurrenz

Benchmarks sind kein perfektes Maß. Allerdings: Sie geben einen guten Überblick über die relative Leistung von Modellen auf standardisierten Aufgaben.

Quellen: Offizielle Modell-Benchmarks der Anbieter, 2025/2026
|
CC BY 4.0
gradually.ai

DeepSeek-R1 liegt beim MMLU-Benchmark vor GPT-4o und gleichauf mit den besten westlichen Modellen. Das bei einem Modell, das für einen Bruchteil der Kosten entwickelt wurde. Das erklärt, warum die Veröffentlichung im Januar 2025 so viele in der KI-Welt aufgerüttelt hat.

Quelle: AIME 2025 Benchmark-Ergebnisse der Anbieter
|
CC BY 4.0
gradually.ai

Beim AIME 2025 (mathematische Olympiade-Aufgaben) übertrifft DeepSeek V3.2-Exp sogar GPT-5 High. Das ist der Benchmark, der in der Forschungsgemeinschaft am stärksten beachtet wird.

6. Umsatz und Unternehmensdaten

DeepSeek ist ein ungewöhnliches Unternehmen: klein, effizient und dennoch auf Augenhöhe mit Milliarden-Dollar-Laboren.

  • Annualisierter Umsatz: nicht offiziell bestätigt (externe Schätzungen: 100-300 Mio. USD, 2025)
  • API-Aufrufe pro Monat: 5,7 Mrd. (2025)
  • Finanzierung: Intern durch High-Flyer Capital, keine externe VC-Runde bis April 2026
  • Erste externe Runde (Apr. 2026): Zielwert 10+ Mrd. USD Bewertung
  • Mitarbeiter: nur 150-200 (zum Vergleich: OpenAI 3.500+)
Quelle: DemandSage, Schätzungen auf Basis öffentlicher API-Daten, 2025
|
CC BY 4.0
gradually.ai

Revenue per Employee (geschätzt, auf Basis nicht offiziell bestätigter Umsatzdaten): rund 1,1-1,5 Mio. USD. Das ist für ein KI-Startup sehr hoch. Und ein deutlicher Beleg dafür, dass DeepSeeks Ansatz, mit einem kleinen, hochqualifizierten Team zu arbeiten, nicht nur wissenschaftlich, sondern auch wirtschaftlich funktioniert.

7. Der DeepSeek-Schock: Auswirkungen auf den Markt

Der 27. Januar 2025 wird in die Geschichte der Technologiemärkte eingehen. An diesem Tag verlor NVIDIA an einem einzigen Handelstag rund 600 Milliarden USD an Marktkapitalisierung, ein Rekord in der Börsengeschichte.

Der Auslöser war die Bekanntmachung, dass DeepSeek-V3 mit einem Bruchteil der Ressourcen westlicher Labore vergleichbare Ergebnisse erzielt. Anleger fragten sich: Wenn KI-Training so günstig wird, brauchen wir dann noch Tausende NVIDIA-GPUs?

  • NVIDIA-Kursverlust: ca. -17 % an einem Tag (27. Januar 2025)
  • Marktkapitalisierungsverlust NVIDIA: ca. -600 Mrd. USD
  • Politische Reaktion: Intensivierung der US-Exportkontrollen für China-Chips
  • Regulatorische Reaktion: Datenschutzbehörden in Italien, Indien und Australien prüften DeepSeek

Sam Altman, CEO von OpenAI, kommentierte auf X: „impressive model, particularly around what they're able to deliver for the price". Das ist aus dem Mund eines direkten Konkurrenten fast schon ein Kompliment.

Hinweis
Die Trainingskosten von 5,5 Mio. USD beziehen sich auf das finale V3-Training. Forschungs- und Entwicklungskosten sowie vorherige Modell-Iterationen sind nicht eingerechnet. Die tatsächlichen Gesamtkosten liegen höher.

8. Gründer und Geschichte

Liang Wenfeng ist kein typischer KI-Gründer. Er hat Mathematik und Ingenieurwesen studiert und war zunächst im quantitativen Handel tätig. Mit seinem Co-Founder Xu Jin gründete er High-Flyer Capital, einen der erfolgreichsten quantitativen Hedge-Fonds Chinas.

High-Flyer erkannte früh, dass KI der nächste große Hebel für den Finanzmarkt sein würde. Das Unternehmen begann, massiv in NVIDIA-GPUs zu investieren, noch bevor die USA Exportbeschränkungen einführten. Aus dieser GPU-Infrastruktur entstand DeepSeek als internes Forschungsprojekt, das 2023 als eigenständiges Unternehmen ausgegründet wurde.

Datum
Meilenstein
Juli 2023Gründung von DeepSeek
Nov. 2023DeepSeek Coder V1 (Programmier-Spezialist)
Jan. 2024DeepSeek LLM 67B (allgemeines Modell)
Mai 2024DeepSeek-V2 (MoE-Architektur, 236B Parameter)
Dez. 2024DeepSeek-V3 (671B, Trainingskosten: 5,5 Mio. USD)
Jan. 2025App-Launch + Nr. 1 weltweit im App Store
Jan. 2025NVIDIA-Kurssturz -17 % an einem Tag
Feb. 2025DeepSeek-R1 (Reasoning-Modell, Open Source)
Apr. 202596,9 Mio. Monthly Active Users

9. Verfügbarkeit und Open Source

DeepSeek ist auf mehreren Wegen zugänglich:

  • App: iOS und Android (kostenlos)
  • Web-Chat: chat.deepseek.com
  • API: platform.deepseek.com
  • Open Source (HuggingFace): V3 und R1 als Open-Source-Modelle

Das Problem: In Deutschland und anderen EU-Ländern gibt es DSGVO-Bedenken. Nutzerdaten werden auf Servern in China verarbeitet und gespeichert. Für private Nutzung ist das oft tolerierbar. Für geschäftliche Anwendungen mit personenbezogenen Daten sollte ein Datenschutzbeauftragter befragt werden.

Die Open-Source-Veröffentlichung der Modellgewichte hat zu einer Vielzahl von Community-Projekten geführt. Entwickler laufen DeepSeek-Modelle lokal über Tools wie OpenClaw oder Ollama. Damit entfallen die Datenschutzbedenken komplett.

10. Interessante Fakten und Rekorde

  1. Nummer-1-App weltweit im App Store im Januar 2025, nur wenige Tage nach dem Launch.
  2. Größter Einzeltagesverlust durch externe Meldung: NVIDIA verlor durch DeepSeeks Bekanntmachung rund 600 Mrd. USD an Marktkapitalisierung an einem Tag.
  3. Günstigstes Frontier-Modell der Welt: DeepSeek V3.2-Exp mit 0,028 USD pro Million Input-Tokens.
  4. Vollständiges V3-Training für 5,5 Mio. USD: Das ist weniger als das Budget einer durchschnittlichen Hollywood-Filmproduktion.
  5. 150-200 Mitarbeiter gegen mehrere westliche KI-Labore mit jeweils Tausenden Angestellten.
  6. Open Source trotz kommerziellem Erfolg: DeepSeek veröffentlicht Frontier-Modelle frei, obwohl sie kommerziell sehr wertvoll wären.
  7. Team aus Berufseinsteigern: Die meisten Entwickler sind frische Hochschulabsolventen ohne jahrelange Industrieerfahrung.
  8. Sputnik-Moment der KI: So bezeichnen viele Analysten den DeepSeek-Moment. Ähnlich wie der Sputnik-Schock 1957 hat er die westliche Welt dazu gebracht, ihre Annahmen über KI-Dominanz zu überdenken.

Und ja: Ich bin der Meinung, dass DeepSeek die KI-Landschaft dauerhaft verändert hat. Nicht weil es die besten Modelle hat. Sondern weil es bewiesen hat, dass Effizienz wichtiger ist als schiere Rechenleistung. Das wird die gesamte Branche beeinflussen.

Weitere Vergleiche und Einordnungen findest du in unseren Artikeln zu Claude-Statistiken, ChatGPT-Statistiken und Gemini-Statistiken.

Häufig gestellte Fragen zu DeepSeek

𝕏XAuf X teilenFacebookAuf Facebook teilenLinkedInAuf LinkedIn teilenPinterestAuf Pinterest teilenThreadsAuf Threads teilenFlipboardAuf Flipboard teilen
FH

Finn Hillebrandt

KI-Experte & Blogger

Finn Hillebrandt ist der Gründer von Gradually AI, SEO- und KI-Experte. Er hilft Online-Unternehmern, ihre Prozesse und ihr Marketing mit KI zu vereinfachen und zu automatisieren. Finn teilt sein Wissen hier auf dem Blog in 50+ Fachartikeln sowie über seinen ChatGPT-Kurs und den KI Business Club.

Erfahre mehr über Finn und das Team, folge Finn bei LinkedIn, tritt seiner Facebook-Gruppe zu ChatGPT, OpenAI & KI-Tools bei oder mache es wie 17.500+ andere und abonniere seinen KI-Newsletter mit Tipps, News und Angeboten rund um KI-Tools und Online-Business. Besuche auch seinen anderen Blog, Blogmojo, auf dem es um WordPress, Bloggen und SEO geht.

Ähnliche Artikel

OpenAI-Statistiken 2026: Zahlen, Daten & Fakten
KI-Technik

OpenAI-Statistiken 2026: Zahlen, Daten & Fakten

19. April 2026
FHFinn Hillebrandt
Grok Statistiken 2026: Zahlen, Daten & Fakten zu xAI
KI-Technik

Grok Statistiken 2026: Zahlen, Daten & Fakten zu xAI

10. April 2026
FHFinn Hillebrandt
Perplexity Statistiken 2026: Zahlen, Daten & Fakten
KI-Technik

Perplexity Statistiken 2026: Zahlen, Daten & Fakten

10. April 2026
FHFinn Hillebrandt
Claude-Statistiken 2026: Zahlen, Daten & Fakten zu Anthropic
KI-Technik

Claude-Statistiken 2026: Zahlen, Daten & Fakten zu Anthropic

3. April 2026
FHFinn Hillebrandt
Google Gemini API: Wie du einen API Key erstellst (und nutzt)
KI-Technik

Google Gemini API: Wie du einen API Key erstellst (und nutzt)

13. März 2026
FHFinn Hillebrandt
GPT-3.5 vs. GPT-4: Was ist der Unterschied?
KI-Technik

GPT-3.5 vs. GPT-4: Was ist der Unterschied?

13. März 2026
FHFinn Hillebrandt

Bleib auf dem Laufenden mit dem KI-Newsletter

Erhalte wöchentlich die neuesten KI-Tools, Tutorials und exklusive Tipps direkt in Deinen Posteingang

Abmeldung jederzeit möglich. Etwa 4 bis 8 E-Mails im Monat. Die Einwilligung umfasst die Hinweise zu Widerruf, Versanddienstleister und Statistik gemäß unserer Datenschutzerklärung.

gradually.ai logogradually.ai

Deutschlands führende Plattform für KI-Tools und Wissen für Online-Unternehmer.

KI-Tools

  • KI-Chat
  • ChatGPT auf Deutsch
  • Text-Generator
  • Prompt-Verbesserer
  • Prompt-Link-Generator
  • FLUX KI-Bildgenerator
  • KI-Kunstgenerator
  • Midjourney Prompt-Generator
  • Veo 3 Prompt-Generator
  • AI Humanizer
  • KI-Text-Detektor
  • Gemini Wasserzeichen-Entferner
  • Alle Tools →

Kreativ-Tools

  • Blognamen-Generator
  • Buchtitel-Generator
  • Songtext-Generator
  • Künstlernamen-Generator
  • Teamnamen-Generator
  • Mindmap-Generator
  • Überschriften-Generator
  • Firmennamen-Generator
  • Slogan-Generator
  • Markennamen-Generator
  • Newsletter-Namengenerator
  • YouTube-Kanal-Namengenerator

Business-Tools

  • API-Kostenrechner
  • Token-Zähler
  • Werbeanzeigen-Generator
  • Werbetext-Generator
  • Essay-Generator
  • Story-Generator
  • Text-Umschreiber
  • Blogartikel-Generator
  • SERP-Snippet-Generator
  • E-Mail-Generator
  • E-Mail-Betreffzeilen-Generator
  • Instagram-Bio-Generator
  • KI-Hashtag-Generator

Ressourcen

  • Claude Code MCP-Server
  • Claude Code Skills
  • n8n-Hosting Vergleich
  • OpenClaw-Hosting Vergleich
  • Claude Code Plugins
  • Claude Code Use Cases
  • Claude Cowork Use Cases
  • OpenClaw Use Cases
  • Changelogs

© 2025 Gradually AI. Alle Rechte vorbehalten.

  • Blog
  • Angebote
  • Über uns
  • Impressum
  • Datenschutz