Zum Hauptinhalt springen

OpenAI Codex CLI Befehle: Die ultimative Liste

Alle OpenAI Codex CLI Befehle erklärt: Von Installation bis MCP-Integration. Die vollständige Anleitung für OpenAIs Terminal-KI mit GPT-5.

FHFinn Hillebrandt
KI-Programmierung
OpenAI Codex CLI Befehle: Die ultimative Liste
Mit * gekennzeichnete Links sind Affiliate-Links. Kommt über solche Links ein Kauf zustande, bekommen wir eine Provision.

„Schon wieder ein neues KI-Terminal-Tool?" Das war mein erster Gedanke, als OpenAI im August 2025 Codex CLI ankündigte. Nach Claude Code dachte ich ehrlich: Brauchen wir das wirklich?

Dann hab ich Codex CLI getestet. Und wow - das Teil hat mich überrascht. Nicht nur, dass es GPT-5 nutzt (ja, das neue Modell ist krass gut), es läuft auch komplett lokal in deinem Terminal. Keine Browser-Tabs, kein Hin- und Herkopieren. Einfach codex tippen und loslegen.

Nach drei Wochen intensiver Nutzung zeige ich dir heute alle OpenAI Codex CLI Befehle - von der Installation bis zu fortgeschrittenen MCP-Integrationen. Dies ist die vollständigste deutsche Referenz, die du finden wirst.

TL;DRDas Wichtigste in Kürze
  • OpenAI Codex CLI bietet direkten Terminal-Zugriff auf GPT-5 mit lokaler Ausführung und Bildanalyse-Features
  • Installation via npm oder Homebrew in 2 Minuten - Authentifizierung über ChatGPT-Account oder API-Key
  • Drei Approval-Modi (Auto, Read-Only, Full Access) geben dir volle Kontrolle über Dateizugriffe und Befehlsausführung

OpenAI Codex CLI installieren: Zwei Wege, ein Ziel

Die Installation von Codex CLI ist erfrischend simpel. Du brauchst nur Node.js 18+ oder Homebrew und einen ChatGPT-Account:

# Methode 1: npm (funktioniert überall)
npm install -g @openai/codex

# Methode 2: Homebrew (für Mac/Linux-Fans)
brew install codex

# Direkte Binary-Installation (ohne Package Manager)
curl -L https://github.com/openai/codex/releases/latest/download/codex-darwin-arm64 -o codex
chmod +x codex
sudo mv codex /usr/local/bin/

Authentifizierung: ChatGPT-Account oder API-Key

OpenAI bietet zwei Authentifizierungsmethoden. Die ChatGPT-Variante ist definitiv bequemer:

# Option 1: Mit ChatGPT-Account (empfohlen)
codex auth login
# Öffnet Browser für OAuth-Login

# Option 2: Mit API-Key
export OPENAI_API_KEY="sk-dein-api-key"
codex

# Option 3: Config-Datei (~/.codex/config.toml)
echo 'api_key = "sk-dein-api-key"' > ~/.codex/config.toml

Grundbefehle: Der tägliche Workflow

Die Basis-Befehle von Codex CLI sind intuitiv gestaltet. Hier meine täglichen Favoriten:

Interaktiver Modus starten

# Einfacher Start
codex

# Mit spezifischem Prompt
codex "Analysiere diese React-Komponente"

# Mit Bild-Input (NEU!)
codex -i screenshot.png "Was ist hier falsch?"

# Mehrere Bilder gleichzeitig
codex --image error1.png,error2.png "Erkläre diese Fehler"

Non-Interactive Mode (für Automatisierung)

Der Clou für CI/CD-Pipelines und Automatisierung:

# Direkte Ausführung ohne Interaktion
codex exec "Fix the failing unit tests"

# Mit Pipe-Input
echo "function add(a, b) { return a + b }" | codex "Add TypeScript types"

# Git-Integration
git diff | codex "Schreibe eine Commit-Message"

# Build-Fehler analysieren
npm run build 2>&1 | codex "Erkläre den Fehler und schlage eine Lösung vor"

Approval-Modi: Volle Kontrolle über deine Sicherheit

Das ist richtig clever gelöst - du bestimmst, was Codex CLI darf:

Modus
Was ist erlaubt?
Wann nutzen?
autoLesen, Bearbeiten, sichere Befehle ausführenStandard für normale Entwicklung
read-onlyNur Lesen und Analysieren, keine ÄnderungenFür Code-Reviews oder Analyse
full-accessUneingeschränkter Zugriff auf allesNur in isolierten Umgebungen!
# Read-Only Modus aktivieren
codex --approval read-only

# Full Access (Vorsicht!)
codex --approval full-access

# In der Config dauerhaft setzen
echo 'default_approval = "read-only"' >> ~/.codex/config.toml

Slash-Commands: Die versteckten Power-Features

Innerhalb der Codex CLI Session kannst du spezielle Befehle nutzen:

Befehl
Funktion
Beispiel / Tipp
/modelModell wechseln/model gpt-4
/clearKontext löschenSpart Tokens bei langen Sessions
/saveSession speichern/save debugging-session
/loadSession laden/load debugging-session
/contextKontext-Größe anzeigenZeigt Token-Verbrauch
/resetKompletter ResetWenn Codex verwirrt ist
/helpHilfe anzeigenZeigt alle Commands
/exitSession beendenOder Ctrl+D

CLI-Flags

Hier findest du die komplette Liste aller verfügbaren CLI-Flags:

CLI Flag
Beschreibung
Beispiel-Verwendung
--verboseAktiviert detailliertes Logging für Debugging-Zwecke. Zeigt alle API-Calls, Token-Verbrauch und interne Verarbeitung.codex --verbose "Debug diesen Code"
--dry-runSimuliert Befehle ohne tatsächliche Ausführung. Perfekt zum Testen gefährlicher Operationen.codex --dry-run "Lösche alle .log Dateien"
--systemÜberschreibt den System-Prompt für spezifische Expertise oder Personas.codex --system "Du bist ein Python-Experte" "Optimiere diesen Code"
--jsonFormatiert Output als JSON für Scripting und Automation. Ideal für CI/CD-Integration.codex --json "Liste alle Funktionen in main.js"
--timeoutSetzt maximale Ausführungszeit in Sekunden. Standard: 120, Maximum: 600.codex --timeout 300 "Refaktoriere die gesamte Codebasis"
--reasoningSteuert die Reasoning-Tiefe des Modells. Optionen: minimal, low, medium, high.codex --reasoning high "Löse dieses komplexe Problem"
--modelWählt ein spezifisches Modell. Standard: gpt-5, Alternativen: gpt-4, o3.codex --model o3 "Analysiere diese Architektur"
--sandboxKontrolliert Sandboxing-Modus: read-only, workspace-write, danger-full-access.codex --sandbox workspace-write
--configÜberschreibt Config-Werte direkt aus der Kommandozeile.codex --config temperature=0.2 "Schreibe präzisen Code"
--profileLädt vordefiniertes Konfigurationsprofil aus ~/.codex/profiles/codex --profile production "Deploy-Checks durchführen"
--ask-for-approvalApproval-Policy: untrusted, on-failure, on-request, never.codex --ask-for-approval never --sandbox danger-full-access
--image / -iFügt Bilder als Input hinzu. Unterstützt PNG, JPG, WebP. Mehrere Bilder mit Komma trennen.codex -i screenshot.png,error.jpg "Was ist hier falsch?"

MCP-Integration

Model Context Protocol (MCP) macht Codex CLI zum Schweizer Taschenmesser:

[mcp_servers.github]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-github"]
env = { GITHUB_TOKEN = "ghp_dein_token" }

[mcp_servers.postgres]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-postgres"]
env = { DATABASE_URL = "postgresql://localhost/mydb" }

[mcp_servers.slack]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-slack"]
env = { SLACK_TOKEN = "xoxb-dein-token" }

Nach der Konfiguration hast du Zugriff auf erweiterte Funktionen:

# GitHub-Integration nutzen
codex "Erstelle ein Issue für den Bug in Zeile 42"

# Datenbank-Queries
codex "Zeige alle User, die sich heute registriert haben"

# Slack-Nachrichten
codex "Poste den Deploy-Status in #dev-channel"

# Alles kombiniert
codex "Analysiere den letzten Commit, teste die Änderungen und poste das Ergebnis in Slack"

Konfiguration und Anpassung

Die ~/.codex/config.toml ist deine Schaltzentrale:

# Authentifizierung
api_key = "sk-xxx" # Optional, wenn nicht via OAuth

# Standard-Einstellungen
default_model = "gpt-5"
default_approval = "auto"
temperature = 0.7
max_tokens = 4000

# Logging
log_level = "info" # debug, info, warn, error
log_file = "~/.codex/codex.log"

# Performance
cache_enabled = true
cache_ttl = 3600 # Sekunden

# Sicherheit
zero_data_retention = true
disable_telemetry = true

# Custom Prompts
[prompts]
startup = "Du bist ein Senior Developer mit 10 Jahren Erfahrung."
error_analysis = "Erkläre Fehler ausführlich mit Lösungsvorschlägen."

# MCP-Server (siehe oben)
[mcp_servers]
# ...

Troubleshooting

Problem
Mögliche Ursache
Lösung
Authentication failedAbgelaufener Tokencodex auth logout && codex auth login
Command not foundPATH nicht gesetztexport PATH=$PATH:/usr/local/bin
Timeout errorsZu große Anfrage--timeout erhöhen oder Query aufteilen
MCP server not workingFehlende Dependenciesnpx installieren, Server neu starten
High token usageZu viel Kontext/clear nutzen oder --max-tokens setzen
Slow responsesGPT-5 überlastet/model gpt-4 für schnellere Antworten

Häufig gestellte Fragen

FH

Finn Hillebrandt

KI-Experte & Blogger

Finn Hillebrandt ist der Gründer von Gradually AI, SEO- und KI-Experte. Er hilft Online-Unternehmern, ihre Prozesse und ihr Marketing mit KI zu vereinfachen und zu automatisieren. Finn teilt sein Wissen hier auf dem Blog in 50+ Fachartikeln sowie über seinen ChatGPT-Kurs und den KI Business Club.

Erfahre mehr über Finn und das Team, folge Finn bei LinkedIn, tritt seiner Facebook-Gruppe zu ChatGPT, OpenAI & KI-Tools bei oder mache es wie 17.500+ andere und abonniere seinen KI-Newsletter mit Tipps, News und Angeboten rund um KI-Tools und Online-Business. Besuche auch seinen anderen Blog, Blogmojo, auf dem es um WordPress, Bloggen und SEO geht.