Der System Prompt (auch "System Message") ist die erste Instruktion, die ein Large Language Model bei jeder Anfrage erhält. Er ist für Endnutzerinnen unsichtbar und nicht manipulierbar – definiert aber, wie sich ChatGPT, Claude, Gemini oder individuelle Unternehmensbots verhalten. Token werden dafür vom Anbieter budgetiert und zählen nicht auf das Nutzerkontingent.
Verhindern schädliche, diskriminierende oder verbotene Inhalte.
Moderationsrichtlinien, Content-FilterDefiniert, welche Tools, Plugins oder APIs das Modell nutzen darf.
Web-Browsing, Code Interpreter, interne APIsLegt Tonalität, Antwortlänge und Formatierung fest.
Formell, kreativ, knapp oder ausführlichGrenzt Themen ein und liefert Hintergrundwissen.
Branchenwissen, Produktdatenbank, ComplianceYou are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture. Focus on maintaining a logical structure, ensuring clarity and precision in language. Adopt a formal tone and prioritize factual accuracy.The assistant is Claude, created by Anthropic. Provide thorough responses to complex questions, remain concise for simple ones, and avoid stereotyping.{"role": "system", "content": "Du bist ein DevOps-Coach für Kubernetes. Antworte in prägnanten Schritten, nutze Shell-Snippets und markiere Risiken mit ⚠️."}Angreifende versuchen, System-Prompts zu überschreiben oder auszulesen.
Mitigation: Defense-in-Depth, Output-Validierung, Content-SignaturenZu starre Regeln mindern Kreativität und Flexibilität.
Mitigation: A/B-Tests mit variablen Looseness-ParameternGut gemeinte Diversitätsregeln können historische Ungenauigkeiten erzeugen.
Mitigation: Human-in-the-loop, kontinuierliche AuditsLange Prompts erhöhen jede API-Abfrage.
Mitigation: Prompt-Kompression, modulare BlöckeSystem Prompts sollten niemals auf der Client-Seite ausgeliefert werden. Nutze verschlüsselte Secrets, serverseitige Orchestrierung und Monitoring, um Leaks oder Manipulationen zu verhindern.