OpenAI hat einen detaillierten Leitfaden für die Nutzung von GPT-5 veröffentlicht, der sich auf die Verbesserung von agentischen Workflows, neue API-Parameter und effektive Prompting-Muster konzentriert. Der Leitfaden, der Erkenntnisse aus der Integration mit dem Code-Editor Cursor einbezieht, zielt darauf ab, die Leistungsfähigkeit und Effizienz von GPT-5 für Entwickler und Anwender zu maximieren.
GPT-5: Ein Fundament für agentische Anwendungen
GPT-5 wurde speziell für Werkzeugaufrufe, präzise Instruktionsbefolgung und die Verarbeitung langer Kontexte trainiert. Dies macht es zu einer idealen Grundlage für agentische Anwendungen. OpenAI empfiehlt für solche Szenarien die Nutzung der Responses-API. Diese API behält den Denkprozess zwischen Werkzeugaufrufen bei, was zu einer Steigerung der Effizienz und Qualität führt. Der Leitfaden zeigt auf, dass allein der Wechsel von Chat Completions zur Responses-API und die Rückgabe früherer Denkbestandteile über previous_response_id den Score im Tau-Benchmark für Handelsaufgaben von 73,9 Prozent auf 78,2 Prozent verbessert.
Steuerung der Modell-Proaktivität und des Denkaufwands
Die Proaktivität von GPT-5, auch "agentic eagerness" genannt, kann über Prompts und den Parameter reasoning_effort gesteuert werden. Um ein weniger vorpreschendes Verhalten zu erzielen, kann der Denkaufwand reduziert, klare Kriterien für die Kontextsuche definiert und ein festes Budget für Werkzeugaufrufe (z.B. maximal zwei) gesetzt werden. Bei Unsicherheiten kann das Modell auch angewiesen werden, fortzufahren.
Für mehr Eigeninitiative empfiehlt der Leitfaden höhere Denkstufen und Persistenzanweisungen, die Rückfragen minimieren. Klare Stopps, die Unterscheidung zwischen sicheren und riskanten Aktionen sowie Schwellenwerte für Rückgaben an den Nutzer sind ebenfalls wichtig. Beispielsweise sollte die Schwelle bei Kauf- und Bezahlprozessen niedriger sein als bei einer reinen Textsuche.
Optimierung von Code-Workflows und Framework-Empfehlungen
OpenAI positioniert GPT-5 als leistungsstarkes Werkzeug für die Softwareentwicklung, das in der Lage ist, große Codebasen zu bearbeiten, Fehler zu beheben und komplexe Änderungen wie mehrdateilige Refactorings oder die Neuerstellung kompletter Anwendungen durchzuführen.
Für neue Weboberflächen werden Technologien wie Next.js (TypeScript), React, HTML, Tailwind CSS, shadcn/ui und Radix Themes empfohlen. Bei der Code-Entwicklung rät der Leitfaden dazu, das technische Setup der Codebasis explizit zu spiegeln, einschließlich Prinzipien, Verzeichnisstruktur und UI/UX-Regeln.
Praxisbeispiel: Cursor und die Anpassung von GPT-5
Der Code-Editor Cursor hat GPT-5 frühzeitig getestet und seine Erfahrungen geteilt. Cursor fand eine Balance zwischen autonomem Verhalten und knappen Textmeldungen. Durch die globale Einstellung des Parameters verbosity auf niedrig und die Anweisung an das Modell, in Code-Werkzeugen ausführlicher zu sein, wurden kompakte Statusmeldungen und besser lesbare Codeänderungen erzielt.
- Verbesserte Lesbarkeit: Durch Anpassung des
verbosity-Parameters und spezifische Prompt-Anweisungen wurden Codeänderungen deutlich verständlicher. - Reduzierte Rückfragen: Präzisere Umgebungsbriefings minimierten unnötige Rückfragen des Modells.
- Optimierte Werkzeugnutzung: Eine Anpassung von "Maximal-Gründlichkeitsanweisungen" führte zu besseren Entscheidungen, wann internes Wissen ausreicht und wann externe Werkzeuge benötigt werden.
Präzise Anweisungen und neue Modi
Der neue API-Parameter verbosity steuert die Länge der finalen Antwort, unabhängig vom Denkaufwand (reasoning_effort). Dieser Parameter kann global eingestellt und punktuell per Prompt überschrieben werden.
Der "minimales Denken"-Modus bietet eine schnelle Option, die die Vorteile des Reasoning-Paradigmas beibehält. Hierfür empfiehlt OpenAI spezifische Prompts, wie eine kurze Begründungsübersicht zu Beginn der Antwort und eindeutige Werkzeuginstruktionen mit Persistenz-Erinnerungen.
OpenAI betont die Wichtigkeit präziser Anweisungen, da GPT-5 sehr genau auf Prompts reagiert. Vage oder widersprüchliche Anweisungen können die Denkspuren verwirren. Der Prompt-Optimierer von OpenAI kann helfen, solche Unklarheiten zu identifizieren.