Claude Code Geschwindigkeitsguide | Ursachen der Langsamkeit und wie ich es 3x schneller gemacht habe
Warum Claude Code langsam wird und welche Einstellungen, Prompt-Designs und parallele Ausführungstechniken die Geschwindigkeit wirklich verdreifacht haben – aus dem täglichen Praxiseinsatz.
„Ist Claude Code in letzter Zeit langsamer geworden?”
Ich automatisiere täglich die Artikelgenerierung für diese Website mit Claude Code und hatte in der ersten Woche dieselbe Frustration. Was früher 15 Minuten pro Artikel dauerte, reduzierte sich nach Anpassung der Einstellungen auf durchschnittlich 4–5 Minuten – also ungefähr 3x schneller.
In diesem Artikel erkläre ich die grundlegenden Ursachen, warum Claude Code langsam wird, und die Geschwindigkeitsoptimierungstechniken, die ich tatsächlich getestet und wirksam befunden habe. Statt nur „wie man es schneller macht” möchte ich erklären, warum jede Technik funktioniert.
Warum wird Claude Code langsam?
Vor der Optimierung muss man die Ursachen kennen. Es gibt drei Hauptgründe, warum Claude Code träge wirkt.
Ursache 1: Der Kontext wächst zu stark an
Claude Code ruft die API mit dem vollständigen Gesprächsverlauf als Kontext auf. Je länger die Sitzung, desto mehr Daten werden bei jedem Aufruf gesendet – und desto langsamer werden die Antworten.
Direkt nach Sitzungsstart: Kontext ~2.000 Tokens → schnell
Nach 1 Stunde: Kontext ~30.000 Tokens → langsam
Nach einem halben Tag: Kontext ~80.000 Tokens → sehr langsam (oder Fehler)
Nach meiner Erfahrung halbiert sich die gefühlte Geschwindigkeit, sobald der Kontext 50.000 Tokens überschreitet.
Ursache 2: Zu viele Dateien werden gelesen
Anweisungen wie „Lies das gesamte Repository und verstehe es, bevor du implementierst" veranlassen Claude Code, eine große Anzahl von Dateien zu lesen. Die Wartezeit, wenn Dutzende von Glob- und Grep-Befehlen ausgeführt werden, ist fast ausschließlich „Zeit, die mit dem Lesen von Dateien verbracht wird”.
Ursache 3: Verarbeitungslast des Modells
Opus ist leistungsstark, aber die Generierung von Antworten dauert länger. Viele Aufgaben verwenden Opus, obwohl sie es nicht brauchen – das ist Overkill für die jeweilige Aufgabe.
Maßnahme 1: /compact zur Gewohnheit machen
Die unmittelbar wirksamste Maßnahme. Claude Code verfügt über einen /compact-Befehl, der den Gesprächsverlauf komprimiert und zusammenfasst und so den Kontext erheblich verkleinert.
# Im Claude Code REPL ausführen
/compact
Ich habe mir angewöhnt, /compact einmal pro Stunde oder bei jeder natürlichen Arbeitspause auszuführen. Das allein verbessert die gefühlte Geschwindigkeit um das 1,5- bis 2-fache.
Neue Aufgaben in einer neuen Sitzung beginnen
Für neue Aufgaben, die den Kontext früherer Arbeit nicht benötigen, ist es schneller, Claude Code neu zu starten und eine neue Sitzung zu beginnen. Der Neustart dauert weniger als 5 Sekunden.
# Beenden und neu starten
exit
claude
Wenn man auf frühere Arbeit zurückgreifen möchte, ist es am Ende schneller und genauer, nur die relevanten Informationen nach /init einzufügen, als einen langen Gesprächsverlauf mitzunehmen.
Maßnahme 2: Den Anweisungsbereich explizit eingrenzen
Das Reduzieren unnötiger Dateilesevorgänge führt zu erheblichen Geschwindigkeitssteigerungen.
Before / After Vergleich
# ❌ Langsam: Bereich zu weit gefasst
claude -p "Behebe den Bug in diesem Projekt"
# → Glob → Read × dutzende Male → dauert ewig
# ✅ Schnell: Bereich eingegrenzt
claude -p "Behebe die fehlende Nullprüfung in Zeile 108 von src/api/auth.ts"
# → Read 1 Mal → Korrektur abgeschlossen
Ein Muster, das ich häufig verwende:
# Nur bestimmte Dateien lesen lassen
claude -p "Lies nur die folgenden Dateien und behebe das Problem. Nichts anderes muss gelesen werden:
- src/components/Button.tsx
- src/styles/button.css
Problem: Hover-Stile werden nicht angewendet"
Der Zusatz „nichts anderes muss gelesen werden” stoppt unnötiges Suchverhalten.
Maßnahme 3: Das richtige Modell für die jeweilige Aufgabe verwenden
Opus für jede Aufgabe zu verwenden, ist aus Geschwindigkeitsgründen verschwenderisch.
Opus: Komplexes Design · schwieriges Debugging · Code-Review
Sonnet: Allgemeine Implementierung · Refactoring · Dokumentation
Haiku: Übersetzung · Formatierung · einfache Transformationen
Modell in Claude Code wechseln
# Modell während einer Sitzung wechseln
/model claude-sonnet-4-6
# Geschwindigkeitshinweis: Sonnet ist in der Praxis ca. 2–3x schneller als Opus
Für den Betrieb meiner Website:
- Japanischer Artikeltext → Sonnet (Strukturqualität ausreichend, schneller als Opus)
- Mehrsprachige Übersetzung → Haiku (Übersetzungsqualität absolut brauchbar, dramatisch schneller)
- Design-Diskussionen · komplexe Implementierung → Opus (hier Qualität an erster Stelle)
Diese Aufteilung brachte die Generierungszeit pro Artikel von 15 Minuten auf 4 Minuten.
Maßnahme 4: Parallele Ausführung mit Sub-Agenten
Die Parallelisierung aufwändiger Verarbeitung kann die Gesamtzeit erheblich verkürzen.
Parallele Übersetzung (die Methode, die ich tatsächlich verwende)
// ❌ Sequenzielle Übersetzung: 9 Sprachen × 30 Sekunden = 270 Sekunden (4,5 Min.)
for (const lang of languages) {
await translate(article, lang);
}
// ✅ Parallele Delegation mit Agent tool: Zeit = langsamste Sprache ≈ 30 Sekunden
// (Diese Website ging von 8 Min. auf 1,5 Min., indem alles an Sub-Agenten delegiert wurde)
Agent({
prompt: `Übersetze ${article} in 9 Sprachen und speichere jede Datei: EN/DE/ES/FR/HI/ID/KO/PT/ZH`
})
Sub-Agenten laufen in ihrem eigenen unabhängigen Kontext und verschmutzen daher den Hauptkontext nicht. Das trägt ebenfalls zur Geschwindigkeitssteigerung bei.
Maßnahme 5: Eingabe mit Prompt-Caching beschleunigen
Wenn dieselbe System-Prompt wiederholt verwendet wird, macht Prompt-Caching die Eingabeverarbeitung ca. 10x schneller. Das wirkt sich spürbar auf die gefühlte Geschwindigkeit aus.
// Einfach cache_control hinzufügen
system: [
{
type: "text",
text: longSystemPrompt,
cache_control: { type: "ephemeral" },
},
],
Wenn dieselbe System-Prompt innerhalb von 5 Minuten wiederverwendet wird, ist der zweite Aufruf spürbar schneller als der erste.
Maßnahme 6: Unnötige Erkundungen mit CLAUDE.md reduzieren
Das Eintragen von „zu verwendenden Befehlen”, „Verzeichnisstruktur” und „Nicht-lesen”-Regeln in CLAUDE.md ermöglicht es Claude Code, direkt zu handeln, ohne zu suchen.
# Projektregeln
## Häufig verwendete Befehle (müssen nicht jedes Mal nachgeschlagen werden)
- Build: npm run build
- Test: npm run test
- Deploy: bash scripts/deploy.sh
## Verzeichnisstruktur
- src/components/: UI-Komponenten
- src/pages/: Routing
- src/content/blog/: Blogartikel (MDX)
## Wichtig: Diese Verzeichnisse NICHT lesen
- node_modules/
- .wrangler/
- site/dist/
Das reduziert die Anzahl der Durchläufe, in denen Claude Code herausfindet, „wo soll ich nachschauen”, was insgesamt schneller macht.
Tatsächliche Geschwindigkeitsverbesserungszahlen (diese Website)
Als Referenz hier die tatsächlichen Ergebnisse dieser Website (claudecode-lab.com).
| Aufgabe | Vor der Optimierung | Nach der Optimierung | Reduktion |
|---|---|---|---|
| Artikelgenerierung (Japanisch) | 8 Min. | 2,5 Min. | 69% schneller |
| 9-Sprachen-Übersetzung | 7 Min. | 1,5 Min. | 79% schneller |
| Build + Deploy | 13 Min. | 11 Min. | 15% schneller |
| Gesamt (pro Artikel) | 28 Min. | 15 Min. | 46% schneller |
Durch konsequente Anwendung von /compact und Session-Management läuft die Website jetzt stabil mit 10–12 Minuten pro Artikel.
Geschwindigkeits-Checkliste
In der Reihenfolge, was zuerst zu prüfen ist.
Sofort erledigen (unter 1 Minute):
□ /compact ausführen, um den Kontext zu komprimieren
□ Eine seit langem laufende Sitzung neu starten
□ Übersetzungs-/Formatierungsaufgaben auf Haiku umstellen
Heute erledigen (30 Minuten):
□ „Nicht zu lesende Verzeichnisse" in CLAUDE.md eintragen
□ Häufig verwendete Befehle in CLAUDE.md eintragen
□ Gewohnheit entwickeln, große Aufgaben in „bereichsbegrenzte kleine Aufgaben" aufzuteilen
Diese Woche erledigen:
□ cache_control zu wiederholten Batch-Prozessen hinzufügen
□ Muster für die Delegation parallelisierbarer Aufgaben an Agent tool erstellen
□ Modellnutzungsregeln festlegen und in CLAUDE.md eintragen
Zusammenfassung
Die Grundursachen für die Langsamkeit von Claude Code sind „Kontextaufblähung” und „ineffiziente Dateisuche”. Sich dieser beiden Punkte bewusst zu sein, macht einen großen Unterschied in der gefühlten Geschwindigkeit.
Meine priorisierte Liste der wirksamsten Verbesserungen:
/compactzur Gewohnheit machen (sofortige Wirkung, keine Kosten)- Das richtige Modell für jede Aufgabe verwenden (allein das Wechseln der Übersetzung auf Haiku ist dramatisch)
- Anweisungen explizit eingrenzen (einfach „nichts anderes muss gelesen werden” hinzufügen)
- Parallele Delegation an Sub-Agenten
Das muss nicht alles auf einmal gemacht werden. Allein das Einbauen von /compact in die heutige Arbeit sollte sich bereits spürbar schneller anfühlen.
Verwandte Artikel
Bring deinen Claude-Code-Workflow aufs nächste Level
50 in der Praxis erprobte Prompt-Vorlagen zum direkten Copy-and-paste in Claude Code.
Kostenloses PDF: Claude-Code-Spickzettel in 5 Minuten
Trag einfach deine E-Mail-Adresse ein – wir senden dir den A4-Spickzettel als PDF sofort zu.
Wir behandeln deine Daten sorgfältig und senden niemals Spam.
Über den Autor
Masa
Ingenieur, der Claude Code intensiv nutzt. Betreibt claudecode-lab.com, ein Tech-Medium in 10 Sprachen mit über 2.000 Seiten.
Ähnliche Artikel
Claude Code API-Kosten meistern: 5 Techniken, die die Rechnung von $450 auf $45/Monat senken
Echte Zahlen zu Claude Code API-Preisen. So wurde durch Prompt-Caching, Modelloptimierung und Batching eine Kostenreduktion von 90 % erreicht – von $450 auf $45 pro Monat.
7 echte Produktionsausfälle mit Claude Code: Vollständige Wiederherstellung mit RCA & Prävention
7 echte Produktionsvorfälle mit Claude Code: API-Key-Leaks, DB-Löschungen, Kostenexplosionen und Serviceausfälle – mit Ursachenanalyse und Präventionsstrategien.
10 gefährliche Prompt-Muster in Claude Code | Was Sie vermeiden sollten und sichere Alternativen
10 gefährliche Prompt-Muster, die Sie Claude Code niemals geben sollten. Erfahren Sie, wie vage Anweisungen zu Codeverlust, DB-Zerstörung, explodierenden Kosten und Schlüssellecks führen.