Vorlagen-Leitfaden
Diese Vorlagen sind bereit, in Ihr eigenes Projekt kopiert zu werden. Jede erfüllt einen bestimmten Zweck im Workflow des Agenten. Bearbeiten Sie die Inhalte, um sie an die Befehle, Pfade, Feature-Namen und Verifikationsschritte Ihres Projekts anzupassen.
Erste Schritte
Kopieren Sie diese vier Dateien zuerst in Ihr Projektverzeichnis:
AGENTS.mdoderCLAUDE.mdinit.shclaude-progress.mdfeature_list.json
Fügen Sie die restlichen Dateien hinzu, wenn Ihr Projekt wächst.
AGENTS.md
Die Haupt-Instruktionsdatei. Dies ist das Erste, was der Agent liest, wenn er eine Sitzung startet. Sie definiert die Betriebsregeln: was vor dem Schreiben von Code zu tun ist, wie gearbeitet wird und wie abgeschlossen wird.
Verwendung:
- In Ihr Projektverzeichnis kopieren
- Die Start-Workflow-Schritte durch Ihre tatsächlichen Projektpfade und -befehle ersetzen
- Die Arbeitsregeln an die Konventionen Ihres Teams anpassen
- Den Abschnitt zur Definition von Fertig beibehalten -- er ist der wichtigste Teil
Was sie für den Agenten tut:
- Sagt ihm, dass er Fortschritt und Feature-Status lesen soll, bevor er mit der Arbeit beginnt
- Zwingt ihn, an nur einem Feature gleichzeitig zu arbeiten
- Verlangt Nachweise, bevor etwas als fertig markiert wird
- Definiert, wie ein sauberes Sitzungsende aussieht
Verwenden Sie AGENTS.md für Codex oder andere Agenten. Verwenden Sie CLAUDE.md, wenn Sie mit Claude Code arbeiten -- die Struktur ist dieselbe, nur formatiert für Claudes Instruktionsstil.
init.sh
Das Startskript. Führt Abhängigkeitsinstallation, Verifikation und Ausgabe des Startbefehls aus -- alles in einem Durchgang.
Verwendung:
- In Ihr Projektverzeichnis kopieren
- Diese drei Variablen oben bearbeiten:
INSTALL_CMD-- Ihr Abhängigkeits-Installationsbefehl (z. B.npm install,pip install -r requirements.txt)VERIFY_CMD-- Ihr grundlegender Verifikationsbefehl (z. B.npm test,pytest)START_CMD-- Ihr Dev-Server-Startbefehl (z. B.npm run dev)
- Ausführbar machen:
chmod +x init.sh
Was es tut:
- Gibt das aktuelle Verzeichnis aus (damit Sie bestätigen können, dass es am richtigen Ort läuft)
- Installiert Abhängigkeiten
- Führt den Verifikationsbefehl aus
- Gibt den Startbefehl aus (oder führt ihn aus, wenn
RUN_START_COMMAND=1gesetzt ist)
Wenn die Verifikation fehlschlägt, sollte der Agent anhalten und die Baseline korrigieren, bevor er etwas anderes tut.
claude-progress.md
Das Fortschrittslog. Jede Sitzung schreibt in diese Datei, und jede neue Sitzung liest sie zuerst.
Verwendung:
- In Ihr Projektverzeichnis kopieren
- Den Abschnitt "Aktueller verifizierter Zustand" mit Ihren Projektinformationen ausfüllen
- Nach jeder Sitzung den Sitzungs-Eintrag aktualisieren
Bedeutung der einzelnen Felder:
- Aktueller verifizierter Zustand -- die einzige Wahrheitsquelle für den Projektstand
Repository-Root-Verzeichnis-- wo das Projekt liegtStandard-Startpfad-- der Befehl, um das Projekt zu startenStandard-Verifikationspfad-- der Befehl, um Tests auszuführenHöchste Priorität unfertiges Feature-- woran die nächste Sitzung arbeiten sollteAktueller Blocker-- alles, was feststeckt
- Sitzungs-Eintrag -- ein Eintrag pro Sitzung
Ziel-- was Sie vorhatten zu tunAbgeschlossen-- was tatsächlich erledigt wurdeVerifikation ausgeführt-- welche Tests ausgeführt wurdenNachweise erfasst-- welche Beweise dokumentiert wurdenCommits-- was committet wurdeBekannte Risiken-- was kaputt sein könnteNächste beste Aktion-- wo die nächste Sitzung beginnen sollte
feature_list.json
Der Feature-Tracker. Eine maschinenlesbare Liste aller Features, die der Agent implementieren muss, zusammen mit Status, Verifikationsschritten und Nachweisen.
Verwendung:
- In Ihr Projektverzeichnis kopieren
- Die Beispielfeatures durch Ihre eigenen ersetzen
- Jedes Feature benötigt:
id-- eine kurze eindeutige Kennungpriority-- Ganzzahl, niedriger = höhere Prioritätarea-- welcher Teil der App (z. B. "chat", "import", "search")title-- kurze Beschreibunguser_visible_behavior-- was der Benutzer sehen soll, wenn es funktioniertstatus-- einer vonnot_started,in_progress,blocked,passingverification-- Schritt-für-Schritt-Anleitung zur Bestätigung, dass es funktioniertevidence-- dokumentierter Nachweis, dass die Verifikation bestanden hat (vom Agenten ausgefüllt)notes-- jeglicher zusätzlicher Kontext
Statusregeln:
not_started-- noch nicht angefasstin_progress-- das aktuell bearbeitete Feature (nur eines gleichzeitig)blocked-- kann aufgrund eines dokumentierten Problems nicht fortgesetzt werdenpassing-- Verifikation bestanden und Nachweise sind dokumentiert
Der Agent sollte zu jedem Zeitpunkt nur ein Feature im Status in_progress haben.
session-handoff.md
Eine kompakte Übergabenotiz zwischen Sitzungen. Verwenden Sie diese, wenn eine Sitzung endet und Sie möchten, dass die nächste schnell anknüpfen kann.
Verwendung:
- In Ihr Projektverzeichnis kopieren
- Am Ende jeder Sitzung ausfüllen (oder den Agenten ausfüllen lassen)
Was jeder Abschnitt abdeckt:
- Aktuell verifiziert -- was als funktionierend bestätigt ist und welche Verifikation lief
- Änderungen dieser Sitzung -- welcher Code oder welche Infrastruktur sich geändert hat
- Noch kaputt oder unverifiziert -- bekannte Probleme und riskante Bereiche
- Nächste beste Aktion -- was die nächste Sitzung tun sollte und was nicht angefasst werden sollte
- Befehle -- Start-, Verifikations- und Debug-Befehle zur schnellen Referenz
Diese Datei ist optional für kleine Sitzungen. Sie wird wichtig, wenn Sitzungen lang sind oder das Projekt mehrere aktive Bereiche hat.
clean-state-checklist.md
Eine Checkliste, die vor dem Beenden jeder Sitzung durchzugehen ist. Stellt sicher, dass das Repo in einem guten Zustand ist, damit die nächste Sitzung sauber starten kann.
Verwendung:
- In Ihr Projektverzeichnis kopieren
- Vor dem Schließen einer Sitzung durchgehen
- Der Agent sollte diese Punkte auch als Teil seiner Sitzungsabschluss-Routine prüfen
Was sie prüft:
- Standard-Start funktioniert noch
- Standard-Verifikation läuft noch
- Fortschrittslog ist aktualisiert
- Feature-Liste spiegelt den tatsächlichen Zustand wider (keine falschen
passing-Einträge) - Keine halbfertige Arbeit undokumentiert gelassen
- Nächste Sitzung kann ohne manuelle Korrekturen fortgesetzt werden
evaluator-rubric.md
Ein Bewertungsbogen zur Überprüfung der Agenten-Ausgabequalität. Verwenden Sie diesen nach einer Sitzung oder bei Projektmeilensteinen, um zu bewerten, ob die Arbeit den Anforderungen entspricht.
Verwendung:
- In Ihr Projektverzeichnis kopieren
- Nach einer Sitzung (oder mehreren Sitzungen) die Arbeit des Agenten über sechs Dimensionen bewerten
- Jede Dimension wird mit 0-2 bewertet
Die sechs Dimensionen:
- Korrektheit -- entspricht die Implementierung dem Zielverhalten?
- Verifikation -- wurden die erforderlichen Prüfungen tatsächlich mit Nachweisen ausgeführt?
- Umfangdisziplin -- ist der Agent innerhalb des ausgewählten Features geblieben?
- Zuverlässigkeit -- übersteht das Ergebnis einen Neustart oder erneute Ausführung?
- Wartbarkeit -- sind Code und Dokumentation klar genug für die nächste Sitzung?
- Übergabebereitschaft -- kann eine neue Sitzung nur mit Repo-Artefakten fortgesetzt werden?
Schlussfolgerungsoptionen:
- Akzeptieren -- erfüllt die Anforderungen
- Überarbeiten -- benötigt Korrekturen vor der Akzeptanz
- Blockieren -- grundlegende Probleme, die zuerst gelöst werden müssen
Wichtig: Der Evaluator muss kalibriert werden. Im Standardzustand sind Agenten schlechte Selbstbewerter -- sie identifizieren Probleme und reden sich dann in eine Genehmigung. Sie müssen iterieren:
- Den Evaluator auf einen abgeschlossenen Sprint anwenden.
- Seine Bewertungen mit Ihrem eigenen menschlichen Urteil vergleichen.
- Wo sie abweichen, die Rubrik spezifischer zu Bestehen/Fehler-Kriterien machen.
- Erneut ausführen und die Übereinstimmung prüfen.
- Wiederholen, bis der Evaluator konsistent mit dem menschlichen Review übereinstimmt.
Planen Sie 3-5 Kalibrierungsrunden. Dokumentieren Sie jede Änderung, damit Sie verfolgen können, was die Übereinstimmung verbessert hat.
quality-document.md
Eine Qualitätsmomentaufnahme, die jede Produktdomäne und jede Architektur-Schicht in Ihrem Projekt bewertet. Verfolgt die Codebasis-Gesundheit über die Zeit, nicht nur die Ausgabe einzelner Sitzungen.
Verwendung:
- In Ihr Projektverzeichnis kopieren
- Vor Beginn einer Sitzung: lesen, um zu verstehen, wo die Codebasis am schwächsten ist
- Nach einer Sitzung: Noten basierend auf den Änderungen aktualisieren
- Über die Zeit: Momentaufnahmen vergleichen, um zu sehen, welche Harness-Änderungen die Codebasis-Gesundheit tatsächlich verbessert haben
Was bewertet wird:
- Produktdomänen (z. B. Dokumentimport, Q&A-Ablauf, Indexierung): jede Domäne erhält eine Note (A-D) für Verifikationsstatus, Agenten-Lesbarkeit, Teststabilität und wesentliche Lücken
- Architektur-Schichten (z. B. Hauptprozess, Preload, Renderer, Services): jede Schicht erhält eine Note für Grenzdurchsetzung und Agenten-Lesbarkeit
Warum es wichtig ist:
Die Evaluator-Rubrik bewertet einzelne Agenten-Ausgaben. Das Qualitätsdokument bewertet die Codebasis selbst. Sie beantworten unterschiedliche Fragen:
- Evaluator-Rubrik: "Hat der Agent in dieser Sitzung gute Arbeit geleistet?"
- Qualitätsdokument: "Wird das Projekt mit der Zeit stärker oder schwächer?"
Wann aktualisieren:
- Nach jeder bedeutenden Sitzung
- Vor Benchmark-Vergleichen
- Nach Aufräum- oder Vereinfachungsdurchläufen
- Bei Onboarding eines neuen Agenten oder Modells in das Projekt
Harness-Vereinfachungs-Bezug:
Das Qualitätsdokument unterstützt auch die Harness-Vereinfachung. Jede Harness-Komponente codiert eine Annahme darüber, was das Modell nicht kann. Wenn sich Modelle verbessern, veralten diese Annahmen. Um zu prüfen, ob eine Komponente noch benötigt wird:
- Eine Qualitätsdokument-Momentaufnahme erstellen.
- Eine Harness-Komponente entfernen.
- Die Benchmark-Aufgabensuite ausführen.
- Eine weitere Momentaufnahme erstellen.
- Vergleichen -- wenn die Noten nicht gefallen sind, war die Komponente Overhead. Wenn doch, wiederherstellen.