Skip to content

Référence

Ces notes expliquent comment utiliser les modèles comme un harnais fonctionnel plutôt que comme un simple ensemble de fichiers épars.

Notes de référence internes

  • method-map.md : faire correspondre les modes d'échec courants des exécutions longues à l'artefact ou à la politique qui les traite en premier
  • initializer-agent-playbook.md : ce que l'initialiseur doit laisser en place avant que le travail sur les fonctionnalités ne commence
  • coding-agent-startup-flow.md : flux fixe de début de session pour les sessions de codage ultérieures
  • prompt-calibration.md : comment garder les instructions racines précises sans les rendre gonflées et fragiles

Articles principaux

Cette liste est intentionnellement restreinte. Un harnais désigne le système d'exécution autour du modèle : la boucle de l'agent, l'exécution des outils, le sandboxing, l'état, le contexte, la vérification, la terminaison, l'orchestration et l'observabilité. Les articles généraux d'ingénierie de prompt ou de cadres d'agents larges n'appartiennent pas à la liste principale.

Les trois articles originaux restent la colonne vertébrale du cours :

Quelques articles 2026 très pertinents sont ajoutés :

Références étendues 2026

Ce ne sont pas des sources principales du cours, mais elles sont utiles lors de la conception de modules de harnais spécifiques. Cette section ne conserve que les sources dont le contenu couvre directement la boucle de l'agent, l'exécution des outils, la gestion du contexte, la vérification, le sandboxing, les couches de contrôle ou la gouvernance des régressions. Les produits d'agents purs, les annonces de plateforme, les études de cas d'équipe et les benchmarks sont exclus.

Les références générales strictement limitées à 2025 sont exclues de la liste principale. L'article original Anthropic de 2025 sur les harnais reste car c'est une source fondamentale du cours.

Ordre de lecture suggéré

  1. method-map.md
  2. initializer-agent-playbook.md
  3. coding-agent-startup-flow.md
  4. prompt-calibration.md
  5. OpenAI Harness engineering
  6. Anthropic Effective harnesses
  7. Anthropic Harness design for long-running application development
  8. OpenAI Codex agent loop
  9. Anthropic agent evals
  10. LangChain Improving Deep Agents
  11. Thoughtworks / Martin Fowler Harness engineering for coding agent users
  12. Cursor Continually improving our agent harness