用经典编程规则喂饱你的 AI 编码 Agent

用经典编程规则喂饱你的 AI 编码 Agent

AI Coding Agent 写代码的速度远超人类,但它们不天然知道什么代码算是好代码。没有明确约束,Agent 产出的代码在 demo 里看起来功能完整,三个月后在维护追索里看起来一团乱——函数过长、命名猜谜、层层依赖交织无处下刀。agent-rules-books 把 14 本经典软件工程书籍的核心决策逻辑,蒸馏成 Agent 可以直接读的规则集,每本书给三个粒度:full(参考)、mini(推荐日常)、nano(紧急空间)。

该用哪本书

每本书对应一类场景。Clean Code 管日常可读性和命名,Clean Architecture 管依赖方向和边界隔离,DDD 管领域模型和限界上下文,DDIA 管数据一致性和事件流,Release It! 管生产韧性。日常编码选 Clean Code 或 Code Complete,架构选 Clean Architecture 搭 DDD,重构用 Refactoring 搭 A Philosophy of Software Design,遗留代码接力给 Working Effectively with Legacy Code。规则集之间有兼容矩阵标注了互补、重叠和冲突——DDD 和 Patterns of EAA 冲突,不应同时作为主规则加载。

怎么喂给 Agent

每家的姿势不同。Claude Code 最简单:把选中的 mini 版当作 AGENTS.md,在 CLAUDE.md 中写一行 @AGENTS.md 引入。Codex 放根目录 AGENTS.md,子树用 AGENTS.override.md 做局部覆盖,重复性流程做成 .agents/skills/。Cursor 建议走 .cursor/rules/ 的 path scoped 模式:base.mdc 做 Always 短规则、payments.mdc 自动附在对应路径、refactor.mdc 手动触发。核心原则是一个项目只塞一个 mini 版作为 always-on 基础,更强的按需用 skill 或临时会话加载,避免把多个 full 版拍进根文件——那样 Agent 读完规则已经没有空间给你的代码了。

这些规则不是书籍替代品,而是轻量级工作协议。它们帮你记住决策点,而你读过的每一本原著才给了你判断力。

相关文章

Claude Code 2.1.136:当 AI Agent 的安全阈门从‘相信’变成‘验证’

Claude Code 2.1.136:当 AI Agent 的安全阈门从‘相信’变成‘验证’

你让 Claude Code 在 auto mode 下跑一个长任务,回来发现它把你的 AWS credentials 写进了日志文件。或者更糟:它在你没看到的一个弹窗里点了 "允许",然后把一个安全 ...

Agent 失败时:不会无限循环的恢复模式

Agent 的失败不抛异常。它们产出看起来合理但错误的输出,或者用稍微不同的方式悄悄重试同一个坏方法。把 Agent 包在 try/catch 里是错误的心智模型——Agent 没崩,它只是继续往一个 ...

没有标准答案的 Agent 怎么评测

评测一个 Prompt 已经很难。评测一个在给出答案前要跑十次工具调用的 Agent,是另一个量级的难。能产生正确答案的轨迹很少完全相同。能产生错误答案的轨迹常常一直看起来合理,直到第七步。标准的精确 ...

Agent 护栏:在不阉割 Agent 的前提下

给 Agent 加护栏属于那种简单版本太严苛、谨慎版本太宽松的任务。挡得太狠 Agent 拒绝完全合理的任务;挡得太松,新闻头条自己就写出来了。第一版要么是什么都不肯做的聊天机器人,要么是不该做那件事 ...

Agent Harness:为什么你的模型不是问题所在

LangChain 在 TerminalBench 2.0 上从 30 名开外飙到了第 5 名。他们没有换模型。同一个 LLM。同样的参数。唯一改变的是包裹在模型外面的那层软件——Harness。 ...

Planner-Executor 拆分:什么时候该拆,什么时候该合

第一天,让单个模型同时做规划和执行,看起来很优雅。三个月后,trace 日志会讲一个不同的故事:Prompt 里负责规划的那部分在工具调用上下文中开始漂移,负责执行的那部分开始幻觉出从未被规划过的步骤 ...

Postiz Agent CLI:把 28 个社交平台的发布权交给你的 AI

你写了一个能读 RSS、能总结论文、能生成配图的 AI Agent,结果发现最后一英里卡住了:它没法把内容发出去。 不是技术问题,是生态断层。大多数社交媒体平台只给人类设计 UI,API 文档散落在 ...

工具选择:什么时候该模型挑,什么时候该你挑

会用工具的 Agent 在 demo 里看起来很有力,因为模型在选下一步做什么。它在生产里看起来很脆弱,因为模型在选下一步做什么。可用工具的空间随特性线性增长,随边界情况二次增长——超过大约十二个工具 ...

Claude Code 102 教给学术研究者的五件事

Claude Code 102 教给学术研究者的五件事

2026 年 5 月 11 日,Mushtaq Bilal, PhD 发布了《Claude Code 102 for Academic Researchers》,这是他教程系列的第二篇。第一篇 Cla ...

Dexter:为金融研究而生的自主 Agent

Dexter:为金融研究而生的自主 Agent

金融研究是一个天然适合 AI Agent 的领域——数据公开、步骤可结构化、输出是分析而非行动。但多数通用 Agent 在这个场景里会暴露两个问题:碰到的数据格式太多太杂,每步都要重新理解上下文;缺少 ...

文件驱动的 Agent,不需要构建步骤

周五晚上还在排 pitch deck 格式的投行分析师,并没有在创造 alpha。他们在给数字画框——那些数字早就从 CapIQ 拉出来了,早就在模型里交叉验证过了,早就被 VP 批过了。横在数据和格 ...

OpenClaw 终于长出手和眼:Peekaboo v3

OpenClaw 终于长出手和眼:Peekaboo v3

OpenClaw 之前能接消息、能调 Agent、能把结果送到各个聊天渠道,但缺一双手和眼睛。Agent 在聊天框里给建议容易,要它实际操作桌面上的按钮、菜单、弹窗、输入框,之前没有可靠的本地执行层。 ...

Claude Code 之父:编程已死,loop 永生

Claude Code 之父:编程已死,loop 永生

一个人,一天提交 150 个 PR,全部用手机完成,一行代码都没亲手写。这个人是 Boris Cherny,Claude Code 的创造者。他在 Sequoia AI Ascent 2026 上聊了 ...