信息图
智能体工程8级跃迁
L1-2: 基础工具
Tab补全和Agent IDE。模型作为助手,帮助完成你描述的代码片段。
L3: 上下文工程
优化Prompt和上下文质量。确保模型看到的是精准、高密度的信息。
L4: 复合工程
建立闭环机制。每次失败都是为了让下次更好,通过规则文件固化经验。
L5: 工具与技能
赋予Agent动手能力。连接数据库、CI/CD、API,让Agent不仅能想更能做。
L6: Harness工程
自动化反馈循环。构建测试、Linter等系统,让Agent能自己发现并修复错误。
L7: 后台Agent (核心)
自治执行。Agent自主规划、执行、验证。分离实施者与审查者以保证质量。
AI摘要
1. 文章主题
AI工程能力的8个层级:从简单的代码补全到自治的多智能体团队
2. 核心观点
- 核心瓶颈是能力与实践的差距,而非模型本身
- 智能体工程分为8个递进层级,每一级都是巨大的能力飞跃
- L3-6是构建基础,L7是当前最有价值的应用层级
3. 详细依据
L3: 上下文工程
- 优化每个Token的信息密度
- 包括系统提示、工具描述、会话历史管理
L4: 复合工程
- 计划-委托-评估-编码闭环
- 通过CLAUDE.md等规则文件让LLM'记住'教训
L6: Harness工程
- 构建自动化反馈循环(测试、linter)
- 约束优于指令:定义边界比给出清单更有效
L7: 后台智能体
- 计划模式正在消亡,模型可以自主规划和执行
- 分离实施者与审查者:不要让同一模型给自己打分
4. 重要金句
能力与实践之间的差距决定了团队的生产力
约束优于指令
不要让同一模型给自己打分
5. 整体总结
AI编程正在从使用工具演变为构建系统。掌握从上下文工程到自动化反馈的各个层级,是释放AI生产力的关键。L7后台智能体是目前投入产出比最高的层级。
🎯 费曼式简化摘要
这就像训练一支建筑队。仅仅给他们更好的砖块(模型)是不够的;他们需要学会如何看图纸(上下文),如何记住错误并写下笔记(复合工程),如何使用电动工具(MCP/技能),以及如何自我检查质量(Harness工程)。最好的工头(L7)会在你不在时管理团队工作。
🃏 原子知识卡片
#1
上下文工程 (Context Engineering)
定义: 优化输入给LLM的信息质量,强调每个Token的价值。
类比: 像给承包商写精确的规格说明书,而不是模糊的邮件。
❓ 为什么小模型即使有好的上下文也会失败?
💡 小模型对噪音更敏感,缺乏大模型的推理能力来过滤无效信息。
#2
复合工程 (Compounding Engineering)
定义: Plan-Delegate-Assess-Codify的循环,使每次会话都能改进下一次会话。
类比: 项目结束后的复盘会,并将教训写入公司的全局指令手册。
❓ 为什么LLM会重复犯错?
💡 LLM是无状态的。如果不进行明确的Codify步骤更新规则文件,它们就没有记忆。
#3
背压 (Backpressure)
定义: 自动化反馈机制(测试、linter),允许Agent在不人为干预的情况下检测和纠正错误。
类比: 有自动刹车或牵引力控制的汽车。
❓ 为什么没有背压的自治Agent会产生垃圾(slop)?
💡 没有约束或反馈,Agent会优化'完成任务'(生成Token)而不是'正确性'。