从提示词工程到上下文工程:让 AI 成为工程管理伙伴
真正让 AI 参与工程管理的关键,不是更聪明的提示词,而是更丰富的上下文。
引言
在早期的 AI 应用阶段,提示词工程(Prompt Engineering) 是核心能力——我们通过巧妙的提示词来引导模型输出更优的结果。然而,随着 AI 被应用到更复杂的企业级场景中(如工程项目规划、资源调度、团队管理等),仅靠单一提示词已难以支撑复杂任务。
此时,上下文工程(Context Engineering) 成为新的范式:
不再只是编写“一个好的问题”,而是系统性地构建一个让 AI“理解业务状态”的上下文环境。
随着智能体(Agent)能力的发展,记忆管理(Memory Management)逐渐成为决定长期任务表现的关键因素。本文将 Context Engineering 的工程化实践与主动上下文管理(以 AgentFold 为代表)的思想结合,给出一个连贯且可工程化落地的路线图:从 Prompts as Code、Context Pipeline 到主动折叠与记忆调度。
Prompt Engineering 的局限性
Prompt Engineering 的核心目标是“写出好问题”,但它存在以下局限:
- 静态输入:Prompt 只能描述一时一地的场景,难以反映动态变化的项目状态。
- 缺乏上下文记忆:AI 无法根据历史数据进行连贯推理。
- 难以复用与自动化:每个 Prompt 需手动构建,缺乏工程化复用机制。
- 评估不系统:Prompt 输出效果依赖个人经验,缺乏持续优化的指标体系。
Context Engineering 的核心思想
Context Engineering(上下文工程)是 Prompt Engineering 的系统化升级,其目标是通过动态上下文构建(Dynamic Context Building)让 AI 具备“理解当前组织状态”的能力,并把提示词、模板、数据管道与模型推理编排成可观测、可测试、可回滚的软件资产。
下面的表格对比了 Prompt 与 Context 工程在核心角色上的区别,帮助理解两者的本质差异。
| 概念 | 角色 |
|---|---|
| Prompt | 问题模板(What to ask) |
| Context | 数据语境(What the AI should know) |
| LLM | 决策引擎(Who acts) |
| Pipeline | 自动化桥梁(How context and prompt are combined) |
这意味着我们不再手动构造单次 Prompt,而是让 AI 在工程环境中持续吸收数据源(如 Jira、GitHub、Notion、Slack),动态生成决策上下文并驱动自动化流程。
工程化落地方法:从 Prompt 到 Context
为了将 Prompt 转化为可交付的 Context 工程,通常可以遵循以下工程化清单:
- 明确理想输出并反推输入:将目标输出(如周报、风险分析、资源调度建议)写成模板,并列清楚所需字段。
- Prompts as Code:将模板参数化(如 Jinja2、Mustache),纳入 Git 进行 CI、评审与回滚。
- 自动化注入管道(Context Pipeline):周期性拉取数据、渲染模板、调用大语言模型(LLM, Large Language Model)、写回摘要或报告。
- 指标与评估(Evals):建立持续回归测试,防止模型或 Prompt 更新引入回归。
下面通过具体示例说明参数化 Prompt 及其在流水线中的应用。
示例:参数化 Prompt(Jinja2)
以下代码展示了如何用 Jinja2 模板参数化上下文信息,便于自动化注入和复用。
<context>
当前季度:{{ current_quarter }}
项目:{{ project_name }}
风险:{{ risk_summary }}
团队状态:{{ team_summary }}
</context>
<action>
请根据以上数据输出资源重分配建议与风险缓解计划。
</action>
示例流水线(简化)
通过下方的流水线示例,可以看到数据如何从采集、模板渲染到最终推理和通知的自动化流程。
fetch_data_from_jira.py → context.json
jinja_render(context_template.j2, context.json) → final_prompt.txt
call_llm(final_prompt.txt) → recommendation.md
post_to_slack(recommendation.md)
将 AgentFold 的主动折叠纳入 Context Engineering
在长时程任务中,仅靠更长的历史或更大的模型是不可持续的。AgentFold 的核心贡献,是把“折叠(Folding)”作为智能体(Agent)的常规操作,使记忆成为可调度的资源:既避免上下文爆炸,又尽量保留可检索的关键信息。
为什么折叠(Folding)重要
在工程管理场景下,折叠机制有助于平衡上下文信息的完整性与可用性,具体体现在以下几个方面:
- 上下文爆炸(Context Saturation):如 ReAct 等方法保留完整历史,tokens 迅速增长;
- 信息遗失(Irreversible Loss):简单摘要可能丢失决策线索;
- 折叠旨在两者间达成平衡:将短期细节抽象为多尺度摘要(Multi-Scale State Summaries),既可检索又可解释。
折叠类型(示例)
下表总结了常见的折叠类型及其作用,便于理解折叠在实际工程中的应用。
| 折叠类型 | 作用 | 示例 |
|---|---|---|
| Granular Condensation | 压缩最近一步或工具调用为一句话要点 | 「在网页 X 中找到线索 A」 |
| Deep Consolidation | 合并多步交互为抽象结论或策略变更 | 「验证子任务 B 失败,切换搜索方向」 |
通过动态折叠,系统可以在数百步交互后把上下文控制在合理的 token 预算内,同时保留关键决策线索。
感知 - 推理 - 折叠 - 行动(PRFA)循环
下图展示了感知(Perceive)、推理(Reason)、折叠(Fold)、行动(Act)这一循环过程,有助于理解上下文工程的动态演化。
在工程化流水线中,PRFA 的每一环都应映射到可观察、可回放的组件:数据采集、临时上下文构建、模型推理、折叠写回与存储、以及最终的执行或通知。
响应结构(让模型学会反思)
建议将大语言模型(LLM)每一步输出规范为包含下列字段的结构体,便于后续自动化处理与回溯。
{
"thinking": "...",
"folding": {"range": [6, 16], "summary": "前 11 步均未找到目标位置,切换搜索方向"},
"explanation": "多次尝试失败,推断当前路径无效,准备更换策略",
"action": {"tool": "search", "args": {"query": "specialty food shop Mexico California"}}
}
这样系统既能驱动下一步动作,也能把折叠摘要写回 SummaryDB 或向量索引供后续检索。
Fold-Generator 与训练管线(工程化建议)
在实际工程中,可以通过以下方法提升折叠能力的质量与可控性:
- 用强模型自动生成高质量折叠轨迹;
- 用拒绝采样(Rejection Sampling)保证格式与语义质量;
- 通过 SFT(Supervised Fine-Tuning)把折叠从 prompt 层面迁移为模型内生行为;
- 把折叠策略纳入 CI 与评测(Evals),持续监控信息损耗与任务绩效。
可扩展架构示意
下图展示了上下文控制器、LLM 推理引擎与存储系统之间的协作关系,体现了折叠能力在整体架构中的位置。
在 LangGraph 等编排框架中,可以将“折叠记忆节点”作为可复用组件,便于灵活集成。
class FoldableMemory(BaseMemory):
def condense(self, last_interaction):
"""把最近一次交互压缩为要点并写回 SummaryDB"""
...
def consolidate(self, start, end):
"""把一段交互合并为抽象结论"""
...
把折叠能力整合进 Context Pipeline(落地清单)
为了将折叠能力工程化集成到上下文流水线中,可以参考以下实践要点:
- 在 Context Builder 中暴露历史检索接口,支持按摘要粒度选择检索窗口;
- 在每次推理后把 folding 输出写入 SummaryDB 与向量索引;
- 通过 FoldingPolicy 控制何时做 Granular Condensation、何时做 Deep Consolidation;
- 把 Folding 行为纳入 Evals,建立信息保真度与任务效果的权衡曲线(trade-off curve)。
实践案例回顾
以下是将上下文工程与主动折叠策略结合的实际应用流程:
- AI 每周自动从 Jira、GitHub、Notion 中获取最新任务;
- Context Builder 生成当前项目视图,并将该视图与历史摘要供 LLM 检索;
- LLM 在推理后产出 action 与 folding 指令;
- Folding Engine 把新生成的摘要写入 SummaryDB,并更新向量索引以便后续检索;
- 系统将最终建议发到 Slack 给管理层。
AI 管理伙伴的未来
通过将 Context Engineering 与主动折叠策略结合,AI 可以从被动的提示词助手进化为工程组织的“第二大脑”。未来能力包括:
- 主动发现瓶颈并提出行动建议;
- 预测交付风险并生成缓解方案;
- 自动进行跨团队协调建议与任务重分配;
- 多代理共享记忆池(Shared Context Pool),跨项目复用抽象经验;
- 强化学习折叠策略(RL for Folding Policy),让 Agent 学会何时与如何折叠。
总结
Prompt Engineering 让我们能和 AI 对话;Context Engineering 让 AI 理解业务状态,而主动折叠(AgentFold)为其赋予记忆管理能力,使智能体能“整理、抽象与反思”。三者结合,能够让 AI 从“被动问答”升级为“持续管理与优化决策流程”的工程伙伴。