草稿

从提示词工程到上下文工程:让 AI 成为工程管理伙伴

真正让 AI 参与工程管理的关键,不是更聪明的提示词,而是更丰富的上下文。

引言

在早期的 AI 应用阶段,提示词工程(Prompt Engineering) 是核心能力——我们通过巧妙的提示词来引导模型输出更优的结果。然而,随着 AI 被应用到更复杂的企业级场景中(如工程项目规划、资源调度、团队管理等),仅靠单一提示词已难以支撑复杂任务。

此时,上下文工程(Context Engineering) 成为新的范式:

不再只是编写“一个好的问题”,而是系统性地构建一个让 AI“理解业务状态”的上下文环境。

随着智能体(Agent)能力的发展,记忆管理(Memory Management)逐渐成为决定长期任务表现的关键因素。本文将 Context Engineering 的工程化实践与主动上下文管理(以 AgentFold 为代表)的思想结合,给出一个连贯且可工程化落地的路线图:从 Prompts as Code、Context Pipeline 到主动折叠与记忆调度。

Prompt Engineering 的局限性

Prompt Engineering 的核心目标是“写出好问题”,但它存在以下局限:

  • 静态输入:Prompt 只能描述一时一地的场景,难以反映动态变化的项目状态。
  • 缺乏上下文记忆:AI 无法根据历史数据进行连贯推理。
  • 难以复用与自动化:每个 Prompt 需手动构建,缺乏工程化复用机制。
  • 评估不系统:Prompt 输出效果依赖个人经验,缺乏持续优化的指标体系。

Context Engineering 的核心思想

Context Engineering(上下文工程)是 Prompt Engineering 的系统化升级,其目标是通过动态上下文构建(Dynamic Context Building)让 AI 具备“理解当前组织状态”的能力,并把提示词、模板、数据管道与模型推理编排成可观测、可测试、可回滚的软件资产。

下面的表格对比了 Prompt 与 Context 工程在核心角色上的区别,帮助理解两者的本质差异。

概念角色
Prompt问题模板(What to ask)
Context数据语境(What the AI should know)
LLM决策引擎(Who acts)
Pipeline自动化桥梁(How context and prompt are combined)
表 1: Prompt 与 Context 工程核心角色对比

这意味着我们不再手动构造单次 Prompt,而是让 AI 在工程环境中持续吸收数据源(如 Jira、GitHub、Notion、Slack),动态生成决策上下文并驱动自动化流程。

工程化落地方法:从 Prompt 到 Context

为了将 Prompt 转化为可交付的 Context 工程,通常可以遵循以下工程化清单:

  • 明确理想输出并反推输入:将目标输出(如周报、风险分析、资源调度建议)写成模板,并列清楚所需字段。
  • Prompts as Code:将模板参数化(如 Jinja2、Mustache),纳入 Git 进行 CI、评审与回滚。
  • 自动化注入管道(Context Pipeline):周期性拉取数据、渲染模板、调用大语言模型(LLM, Large Language Model)、写回摘要或报告。
  • 指标与评估(Evals):建立持续回归测试,防止模型或 Prompt 更新引入回归。

下面通过具体示例说明参数化 Prompt 及其在流水线中的应用。

示例:参数化 Prompt(Jinja2)

以下代码展示了如何用 Jinja2 模板参数化上下文信息,便于自动化注入和复用。

<context>
当前季度:{{ current_quarter }}
项目:{{ project_name }}
风险:{{ risk_summary }}
团队状态:{{ team_summary }}
</context>

<action>
请根据以上数据输出资源重分配建议与风险缓解计划。
</action>

示例流水线(简化)

通过下方的流水线示例,可以看到数据如何从采集、模板渲染到最终推理和通知的自动化流程。

fetch_data_from_jira.py → context.json
jinja_render(context_template.j2, context.json) → final_prompt.txt
call_llm(final_prompt.txt) → recommendation.md
post_to_slack(recommendation.md)

将 AgentFold 的主动折叠纳入 Context Engineering

在长时程任务中,仅靠更长的历史或更大的模型是不可持续的。AgentFold 的核心贡献,是把“折叠(Folding)”作为智能体(Agent)的常规操作,使记忆成为可调度的资源:既避免上下文爆炸,又尽量保留可检索的关键信息。

为什么折叠(Folding)重要

在工程管理场景下,折叠机制有助于平衡上下文信息的完整性与可用性,具体体现在以下几个方面:

  • 上下文爆炸(Context Saturation):如 ReAct 等方法保留完整历史,tokens 迅速增长;
  • 信息遗失(Irreversible Loss):简单摘要可能丢失决策线索;
  • 折叠旨在两者间达成平衡:将短期细节抽象为多尺度摘要(Multi-Scale State Summaries),既可检索又可解释。

折叠类型(示例)

下表总结了常见的折叠类型及其作用,便于理解折叠在实际工程中的应用。

折叠类型作用示例
Granular Condensation压缩最近一步或工具调用为一句话要点「在网页 X 中找到线索 A」
Deep Consolidation合并多步交互为抽象结论或策略变更「验证子任务 B 失败,切换搜索方向」
表 2: 折叠类型与作用示例

通过动态折叠,系统可以在数百步交互后把上下文控制在合理的 token 预算内,同时保留关键决策线索。

感知 - 推理 - 折叠 - 行动(PRFA)循环

下图展示了感知(Perceive)、推理(Reason)、折叠(Fold)、行动(Act)这一循环过程,有助于理解上下文工程的动态演化。

图 1: PRFA 循环流程
图 1: PRFA 循环流程

在工程化流水线中,PRFA 的每一环都应映射到可观察、可回放的组件:数据采集、临时上下文构建、模型推理、折叠写回与存储、以及最终的执行或通知。

响应结构(让模型学会反思)

建议将大语言模型(LLM)每一步输出规范为包含下列字段的结构体,便于后续自动化处理与回溯。

{
  "thinking": "...",        
  "folding": {"range": [6, 16], "summary": "前 11 步均未找到目标位置,切换搜索方向"},
  "explanation": "多次尝试失败,推断当前路径无效,准备更换策略",
  "action": {"tool": "search", "args": {"query": "specialty food shop Mexico California"}}
}

这样系统既能驱动下一步动作,也能把折叠摘要写回 SummaryDB 或向量索引供后续检索。

Fold-Generator 与训练管线(工程化建议)

在实际工程中,可以通过以下方法提升折叠能力的质量与可控性:

  • 用强模型自动生成高质量折叠轨迹;
  • 用拒绝采样(Rejection Sampling)保证格式与语义质量;
  • 通过 SFT(Supervised Fine-Tuning)把折叠从 prompt 层面迁移为模型内生行为;
  • 把折叠策略纳入 CI 与评测(Evals),持续监控信息损耗与任务绩效。

可扩展架构示意

下图展示了上下文控制器、LLM 推理引擎与存储系统之间的协作关系,体现了折叠能力在整体架构中的位置。

图 2: 折叠能力架构示意
图 2: 折叠能力架构示意

在 LangGraph 等编排框架中,可以将“折叠记忆节点”作为可复用组件,便于灵活集成。

class FoldableMemory(BaseMemory):
  def condense(self, last_interaction):
    """把最近一次交互压缩为要点并写回 SummaryDB"""
    ...
  def consolidate(self, start, end):
    """把一段交互合并为抽象结论"""
    ...

把折叠能力整合进 Context Pipeline(落地清单)

为了将折叠能力工程化集成到上下文流水线中,可以参考以下实践要点:

  • 在 Context Builder 中暴露历史检索接口,支持按摘要粒度选择检索窗口;
  • 在每次推理后把 folding 输出写入 SummaryDB 与向量索引;
  • 通过 FoldingPolicy 控制何时做 Granular Condensation、何时做 Deep Consolidation;
  • 把 Folding 行为纳入 Evals,建立信息保真度与任务效果的权衡曲线(trade-off curve)。

实践案例回顾

以下是将上下文工程与主动折叠策略结合的实际应用流程:

  • AI 每周自动从 Jira、GitHub、Notion 中获取最新任务;
  • Context Builder 生成当前项目视图,并将该视图与历史摘要供 LLM 检索;
  • LLM 在推理后产出 action 与 folding 指令;
  • Folding Engine 把新生成的摘要写入 SummaryDB,并更新向量索引以便后续检索;
  • 系统将最终建议发到 Slack 给管理层。

AI 管理伙伴的未来

通过将 Context Engineering 与主动折叠策略结合,AI 可以从被动的提示词助手进化为工程组织的“第二大脑”。未来能力包括:

  • 主动发现瓶颈并提出行动建议;
  • 预测交付风险并生成缓解方案;
  • 自动进行跨团队协调建议与任务重分配;
  • 多代理共享记忆池(Shared Context Pool),跨项目复用抽象经验;
  • 强化学习折叠策略(RL for Folding Policy),让 Agent 学会何时与如何折叠。

总结

Prompt Engineering 让我们能和 AI 对话;Context Engineering 让 AI 理解业务状态,而主动折叠(AgentFold)为其赋予记忆管理能力,使智能体能“整理、抽象与反思”。三者结合,能够让 AI 从“被动问答”升级为“持续管理与优化决策流程”的工程伙伴。

参考文献

文章导航

章节内容

这是章节的内容页面。

章节概览