上下文工程崛起:天才少年Peak Ji,揭开AI Agent的真相
一个任务,动辄要调用几十个工具,几百轮对话,模型上下文越堆越长,性能却一路下滑。一个任务,动辄要调用几十个工具,几百轮对话,模型上下文越堆越长,性能却一路下滑。当AI模型的战争还在比拼参数和算力时,Peak Ji 用“上下文工程”提醒整个行业——真正的智能,不在模型的大小,而在于它能否像人一样“有选择地记得”。因为它直接决定了性能与成本。:不再依赖有限的128K窗口,而是把文件系统变成AI的外部大
AI Agent 正在进入一个奇怪的阶段——它们变得越来越聪明,却也越来越“笨重”。一个任务,动辄要调用几十个工具,几百轮对话,模型上下文越堆越长,性能却一路下滑。就像一个记忆力超群的天才,却被信息的洪流拖入泥沼。
当大家还在比拼模型的“脑容量”时,一个中国年轻人提出了另一条路——让AI更聪明,不是靠更大的脑,而是靠更好的记忆方式。
他叫季逸超(Peak Ji),Manus联合创始人兼首席科学家。最近,他在一次和LangChain的联合研讨会上,提出了一个正在颠覆AI架构的新概念:上下文工程(Context Engineering)。

从iPhone破解少年,到AI Agent革命者
Peak Ji的故事,总带点“主角模板”的味道。
他18岁那年,靠自己动手破解iPhone OS 4.0,被称为“中国iPhone OS 4.0第一人”。后来又自己写出猛犸浏览器,拿到真格基金和红杉的投资。19岁登上《福布斯》封面,之后一路入选“30岁以下精英榜”。
但真正让他名声再次被提起的,是Manus——一个专注打造高效AI Agent的团队。短短几个月,他们的论文和实践经验已经成了业界标杆。MIT《科技评论》甚至把他列入“2025年35岁以下创新者”名单。
他不是在做更大的模型,而是在做更聪明的系统。
为什么AI会“越聪明越笨”?
在ChatGPT点燃AI浪潮后,无数团队开始构建所谓的“智能体(Agent)”:能自主规划任务、调用工具、执行复杂操作的AI。
问题是——随着任务复杂度增加,这些Agent的上下文(也就是它的“记忆”)会迅速膨胀。每次工具调用、每轮对话,都会往模型里塞入新的信息。到了几十轮后,AI自己都被“上下文噪音”淹没了。
Anthropic 的研究甚至指出,当上下文长度超过某个临界点后,模型性能会急剧下降——这个现象被他们称为 Context Rot(上下文腐烂)。
这就像你让一个人记住一整本小说再回答问题——记得越多,反而越混乱。
上下文工程:让AI重新“学会思考”
Peak Ji 提出的上下文工程(Context Engineering),本质上是在教AI“如何管理记忆”。
它不是训练更大的模型,而是重新设计AI与上下文交互的方式。
在和LangChain团队的交流中,他们总结出了五个关键策略,让AI不再被冗余记忆拖垮:
-
上下文卸载(Offloading):
不把所有信息塞在脑子里,而是存在“外部硬盘”上。AI只保留轻量的引用,就像做笔记一样。
-
上下文缩减(Reduction):
把旧信息“压缩”或“总结”,减少负担。Manus甚至区分了两种缩减方式——压缩是可逆的(信息可随时还原),总结是不可逆的(精炼保留核心)。
-
上下文检索(Retrieval):
需要时再去外部系统取回来,用索引或语义搜索快速找。
-
上下文隔离(Isolation):
复杂任务拆成多个子Agent,每个只关心自己的一亩三分地。
-
上下文缓存(Caching):
频繁出现的信息,直接缓存以提升速度。
这五个看似技术性的词,其实讲的是一件很哲学的事——记忆不是越多越好,而是要“记得巧”。
Manus的实践:真正的工程智慧
Manus不是只停留在理念层面。他们经历了四次系统重构、数百万次交互测试,终于提炼出一套能落地的经验。
Peak Ji 在他们的博客中写过一句话:
“如果我只能选一个指标来衡量Agent系统的质量,那就是 KV-cache 的命中率。”
因为它直接决定了性能与成本。以Claude为例,缓存命中的输入Token成本仅为未缓存的1/10。换句话说,一点缓存优化,可能省下十倍算力。
他们还做了三个非常聪明的设计:
-
掩码而非移除:在Agent行动空间中,不删工具,只在不合适的上下文中“屏蔽”它。
-
文件系统即上下文:不再依赖有限的128K窗口,而是把文件系统变成AI的外部大脑——随写随读,永久记忆。
-
“背诵式注意力”:让AI不断重写目标清单,把长期目标反复写在“记忆末尾”,强行保持聚焦。
这听起来像在教AI“自我管理”,实际上这正是下一代智能体真正需要的能力。
上下文工程 vs 模型微调:真正的分水岭
很多初创公司一上来就想着微调模型,Peak Ji 却走了相反的路。
他说,过早训练自有模型是慢性毒药。
它会让团队被训练周期拖慢创新节奏,一个模型迭代周期就可能消耗两周。而在市场变化极快的AI赛道,这种延迟几乎是致命的。
更危险的是,团队可能在为“无意义的基准测试”优化,却忽略了真正影响用户体验的因素。
Peak的结论很直接:
“初创公司应尽可能依赖通用模型和上下文工程,直到产品足够成熟。”
事实也证明了他是对的——当OpenAI发布MCP协议后,Manus几乎立刻转向新架构。如果他们当初是微调自有模型,这个切换几乎不可能完成。
压缩与总结:AI的“记忆术”
在Manus的上下文管理体系里,最核心的一环是压缩(Compaction)与总结(Summarization)。
压缩是一种“可逆的忘记”——把信息暂时藏到外部系统,只留下关键索引。
总结则是“有意识的遗忘”——舍弃细节,保留精华。
他们甚至建立了多层阈值机制:
当上下文逼近128K token,就先触发压缩;
如果多次压缩后仍超限,才动用总结。
这是工业级的工程思维——不求完美,但求稳妥。
一种新的工程哲学:建造更少,理解更多
Peak Ji 在研讨会的最后说了一句让人印象很深的话:
“最好的性能提升,来自删掉复杂度,而不是增加复杂度。”
这不是一句鸡汤,而是他从无数失败版本里悟出来的经验。
过去半年里,Manus最大的进步,来自删掉了不必要的上下文层,移除了冗余逻辑,让模型自己去“理解”,而不是人为地“控制”。
这是一种新的AI工程哲学:
让AI更强的关键,不是堆更多模块,而是让它的思考路径更清晰。
当AI模型的战争还在比拼参数和算力时,Peak Ji 用“上下文工程”提醒整个行业——真正的智能,不在模型的大小,而在于它能否像人一样“有选择地记得”。
建造更少,理解更多。
这句话,或许正是未来AI系统设计的黄金法则。
了解更多AI资讯,职场思考,科技资讯,扫码加入群聊,解锁更多精彩内容

更多推荐
所有评论(0)