AI Agent 正在进入一个奇怪的阶段——它们变得越来越聪明,却也越来越“笨重”。一个任务,动辄要调用几十个工具,几百轮对话,模型上下文越堆越长,性能却一路下滑。就像一个记忆力超群的天才,却被信息的洪流拖入泥沼。

当大家还在比拼模型的“脑容量”时,一个中国年轻人提出了另一条路——让AI更聪明,不是靠更大的脑,而是靠更好的记忆方式。

他叫季逸超(Peak Ji),Manus联合创始人兼首席科学家。最近,他在一次和LangChain的联合研讨会上,提出了一个正在颠覆AI架构的新概念:上下文工程(Context Engineering)

图片

从iPhone破解少年,到AI Agent革命者

Peak Ji的故事,总带点“主角模板”的味道。

他18岁那年,靠自己动手破解iPhone OS 4.0,被称为“中国iPhone OS 4.0第一人”。后来又自己写出猛犸浏览器,拿到真格基金和红杉的投资。19岁登上《福布斯》封面,之后一路入选“30岁以下精英榜”。

但真正让他名声再次被提起的,是Manus——一个专注打造高效AI Agent的团队。短短几个月,他们的论文和实践经验已经成了业界标杆。MIT《科技评论》甚至把他列入“2025年35岁以下创新者”名单。

他不是在做更大的模型,而是在做更聪明的系统

为什么AI会“越聪明越笨”?

在ChatGPT点燃AI浪潮后,无数团队开始构建所谓的“智能体(Agent)”:能自主规划任务、调用工具、执行复杂操作的AI。

问题是——随着任务复杂度增加,这些Agent的上下文(也就是它的“记忆”)会迅速膨胀。每次工具调用、每轮对话,都会往模型里塞入新的信息。到了几十轮后,AI自己都被“上下文噪音”淹没了。

Anthropic 的研究甚至指出,当上下文长度超过某个临界点后,模型性能会急剧下降——这个现象被他们称为 Context Rot(上下文腐烂)

这就像你让一个人记住一整本小说再回答问题——记得越多,反而越混乱。

上下文工程:让AI重新“学会思考”

Peak Ji 提出的上下文工程(Context Engineering),本质上是在教AI“如何管理记忆”。

它不是训练更大的模型,而是重新设计AI与上下文交互的方式

在和LangChain团队的交流中,他们总结出了五个关键策略,让AI不再被冗余记忆拖垮:

  1. 上下文卸载(Offloading)

    不把所有信息塞在脑子里,而是存在“外部硬盘”上。AI只保留轻量的引用,就像做笔记一样。

  2. 上下文缩减(Reduction)

    把旧信息“压缩”或“总结”,减少负担。Manus甚至区分了两种缩减方式——压缩是可逆的(信息可随时还原),总结是不可逆的(精炼保留核心)。

  3. 上下文检索(Retrieval)

    需要时再去外部系统取回来,用索引或语义搜索快速找。

  4. 上下文隔离(Isolation)

    复杂任务拆成多个子Agent,每个只关心自己的一亩三分地。

  5. 上下文缓存(Caching)

    频繁出现的信息,直接缓存以提升速度。

这五个看似技术性的词,其实讲的是一件很哲学的事——记忆不是越多越好,而是要“记得巧”


Manus的实践:真正的工程智慧

Manus不是只停留在理念层面。他们经历了四次系统重构、数百万次交互测试,终于提炼出一套能落地的经验。

Peak Ji 在他们的博客中写过一句话:

“如果我只能选一个指标来衡量Agent系统的质量,那就是 KV-cache 的命中率。”

因为它直接决定了性能与成本。以Claude为例,缓存命中的输入Token成本仅为未缓存的1/10。换句话说,一点缓存优化,可能省下十倍算力。

他们还做了三个非常聪明的设计:

  1. 掩码而非移除:在Agent行动空间中,不删工具,只在不合适的上下文中“屏蔽”它。

  2. 文件系统即上下文:不再依赖有限的128K窗口,而是把文件系统变成AI的外部大脑——随写随读,永久记忆。

  3. “背诵式注意力”:让AI不断重写目标清单,把长期目标反复写在“记忆末尾”,强行保持聚焦。

这听起来像在教AI“自我管理”,实际上这正是下一代智能体真正需要的能力。


上下文工程 vs 模型微调:真正的分水岭

很多初创公司一上来就想着微调模型,Peak Ji 却走了相反的路。

他说,过早训练自有模型是慢性毒药。

它会让团队被训练周期拖慢创新节奏,一个模型迭代周期就可能消耗两周。而在市场变化极快的AI赛道,这种延迟几乎是致命的。

更危险的是,团队可能在为“无意义的基准测试”优化,却忽略了真正影响用户体验的因素。

Peak的结论很直接:

“初创公司应尽可能依赖通用模型和上下文工程,直到产品足够成熟。”

事实也证明了他是对的——当OpenAI发布MCP协议后,Manus几乎立刻转向新架构。如果他们当初是微调自有模型,这个切换几乎不可能完成。


压缩与总结:AI的“记忆术”

在Manus的上下文管理体系里,最核心的一环是压缩(Compaction)与总结(Summarization)

压缩是一种“可逆的忘记”——把信息暂时藏到外部系统,只留下关键索引。

总结则是“有意识的遗忘”——舍弃细节,保留精华。

他们甚至建立了多层阈值机制:

当上下文逼近128K token,就先触发压缩;

如果多次压缩后仍超限,才动用总结。

这是工业级的工程思维——不求完美,但求稳妥。


一种新的工程哲学:建造更少,理解更多

Peak Ji 在研讨会的最后说了一句让人印象很深的话:

“最好的性能提升,来自删掉复杂度,而不是增加复杂度。”

这不是一句鸡汤,而是他从无数失败版本里悟出来的经验。

过去半年里,Manus最大的进步,来自删掉了不必要的上下文层移除了冗余逻辑,让模型自己去“理解”,而不是人为地“控制”。

这是一种新的AI工程哲学:

让AI更强的关键,不是堆更多模块,而是让它的思考路径更清晰

当AI模型的战争还在比拼参数和算力时,Peak Ji 用“上下文工程”提醒整个行业——真正的智能,不在模型的大小,而在于它能否像人一样“有选择地记得”。

建造更少,理解更多。

这句话,或许正是未来AI系统设计的黄金法则。

了解更多AI资讯,职场思考,科技资讯,扫码加入群聊,解锁更多精彩内容

图片

更多推荐