12月2日,美国AI初创公司 Arcee AI 正式推出 Trinity 系列首批开源模型——Trinity Mini(26B MoE)与 Trinity Nano Preview(6B)。这不仅是技术发布,更是一场战略宣言。

与当前主流依赖海外算力或微调中国基座的做法不同,Trinity 全流程在美国本土完成:训练数据由 DatologyAI 构建,GPU集群来自 Prime Intellect 提供的512颗H200 + 2048颗B300,采用 Apache 2.0 协议,支持商业部署、自托管与微调。

尤其值得注意的是其新架构 AFMoE(Attention-First Mixture-of-Experts):128个专家中每token激活8个,支持131K上下文,生成速度超200 token/s。在 MMLU Zero-shot 和 BFCL V3 等企业级工具调用测试中表现亮眼。

此举直指“模型主权”(Model Sovereignty)——即对训练链路、数据来源和部署环境的完全可控。面对 Qwen、DeepSeek 等中国开源MoE模型的强势主导,Arcee 的尝试或许标志着美国正从“应用层创新”回归“基础设施自主”。

但挑战仍存:Trinity Large(420B)要到2026年1月才发布,而中国已有多款千亿级MoE模型落地。这场“开源主权之争”,才刚刚开始。

更多推荐