新智元报道
编辑:编辑部 HYNZ
最近,一款由清华 90 后团队打造的 AI 利器,首次实现了只用 14.9 万元就能流畅运行满血版 DeepSeek,并且还支持顶配的 128K 上下文,堪称媲美百万级方案。
DeepSeek-R1 从开源到现在,已过去 4 个多月。
然而,高昂的硬件成本、复杂的私有化部署方案,长期以来如同天堑,隔断了一些企业、开发者们拥抱 AI 的步伐。
但如今,人手一个满血版 DeepSeek-R1/V3 671B 的时代来了!
说出来你可能不信,行云褐蚁一体机把曾经上百万才能拥有的体验,直接打到了 14.9 万元。
不仅如此,它的速度和精度更是堪比官方版本——能以超过 20 token/s的速度,运行没有经过量化的「FP8 原版」DeepSeek 模型。
这是什么概念?请看对比。
画面右侧就是 DeepSeek 官网的输出速度。而左侧,便是我们部署在一体机上的满血版 DeepSeek-R1 了。
原视频加速 2 倍
值得一提的是,刚刚发布的 Qwen3 超大杯 MoE——235B-A22B,现在也可以用上了!
打造出性价比如此惊人产品的公司,是什么来头?
原来,这家的 CEO 正是前华为天才少年、清华 90 后博士季宇。
10 万价位,单机可跑满血 DeepSeek
接下来,我们在真机上实际测试一下,这个「原版」DeepSeek-R1 到底怎么样。
先让它推理出一个笑话的笑点在哪里。
可以看出这个速度刷刷的,等待时间也很短,几乎可以忽略不计。
稍微长点的提示词,对速度也有明显的影响。
这道题只给出了一些疑似有规律的符号,而满血 DeepSeek-R1 则展示出了强大的推理能力,猜出这是词牌格式《菩萨蛮》,甚至猜出了是哪些符号分别对应的平、仄。
来一个甘蔗过门这种极易迷惑模型的问题。
DeepSeek-R1 顺利给出了正确答案,速度也无可挑剔。
甚至,它非常顺利地做出了一道 AIME 2025 数学竞赛题。
即使是这种级别的推理,输出速度也能保持在 20 token/s。
外星人来到地球上,可能会选择四件事中的一件来完成,求地球上最终没有外星人的概率。这种复杂的数学推理题,DeepSeek-R1 也顺利做了出来。
因为可以在 Dify 工作流中使用,这台一体机甚至能完成 DeepResearch 的功能。
由于模型部署在本地,所以可以基于内部的私域数据进行深度挖掘和研究服务,保障信息隐私及安全。
广泛适用于文档摘要、数据分析、代码生成等高精度复杂任务。
完整工作流如下:
极致性价比
为什么褐蚁一体机,能用 10 万元的水平,达到以上惊人的水准?
背后原因,除了得益于自研的高效推理引擎外,还有极致的硬件选型。
褐蚁系列一体机有三种型号可选,理论上参数在 1.5T 以内的模型都能支持。
甚至,即将推出的 DeepSeek-R2,预计也可以实现支持。
其中 HY90 负责提供极致的性能,671B 参数的满血 DeepSeek-R1/V3 在最高精度 FP8 下,速度能达到 21.5+ token/s;在 FP4 精度下,速度能达到 28+ token/s。
FP8
INT4
HY70 提供极致的性价比,同样是满血 FP8 精度的 DeepSeek-R1/V3,速度也能达到 20+ token/s,在 FP4 精度下,速度能达到 24+ token/s,相当炸裂。
最后,HY50 还提供了极致低价。支持 671B 参数的满血 DeepSeek-R1/V3,在 INT4 精度下可实现 20+ token/s的输出速度,相当实用。
不仅如此,褐蚁系列一体机支持多种 AI 推理引擎,支持 API 调用、知识库、AI Agent 部署,还支持全部的开源大模型。
一次购买,永久使用。
在技术实现上,行云团队尽可能提高了大模型推理时有效使用的带宽上限(理论带宽 1200 GB/s,物理实测 1050 GB/s)。
而在实际使用中,这套系统的等效带宽可以达到 800 GB/s,完全满足 740 GB/s的需求。
算力层面,团队则通过一套独家定制的软件协同优化方案,极大地提升了系统的运行效率。
输出方面,上下文长度对速度的影响被控制得很好。只有当长度达到 32K 以上时,才有一些明显的下降。
prefill 方面,16k 以内可以保持在 180~200 token/s左右,上下文首字延迟则在 80 秒以内。
具体来说,首字延迟在 1k 下是 5 秒,4k 是 20 秒,8k 是 40 秒,16k 是 80 秒。不过,在 128K 极限上下文长度下,会达到 30 分钟。
LLM 端侧部署,CPU 了解一下
说到模型的本地化部署,通常的第一反应就是 GPU 服务器。
的确,在大模型训练时,GPU 的优势可谓是独步天下——吞吐量可以达到 CPU 的数十倍甚至上百倍。
然而,在利用模型进行推理的应用阶段,一个缺点就足以把众多企业挡在门外——太贵!
以 FP8 精度为例:
-
671B 的参数量,意味着需要 671GB 以上的内存
-
37B 的激活参数,对应的是 37GB x 20 token/s = 740GB/s以上的内存带宽
也就是差不多一套 6 卡 H20 141GB,或者 10 卡 A100/A800 80GB 服务器才能跑起来。
即使按照目前市场上比较便宜的报价,这套系统的最低也要百万元以上。
为了降低成本,一些企业会采用模型量化,甚至是牺牲对话速度,来降低 LLM 对硬件的需求。
然而,量化会显著降低模型精度,尤其是在法律、医疗等需要高质量输出的场景中,可能会造成生成的结果不可靠。
而降低对话速度,则会破坏实时交互体验,客户可能因响应过慢而逐渐流失。
这种体验与成本的权衡困境,使得许多企业陷入两难——要么投入巨资追求高质量部署,要么选择低成本方案但牺牲应用效果。
结果是,LLM 应用场景被局限在少数高预算领域,难以在更广泛行业中实现落地规模化。
以上,这些痛点共同构成了 LLM 端侧部署的「不可能三角」:成本、性能、体验三者难以兼得。
既然传统的 GPU 解决方案无法做到,为什么不考虑换个思路呢?
相比于用大量 GPU 去堆叠显存,CPU 的性价比就高得多了。
中高端服务器中 CPU 的单颗价格,通常只在数千美元,这就落在了很多企业的可承受范围之内。
而且,CPU 一直以来最大的短板——内存带宽,如今也有了解决方案。
比如行云的褐蚁一体机,就通过双路 AMD EPYC 9355 CPU,在 24 条频率高达 6400MT/s的 64GB 内存加持下,实现 1.5TB 的容量和 1.2TB/s的带宽。
不仅完美满足要求,甚至还有冗余。
值得注意的是,为了改善 CPU 在推理过程中存在的算力不足情况,此时还需加入一张中高端 GPU 作为补充。
更令人惊喜的是,10 万的价位还可以压得更低!如果降低对 TPS 体验的需求或原版精度的需求,甚至可以压缩到 5 万。
清华 90 后创业,明星资本加持
在这款产品背后,是一支由清华 90 后领衔,兼具学术深度与行业实战经验的创始团队。
灵魂人物,便是创始人兼 CEO 季宇,是一位妥妥的「天才少年」。
他本科就读于清华物理系,随后转向计算机系,并获得了计算机体系结构(AI 芯片方向)的博士学位。
博士毕业后,季宇入选了华为天才少年计划。
在学术方面,季宇的成就同样令人瞩目。
他长期专注于 AI 编译器优化和处理器微架构等前沿难题,积累了深厚的 AI 芯片经验。
而且,作为共同一作在顶刊 Nature 发表了计算机体系结构论文,荣获了计算机学会 CCF 优博奖。
这些经历,为他日后创立行云,打造低成本、高性能褐蚁一体机奠定了坚实基础。
CTO 余洪敏则有着深厚的学术背景,以及丰富的行业经验。他毕业于华科大,后在中国科学院半导体研究所获得博士学位。
余洪敏同样有着堪称豪华的职业履历。
他不仅出任过多款顶尖国产芯片的负责人和研发总监,而且还长期领导和管理超 100 人研发团队,精通芯片研发设计全流程,成功知道了 10+ 款芯片流片与量产。
他多次推动先进工艺数据中心芯片的架构设计、工程实现,以及大规模商用,积累了无可比拟的实战经验。
行云集成电路的吸引力,不仅体现在技术和团队上,还得到了资本市场的广泛认可。
去年 11 月,行云完成了新一轮数亿元融资,投资方包括智谱 AI、中科创星、奇绩创坛、水木清华校友基金、嘉御资本、春华资本等一众明星资本。
从成立到融资,行云仅用了一年多的时间,就在 AI 芯片领域站稳了脚跟。
行云的崛起,正是「中国初创」加速赶超的缩影。
从模型竞赛,到应用为王
行云褐蚁一体机的横空出世,如同一记重拳,击碎了大模型部署高成本的壁垒。
它的推出,不仅是技术层面的突破,更是顺应了端侧部署的三大趋势。
首先,是成本门槛的指数级下降。
过去私有化部署的成本以百万计,行云直接将其拉低至 10 万,未来甚至可能降至 5 万。
这种成本的骤降,让中小企业,初创公司乃至个人开发者,都能负担起高性能 AI 解决方案,极大地拓展了 AI 应用的边界。
其次,CPU 方案的崛起,让硬件架构更加多元化。
GPU 因显存容量和互联成本的限制,在 LLM 部署中逐渐显露瓶颈。行云的 CPU 内存方案证明,服务器 CPU 高带宽和超大容量内存,能够以更低成本满足需求。
未来,更多芯片厂可能转向类似 CPU 主导或混合的架构,推动硬件方案的多元化。
最后,应用爆发,会推动 AI 普惠化的进程。显而易见的是,AI 行业已从单纯的模型参数竞赛,转向应用落地的比拼。
行云低成本、高性能解决方案,为教育、医疗、零售等行业的 AI 应用打开了大门。
这不仅是一款产品的胜利,更是一个时代的开端——大模型正从少数巨头实验室珍宝,转变为千行百业的标配引擎。
普惠 AI 的时代,已然启幕!
目前,行云褐蚁一体机已开放预约体验,详情可进入官方公众号咨询。