logo
DeepSeek V4终于出场,为大模型国产算力时代做准备
== 2026/4/24 16:18:07 == 热度 188
DeepSeek-V4的出场氛围从春节起就开始烘托。起初不少人的期盼是再续神话,但直到这一刻行业意识到,它应该进入了一个新的周期。4月24日,DeepSeek-V4的预览版本正式上线并同步开源,官方给出的节点定义是“迈入百万上下文普惠时代”,没有脱离DeepSeek自出圈以来最强势的价格叙事。DeepSeek-V4按参数大小分为1.6T(Pro)和284B(Flash)两个版本,拥有百万字超长上下文,在Agent能力、世界知识和推理性能上实现国内与开源领域的领先。DeepSeek将V4与海外“御三家”Opus 4.6 Max、GPT-5.4 xHigh和Gemini-3.1-Pro High进行对比,从图表上看不出明显落后与领先,算是并驾齐驱的水平。这并非Anthropic和OpenAI的最新成果,不过团队显然很难预料到Opus 4.7和GPT-5.5的发布节点。团队的测评文档写得十分克制。在Agentic Coding评测中,V4-Pro达到开源模型最佳水平,“据评测反馈使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式,但仍与Opus 4.6 思考模式存在一定差距。”结构创新仍是DeepSeek的强项,其一百万长上下文的能力标签正得益于此。V4此次再创了新的注意力机制,团队在token维度进行压缩,结合DSA稀疏注意力(DeepSeek Sparse Attention),在实现更强长上下文能力的同时,相比于传统方法大幅降低了对计算和显存的需求。此外,外界罕见从DeepSeek的官方表述中看到模型对产品趋势的配合。V4针对Claude Code 、OpenClaw、OpenCode、CodeBuddy等主流Agent产品均进行了适配和优化。另外,其最新上线的API服务中,同步支持了OpenAI ChatCompletions接口与Anthropic接口。与上一代模型相比,DeepSeek-V4一个重要区别在于释放了更多国产化信号。根据其技术报告,V4在训练和推理体系中采用了mxFP4精度,而英伟达训练体系主要以FP8为主。一名行业人士指出,这可以更大程度适配华为昇腾、壁仞科技等国产算力。V4也在技术报告中专门提及了,“在英伟达GPU和华为昇腾NPU两个平台上验证了细粒度EP(专家并行)方案,与强力的非融合(
=*=*=*=*=*=
当前为第1/2页
下一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页