logo
“价格屠夫”来了!DeepSeekV4把百万上下文打到2毛,适配华为昇腾,国产卡将“腰斩”API价格?
===2026/4/24 19:16:25===
nch 2.0上取得了优于Opus-4.6的水平,体现了在复杂指令执行与工具调用场景下的优势。   目前DeepSeek-V4已成为公司内部员工使用的Agentic Coding模型,根据评测反馈使用体验优于Sonnet 4.5,交付质量接近Opus 4.6 非思考模式。   在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro 超越当前已公开评测的绝大多数开源模型,取得了比肩世界顶级闭源模型的成绩。   综合来看,在知识处理及推理能力上,DeepSeek-v4取得了较国内开源模型全方位领先,比肩国际的测评能力。但在Agentic能力方面,虽然最新的DeepSeek-v4有了不错的提升,但较国内及国际第一梯队的能力并未拉开差距,彼此各有领先。   “标配”100万上下文,价格屠夫“回来了”   相比于各项基准测试中体现的性能优势,本次V4发布最大的特色,莫过于长文本能力的突破以及API调用价格的进一步下探。   得益于DeepSeek-V4开创的全新注意力机制,V4通过在token维度进行压缩并结合DSA稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,且相比传统方法大幅降低了对计算和显存的需求,将1M(一百万)上下文变成了DeepSeek所有官方服务的标配。   一年前,100万上下文还是Gemini的独家王牌,即使是近期发布的多数主流国产开源模型中,模型上下文的长度也多位于128K—200K区间,而DeepSeek直接把百万上下文从“高端闭源功能”,做成了开源标配。   在API价格调用上,相较于目前GLM-5.1输入单价1.3元-2元/百万Tokens(缓存命中),以及Kimi-K2.6 1.1元/百万tokens(缓存命中),DeepSeek-v4 -pro及flash两个版本,输入单价分别为1元/百万tokens及0.2元/百万tokens,虽然价格降幅不大但均为最低,且上下文长度扩展了数倍。   (DeepSeek-v4系列模型API调用价格)   (Kimi-k2.6模型API调用价格)   (GLM-5.1模型API调用价格)   “DeepSeek-v4此次发布带来的性能突破,较DeepSeek-R1发布时带给外界的冲击要小了一些,各项性能依然处于第一梯队,但领先优势并未完全拉
=*=*=*=*=*=
当前为第2/4页
下一页-上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页