logo
“价格屠夫”来了!DeepSeekV4把百万上下文打到2毛,适配华为昇腾,国产卡将“腰斩”API价格?
===2026/4/24 19:16:25===
  文 丨《BUG》栏目 周文猛   DeepSeek-V4预览版本,终于发布了。   今日,DeepSeek官方宣布:拥有百万字超长上下文的deepseek-v4-pro和deepseek-v4-flash两款模型发布并开源,即日起登录官网或官方App即可与最新的DeepSeek-V4对话,探索1M(百万)超长上下文记忆的全新体验,API服务已同步更新。   据官方公布基准测评,在上下文长度、知识、推理及Agent等能力上,DeepSeek V4性能比肩国际顶级闭源模型,达到国际开源模型一流水平。《BUG》栏目对比发现,在API调用价格上,去年以一己之力撬动国内大模型行业降价的DeepSeek,V4版本再次开出了行业“最低价”。   “虽然每百万Tokens调用价格国内模型均未下降太多,但超长上下文长度及不俗的性能,让其极具竞争优势!”有业内人士在与《BUG》栏目沟通中感慨:“那个大模型价格屠夫,又回来了!”   性能比肩顶级闭源模型,知识、推理能力领先   根据DeepSeek的官方介绍,V4系列共包括两个版本模型:DeepSeek-V4-Pro总参数1.6T、激活参数49B,预训练数据33T;DeepSeek-V4-Flash总参数284B、激活参数13B,预训练数据32T;两者均原生支持100万token上下文。   据DeepSeek披露的基准测试数据,在知识与推理类测试中,DeepSeek-V4-Pro-Max在Apex Shortlist和Codeforces两项测试中取得了最优性能,超越Claude-Opus-4.6-Max、GPT-5.4-xHigh、Gemin-3.1-Pro-Hight等国际模型,展现了极强的逻辑与算法能力;在SimpleQA Verified测试中较Gemini-3.1-Pro-High略有差距但领先于Claude和GPT。   在Agentic能力测评中,V4、Opus-4.6、Gemin-3.1-pro三款模型在SWE Verified任务上打成平手,且DeepSeek在Toolathlon任务上取得了仅次于GPT-5.4-xHigh的水平,在Terminal Be
=*=*=*=*=*=
当前为第1/4页
下一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页