logo
DeepSeek
== 2026/4/24 17:23:19 == 热度 188

4月24日,国内AI厂商DeepSeek正式推出全新系列模型DeepSeek-V4的预览版本并同步开源,两大版本都标配1M(百万)token上下文能力,等效可一次性处理约75万字中文内容,差不多是三本《三体》的总篇幅。 本次发布的DeepSeek-V4分Pro与Flash两个版本。旗舰版DeepSeek-V4-Pro总参数量1.6T,激活参数49B,预训练数据规模33T;主打高速低成本的Flash版本总参数量284B,激活参数13B,预训练数据规模32T。两个版本上下文长度都是1M token,知识截止时间更新到2025年5月,不用联网就能准确回答2025年4月的新闻事件,目前还不支持视觉输入等多模态能力。 性能上,DeepSeek-V4在Agent能力、世界知识和推理性能上都处在国内开源领域领先水平。官方数据显示,V4-Pro在Agentic Coding评测中拿到当前开源模型的最佳水平,内部员工使用反馈说体验比Sonnet 4.5好,交付质量接近Opus 4.6非思考模式,只和Opus 4.6思考模式有一定差距;世界知识测评中比其他开源模型好很多,仅比顶尖闭源模型Gemini-3.1-Pro稍差一点。 DeepSeek-V4第一次实现了从英伟达CUDA生态向华为CANN架构的底层迁移,会运行在华为最新的昇腾芯片上,没给英伟达或AMD提供提前优化适配的机会。 华为云已经首发适配该模型,开发者可以通过华为云MaaS平台免部署一键调用Flash版本API;寒武纪也对外宣布已经基于vLLM推理框架完成对两个版本模型的Day 0适配,适配代码已经开源到GitHub社区。 API方面,DeepSeek-V4兼容OpenAI与Anthropic两大标准接口,开发者只需要修改model_name参数就能调用,旧模型名deepseek-chat与deepseek-reasoner会在2026年7月24日正式弃用,分别对应Flash版本的非思考与思考模式。 市场有风险,投资需谨慎。本文为AI基于第三方数据生成,仅供参考,不构成个人投资建议。



=*=*=*=*=*=
返回新闻列表
返回网站首页