logo
东吴证券:端云协同驱动AI入口重塑 端侧模型牵引硬件重构
== 2026/2/27 16:14:31 == 热度 191
  东吴证券发布研报称,云端大模型作为端侧AI能力演进的源头变量,其评价体系正在从单纯能力指标转向能否真正把任务完成。基于这一目标,2026年以来海外头部厂商正围绕代码能力与多Agent体系展开密集布局。在未来一段时间内,“快交互+长推理”双能力栈将成为通用型Agent的重要演进方向。端侧模型牵引硬件重构,在整机级AI能力向多模态等方向升级的背景下,端侧核心部件也正围绕内存与功耗等制约端侧体验的关键变量上进行新一轮升级。  东吴证券主要观点如下:  云端模型:能力边界外扩与成本重构并行  云端大模型作为端侧AI能力演进的源头变量,其评价体系正在从单纯能力指标转向能否真正把任务完成。基于这一目标,2026年以来海外头部厂商正围绕代码能力与多Agent体系展开密集布局。  代码模型方面,智能体时代的推理需求正沿着长链复杂推理与实时交互两大优化方向同步演进,以OpenAI的Codex-Spark为代表的低延迟优先型Agent追求交互式AI智能体的低延迟体验,让开发者能在模型生成途中随时打断、纠偏并快速迭代;Claude4.6为代表的长链复杂推理型Agent通过提高上下文长度,推动AI在高价值复杂任务中的成功率改善,并有望带动推理侧算力消耗中枢持续上移。  东吴证券判断,在未来一段时间内,“快交互+长推理”双能力栈将成为通用型Agent的重要演进方向。多智能体框架亦加速走向主流架构选择,有望成为下一阶段Agent化落地的重要产业趋势。与此同时,春节期间国内模型厂商同步密集更新,呈现出“性能逼近海外头部、价格快速下探”的特征,同时应用侧需求弹性开始释放,云端模型能力的验证为端侧模型提供可参考模板。  端侧模型:端云协同主线下的效率优化与能力压缩  端侧模型的终局并非替代云端大模型,而是与云端形成分工明确的协同架构:高频、轻量、强隐私任务优先在端侧完成本地闭环处理;重推理、长生成和高算力任务经端侧打包与调度后上云执行。  当前端侧模型的演进方向可以归纳为两个核心维度:1)多模态能力为端侧模型关键竞争要点,端侧为多模态零延迟交互方面的理想技术实现路径,当前全双工流式架构逐渐成为主流交互范式;伴随多模态token压缩技术环节带宽和算力约束,提高端侧交互的实时性和效率。2)算法侧压缩主要用于对抗功耗和内存等硬件约束,目前主要通过模型架构优化(Ed
=*=*=*=*=*=
当前为第1/2页
下一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页