华为昇腾张迪煊:Agent时代已至,携手伙伴共拓AI行业智能化新蓝海

   时间:2026-03-23 06:25 来源:天脉网作者:沈瑾瑜

在华为中国合作伙伴大会期间,一场聚焦人工智能前沿发展的盛会——昇腾人工智能伙伴峰会在深圳成功举办。本次峰会以“与时代 共昇腾”为主题,吸引了众多行业专家、企业代表齐聚一堂,共同探讨人工智能在行业智能化进程中的新趋势与新机遇。华为昇腾计算业务总裁张迪煊在会上发表了主题为《一起昇腾,共赢行业智能化》的精彩演讲,深入剖析了人工智能的发展态势,并分享了昇腾在推动行业智能化方面的战略布局与实践成果。

张迪煊指出,2025 年是昇腾在技术沉淀、拥抱开源、把握机遇方面取得重要进展的一年。去年 8 月,华为在北京正式宣布 CANN 和 Mind 系列软件全面开源开放,实现架构解耦,并积极与业界共创,贡献关键特性。例如,联合科大讯飞落地大 EP 技术,并于 9 月将其贡献到 vLLM 社区,填补了业界多机推理加速能力的空白,激发了众多伙伴和开发者的创新热情。截至目前,昇腾已向三方社区累计贡献超过 11 万行代码,有力推动了技术的共享与创新加速。

在生态兼容方面,昇腾始终与主流生态保持紧密同频。通过识别并快速响应开发者需求,在毕昇编译器层构建 AscendNPU IR,实现与 Triton 的平滑对接,让开发者能够保持原有的使用习惯。同时,昇腾兼容了 FSDP2、verl、vLLM、xLLM 等 50 多个主流开源社区和项目,支持所有训练和推理创新基于昇腾快速落地。对开源模型的 0day 支持,使开发者能第一时间获取业界最新的模型能力,越来越多的 SOTA 开源模型也基于昇腾原生孵化。以智谱为例,其基于昇腾仅用三个月就完成了多模态大模型 GLM - Image 的训练,该模型采用自回归 + 扩散的混合架构,开源不到 24 小时便登顶 Hugging Face Trending 榜第一,充分证明了在昇腾上能够训练出世界级领先的大模型。

面对市场的快速变化,昇腾展现出强大的响应能力。去年 DeepSeek 发布后,春节期间华为迅速在上海练秋湖集结 500 多人进行攻关会战,不到一周就发布了大模型应用一体机参考配置,助力 80 多家伙伴在 2 周内推出自己的一体机产品,迅速抢占市场。一年来,已有 350 多家伙伴打造了 400 多款深入业务场景的一体机产品,服务了 2700 多家客户,占据国内一体机市场 80%以上的份额,涌现出一大批能力型伙伴,加速了大模型在各行各业的落地。

回顾过去三年,AI 实现了快速发展。2023 年作为“大模型元年”,推动模型从感知理解迈向生成创造;2024 年迎来“大模型推理元年”,Tokens 成为 AI 时代的新量纲;2025 年,中国大模型积极开源,凭借出色性能成为应用首选,Tokens 使用量呈爆发式增长。如今,我们已正式迈入 Agentic AI 时代,这是 AI 产业发展的全新拐点,标志着 AI 从“会聊天”向“能办事”升级。在 To C 场景,OpenClaw 成为现象级应用,短时间内获得大量用户和关注;国内头部互联网企业争相布局智能体入口,企业和个人积极参与打造专属个人智能助理。在 To B 场景,AI 深度渗透生产、决策等环节,基座模型落地行业核心场景需要行业专业知识,强化学习成为必选之路,而海量 Tokens 成为支撑这一切的核心,其计算效率直接决定企业核心收益。

为满足不同场景的需求,昇腾开放大中小系列化算力。在大算力场景,主要满足大模型预训练、强化学习后训练以及大规模推理服务需求。昇腾将持续深耕技术研发,打造领先的超节点架构及产品,开放灵衢协议、部件及参考架构,助力伙伴打造超节点系统,重塑企业核心业务。在中算力场景,覆盖辅助医疗、智慧教学等主流行业应用场景,昇腾围绕“开箱即用”,兼顾“快速部署”与“成本可控”,开放中心模组/刀片,伙伴可结合模型及软件生态打造大模型应用一体机、高密服务器等产品,加速行业智能化升级。在小算力场景,聚焦工业质检、具身智能、科研教学等智能边端领域,昇腾开放标准模组和板卡,使能伙伴打造多样化边缘算力设备,满足差异化市场需求,挖掘潜力巨大的海量市场。

针对大规模推理服务场景,AI Agent 成为企业智能化必备工具,其多轮自我迭代带来百倍级 Tokens 需求和 10ms 级时延要求。传统服务器堆叠方式存在局限,昇腾 384 超节点可实现 48TB 内存统一编址,全局内存共享,共享内存容量较传统方式提升 96 倍,数据交互效率提升三倍,能满足 Agent 超长上下文需求,推理 Decode 吞吐倍级提升,是大规模推理的必选方案。同时,昇腾为伙伴提供三种灵活高效的实现路径,助力构建更佳推理方案。目前,硅基流动、清昴智能等能力型伙伴已基于昇腾构建推理引擎,为金融等客户提供大规模推理服务,显著提升多轮任务应答速度。

在强化学习后训练场景,昇腾沉淀了一套完整的最佳实践。伙伴可选择最新 RL 模型、算法及框架,通过完整 Docker 镜像一键完成部署。针对业界普遍关注的训推资源合理调度、传输效率提升和训推一致问题,昇腾创新推出“异步流式数据引擎 TQ”技术,通过解耦控制流与数据流,实现样本数据直接在推理节点和训练节点间交互,依托超节点内存统一编址,端到端性能提升 40%以上。该特性已合入 verl 社区,并成功应用于商业化广告、信贷风控等核心场景,实现倍级性能提升。昇腾将持续围绕精度优化、训推转换、训练及推理加速,提供业界最全、最新的 RL 加速特性,并第一时间贡献到开源社区。

为支持国计民生大模型应用场景,昇腾产品实现全面升级,分级分档适配不同模型需求。面向百亿级模型,开放 A2 标卡,内存带宽达业界 1.8 倍,实现 100ms 推理时延;面向千亿级模型,提供单机服务器,单机算力是业界的 2.3 倍;面向万亿级模型,提供双机超节点服务器,是业界唯一能够部署 T 级模型的产品,整机算力达 3.78 倍业界,突破 20ms 低时延。同时,昇腾推出 Agentic 开源参考设计,将深度适配优化后的推理引擎、主流开源模型权重及 OpenClaw 等 Agent AI 框架打包成完整镜像,伙伴可快速打造 Agent 应用一体机。基于双机超节点服务器打造的一体机,在不同模型上能提供大量 Tokens,满足业务需求。目前,已有 20 多家伙伴正在落地 Agent 一体机产品,服务多个行业核心领域。

面向推荐、多模态、LLM 三大推理场景,昇腾推出 Atlas 350 加速卡。该加速卡搭载全新昇腾 950PR 处理器,性能全面升级,较业界同类产品领先 1 至 1.4 倍。其核心优势体现在算力、内存双升级,单卡算力和片上内存大幅提升,多模态生成性能显著提高;访存更灵活,Cache - line 的访存粒度降低,提升搜索推荐等场景访存效率;开发更易用,支持 SIMT + SIMD 混合编程,满足伙伴多样化开发需求,助力打造高性能推理方案。

在推动行业应用场景解决方案打造方面,2025 年 9 月华为开发者大会上,昇腾联合 20 多家 ISV 启动面向金融、能源等 5 大行业的方案打造工作。半年来,已成功孵化十余个应用场景方案,落地 180 多家客户,实现技术与业务深度融合。例如在智慧文旅场景,昇腾联合海天瑞声、陕文投打造多模态 AI 伴游助手解决方案,具备多种核心能力,依托海天瑞声技术积累实现文旅知识秒级获取。目前,基于该方案打造的 AI 伴游助手“小七”已在陕西各大景点投放使用,为大量游客提供个性化出游体验。

在智能边端领域,昇腾开放更多算力档位、更高集成度、更高温宽设计的模组/板卡,结合更多 OS 兼容、更多场景 SDK,使能伙伴打造多样化产品,广泛应用于多个行业场景。例如,软通华方、同泰怡等伙伴基于 Atlas 300I A2 打造液冷 AI 工作站,具备多种竞争力,成为多个行业本地算力设备首选。

CANN 开源开放实现了三大升级。部署效率方面,原有大包拆分为多个可独立升级和部署的组件,包大小和特性加载时间大幅缩减,提升部署效率。开发体验上,去年实现主流算子编程框架无感对接,今年将开源 PyPTO 编程范式,强化 Python + Tile 编程能力,减少算子代码量,借助可视化调试调优能力缩短复杂 CV 融合算子开发时间,同时提供开源 Skill 库支持打造算子自动生成 Agent。社区资源方面,完善开源社区 CI/CD,提供完整代码流水线和免费算力资源,降低创新门槛。

昇腾生态的蓬勃发展离不开伙伴的努力。昇腾持续围绕硬件、算子、加速库、模型及应用五大创新方向,携手伙伴共同发展。随着基础软件全面开源,将转向社区化运作,为伙伴明确成长和创新方向,完善激励机制,鼓励共享,提供知识体系和开放能力认证,加速伙伴能力转型。同时,通过社区下发创新任务,设立创新激励基金,助力伙伴创新发展。昇腾还深化昇腾万里伙伴计划,NRE 全面升级,投入资金鼓励伙伴创新,将创新成果和应用案例上架社区 AI 应用市场,与伙伴联合推广、共享收益。

 
 
更多>同类内容
全站最新
热门内容