大模型驱动算力革命,AI芯片迎破局新机遇

虎嗅网

· 相关报道
Section image

以AI计算专用架构SRDA(系统级极简可重构数据流)为例,通过分布式3D内存控制技术、可重构数据流计算架构和系统级精简软硬件融合设计等创新,在大模型智算场景可以大幅提升AI算力利用率与性能。软件、算法与硬件的协同进化成为关键路径,未来基于国产工艺的AI算力芯片也可以实现不亚于国外更先进工艺制程的GPGPU性能。

大模型驱动算力革命,AI芯片迎破局新机遇 - 虎嗅网

Section image

2025全球AI芯片峰会于9月17日在上海举行,产学研专家聚焦大模型驱动下的算力革命,指出AI芯片市场迎来破局新机遇。数据显示,2025年Q1全球前十大IC设计厂营收达774亿美元,同比增长6%;边缘AI芯片市场规模同比激增217%,增速远超云端市场。面对深度神经网络模型训练算力需求与硬件发展间的'剪刀差'挑战,产业界正通过架构创新、软硬件协同与跨界融合探索破局路径,推动AI芯片从通用走向专用、从单一走向多元的新格局。

市场格局:边缘AI爆发式增长,架构竞争日趋白热化

AI应用端的繁荣催生对算力的指数级需求,正重塑全球半导体产业链。IDC最新数据显示,2025年Q1全球边缘AI芯片市场规模同比增长217%,增长速度远超云端AI芯片市场。传统算力分配模式遭遇根本性挑战,GPU、NPU、FPGA三大架构呈现出迥异的演化路径,背后折射出半导体企业对未来计算范式的不同判断。

在应用场景分布上,数据中心侧与边缘侧呈现明显分化:数据中心侧推理和训练芯片以ASIC芯片为主导,而边缘侧则呈现GPU大幅提升、训练芯片FPGA占比大幅提升的格局。业界专家指出,在未来边缘AI应用中,每瓦算力(TOPS/W)将比绝对算力(TOPS)更为重要,因为边缘硬件不仅需处理AI模型推理,还需兼顾设备上所有分支加速任务、用户交互及设备管理任务,全局视角下的能效比成为决胜关键。

核心挑战:三大'剪刀差'制约AI芯片发展

中山大学集成电路学院院长王中风在峰会上系统阐述了当前AI芯片面临的三大核心挑战:一是深度神经网络模型训练计算量与硬件摩尔定律之间存在’剪刀差’,模型规模呈现’超摩尔’增长;二是GPU的算力与内存带宽增长之间呈现’剪刀差’,超过60%甚至80%的能耗和时间花在数据搬运上,而非实际计算;三是AI芯片设计正从通用走向专用,从单一走向多元,生态碎片化成为新挑战。

王中风进一步解释,边缘AI应用的特殊性加剧了这些挑战:设备不仅要处理单一模型推理,还要同时支持多任务处理;随着性能提升和晶体管密度增加,热分配和热管理成为亟待解决的新问题。这些挑战共同指向一个结论——传统计算架构已无法满足大模型时代对能效比、实时性和灵活性的综合要求,亟需系统性创新。

创新破局:框架重构与软硬协同

软件、算法与硬件的协同进化成为关键路径。先进的软件栈(如MLIR、TVM)可促进硬件效能最大化,而神经架构搜索(NAS)和压缩量化技术则可有效扩大硬件的有效算力。特别是在边缘场景,'未来基于国产工艺的AI算力芯片也可以实现不亚于国外更先进工艺制程的GPGPU性能’的观点,为国产化替代提供了技术可能性。

此外,AI基础设施正从单芯片物理极限走向超节点的系统级创新。从华为的全对等互联到壁仞科技的光互连突破,行业正在重构AI算力格局,通过系统级优化来突破单点性能瓶颈。

生态共建:开放标准与人才培养的战略意义

为推动AI芯片产业长期健康发展,专家呼吁构建多方协同的创新生态。王中风建议:一是开放标准,推动接口、互联、指令集等的开放,降低创新门槛;二是加强产学研深度合作,共同攻克量智融合、存算一体、新材料、新工艺、新器件等领域的技术难题;三是强化人才培养,培养兼具算法、架构、底层电路及软件开发等技能的交叉型人才。

在技术融合层面,产业正积极探索新兴技术的结合潜力:

  • 光子计算、量子计算与AI芯片的结合,有望突破传统电子计算的物理极限;
  • ‘下一代计算范式的发展,首先是软件、算法、硬件的共生,实现全环节协同进化’,实现’无处不在、高效且可信的智能计算’
  • 在云端支持AGI训练的巨型超算系统,在边缘实现自主机器人的实时决策大脑,在端侧实现超低功耗的Always-On感知芯片,形成多层次AI算力架构

随着大模型进入爆发期,企业需要在软件应用层和芯片底层间建立更紧密的协同,通过应用驱动的芯片创新,真正释放AI潜能,实现算力与电力的可持续发展。