淮南pvc管粘接胶 预测服务器CPU市场5年5倍!瑞银:ARM是大收益者,AMD次之,后是英特尔

泡沫板橡塑板专用胶

AI时代,被GPU尽风头的CPU淮南pvc管粘接胶,或许正在悄悄迎来场属于自己的爆发。

据追风交易台,5月5日,瑞银全球研究团队发布了份针对美国半体行业的度研报。面对投资者关于“代理式AI将如何影响服务器CPU市场”的密集提问,分析师Timothy Arcuri等人通过系列行业访谈并结自下而上和自上而下两套模型,得出了个明确的结论:

市场严重低估了AI时代CPU的价值。服务器CPU的潜在市场规模(TAM),将从2025年的约300亿美元,增长至2030年的约1700亿美元,五年涨幅接近5倍。

在过去两年的AI狂热中,GPU走了所有的聚光灯。但随着AI从“单纯的对话生成”进化为“自主执行任务的代理(Agent)”,力的瓶颈正在悄然转移。

代理式AI重塑力格局:从“GPU主”到“CPU回归”

要理解CPU市场的爆发,先要理解代理式AI与传统AI的工作负载差异。

在传统的AI训练和基础理阶段,GPU是对的主力。如果把AI力比作个工厂,GPU就是流水线上不知疲倦的工人,而CPU则是负责分配任务的经理。在传统模式下,个经理(CPU)可以轻松管理多个工人(GPU)。

但代理式AI改变了游戏规则。代理式AI不仅需要生成文本,还需要进行任务编排、工具调用(例如在沙盒虚拟机中执行代码)、文件检索等。这意味着“经理”的工作量呈指数上升。

分析师在访谈中获取了具冲击力的数据:

工作量重心的转移: 指出,“在传统的AI工作负载中,70-80的力消耗在理本身(GPU)上;但在代理式理中,这个比例反转了,70-80的工作量转移到了CPU上。”

核心配比的暴增: 传统的AI训练中,每个GPU通常只需配备8-12个CPU核心;在基础理中,需要16-24个核心;而在代理式AI中,每个GPU需要配备80-120个CPU核心。 这相当于,同样颗GPU,在智能体场景下需要的CPU核心数是传统训练场景的5-10倍。

并发任务的压力: “个代理(及其衍生出的每个子代理)可能需要1-4个CPU核心,而个复杂的任务可能需要生成10-100个子代理。”

这种底层逻辑的转变,直接破了过去“重GPU、轻CPU”的力架构,为CPU市场开了巨大的增量空间。

1700亿美元的海量市场

基于上述逻辑,该行分析师对服务器CPU的总潜在市场(TAM)进行了重新测。结果显示,到2030年,该市场规模将达到约1700亿美元。

这个庞大的数字是如何得出的?分析师采用了“自下而上”和“自上而下”两种法进行交叉验证:

1. 自下而上(Bottom-up)测: 分析师基于美国大云服务商(Hyperscalers)的加速器模型预测,到2027年,市场将出货约2300万个加速器(XPU)和约1000万个头节点CPU。随着代理式AI的发展,到2030年,加速器出货量将达到约4000万个。 重要的是,CPU与GPU的配比率将从目前的1:4,逐渐向1:2甚至1:1靠拢。此外,由于AI应用需要核心数和频率的芯片,AI CPU的平均售价(ASP)将显著提升。例如,英伟达的144核Grace CPU定价可能在3000至4000美元之间。量价齐升之下,仅AI CPU市场的规模就将达到1250亿美元。

2. 自上而下(Top-down)测: 分析师参考了英伟达对2030年AI总潜在市场(3万亿至4万亿美元)的预测。出2030年将有约4000万个XPU出货。假设每个XPU的平均ASP提升至3000美元,结1:1或2:1的CPU配比率,同样出AI CPU市场规模在1200亿至2000亿美元之间。

分析师将未来的CPU市场划分为三个核心板块:

传统服务器市场: 保持稳定增长,预计到2030年出货量约为4400万台。

AI头节点(Head Nodes): 与GPU机架捆绑,主要负责任务编排和优化GPU利用率。

AI立机架(Standalone): 纯CPU服务器淮南pvc管粘接胶,门用于处理代理式AI的工具调用和子代理并发任务。

市场的饼做大了,关键是怎么分。

分析师明确给出排名:ARM是服务器CPU侧大受益者,其次是AMD,再次是英特尔——但三者均将受益。

ARM:份额从15冲向40-45

2025年,ARM架构在服务器CPU市场的单位份额约为15。报告预计,到2030年,这数字将升至40-45;若以收入口径计,由于AI CPU的平均售价(ASP),ARM的收入份额将进步达到50-55。

奥力斯    PVC管道管件粘结胶价格     联系人:王经理    手机:18231788377(微信同号)    地址:河北省任丘市北辛庄乡南代河工业区/p>

ARM的优势在哪里?

该行援引观点:ARM架构功耗率出约30,内存率出约20-30,且凭借小的核心设计,在延迟和成本上具备明显优势。关键的是,英伟达Grace、AWS Graviton 5(192核)、谷歌等头部大规模云厂商的自研CPU,万能胶生产厂家几乎清采用ARM架构。

该行预计,到2030年,ARM将占据头节点CPU市场75以上的份额。

但ARM也有短板。报告指出,ARM传统上是单线程架构,同步多线程(SMT)能力是近年才逐步开发的;在核心数场景下,核心间干扰和软件兼容问题依然是挑战;此外,生态系统成熟度仍有待提升,部分软件栈的完善可能要到2028年前后。

基于上述判断,分析师将ARM的12个月目标价从175美元上调至245美元。截至报告发布前日(5月4日),ARM股价报203.26美元,维持“买入”评。

AMD:核心数+多线程,AI佳拍档

AMD的优势在于核心数和多线程能力,这与智能体AI对CPU"又要快、又要多"的需求度契。

报告援引AMD在2025年11月分析师日的表态:AMD预计服务器CPU市场将从2025年的260亿美元增长至2030年的约600亿美元,其中AI驱动的CPU将占2030年市场的约50;AMD预计自身在总市场的份额将过50。

分析师目前对AMD 2030年的EPS预测为25.27美元,若市场按预期演进,修正后的2030年EPS可达28.14美元,上行空间约+11。

英特尔:基础盘稳固,但追赶压力大

英特尔的处境相对复杂。

在传统服务器市场,x86架构仍将保持约85的份额,英特尔在工具调用、存储优化等特定工作负载上仍具优势。但在AI头节点市场,英特尔的存在感正在被ARM快速压缩。

瑞银指出,英特尔正寄望于"Coral Rapids"产品线来缩小与AMD和ARM的差距,但目前来看,AMD和ARM在AI CPU市场的定位为有利。

不过,英特尔也有张特的:PC端的溢出应。随着智能体AI将多任务向本地设备执行(Anthropic的Claude Code已在采用这策略),PC升周期有望被催化,英特尔将从中受益。

该行对英特尔2030年EPS的修正上行空间约为+7,是三中低的。

并非所有CPU都样:延迟vs吞吐量的取舍

报告还入拆解了个容易被忽视的细节:智能体AI对CPU的需求,并不是简单地“核越多越好”。

大规模云厂商在硬件选择上面临个根本的取舍:

核心数CPU:总吞吐量,能比好,但时钟频率低,延迟表现较差,且软件扩展能力有限(大多数软件法利用数百个核心)

低核心数、频率CPU:延迟低、响应快,适“头节点”角(负责编排调度、优化GPU利用率)

实际部署中,大规模云厂商倾向于采用“头节点+大规模计节点”的分层架构:前者负责低延迟的编排控制,后者负责吞吐量的并行执行。

这意味着,能提供宽泛SKU组(覆盖不同核心数、频率和功耗档位)的厂商,比只押注单“强”配置的厂商有竞争力。

瑞银还指出,大规模云厂商的采购决策核心指标不是峰值能,而是每瓦特可处理的事务数(transactions per watt),内存配置是要设计变量。

云端还是边缘?个悬而未决的变量

分析师另外提出了个值得关注的不确定因素:云端与边缘的计分工。

早期智能体部署几乎依赖云端,但越来越多的系统设计开始将计向本地设备——5到10个并行任务可以直接在本地文件和数据上运行,既减少了延迟,又节省了云端力成本。

瑞银援引估:本地执行的扩展,可能将云端智能体工作负载所需的CPU容量减少约25。

这意味着,智能体AI对数据中心CPU的拉动倍数,终可能从5-8倍压缩至约4倍。但与此同时,PC端的CPU需求将被同步拉升,AMD和英特尔均将受益。

 

~~~~~~~~~~~~~~~~~~~~~~~~

以上精彩内容来自追风交易台。

详细的解读,包括实时解读、线研究等内容,请加入【追风交易台▪年度会员】

风险提示及责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符其特定状况。据此投资,责任自负。 相关词条:铝皮保温施工     隔热条设备     钢绞线    玻璃棉卷毡    保温护角专用胶

1.本网站以及本平台支持关于《新广告法》实施的“极限词“用语属“违词”的规定,并在网站的各个栏目、产品主图、详情页等描述中规避“违禁词”。
2.本店欢迎所有用户指出有“违禁词”“广告法”出现的地方,并积极配合修改。
3.凡用户访问本网页,均表示默认详情页的描述,不支持任何以极限化“违禁词”“广告法”为借口理由投诉违反《新广告法》,以此来变相勒索商家索要赔偿的违法恶意行为。

Powered by 任丘市奥力斯涂料厂 RSS地图 HTML地图

Copyright © 2025-2054

任丘市奥力斯涂料厂