• 首页 >  人工智能 >  AI产业
  • 电子行业AI+系列专题报告(六):DeepSeek重塑开源大模型生态AI应用爆发持续推升算力需求-250205(42页).pdf

    定制报告-个性化定制-按需专项定制研究报告

    行业报告、薪酬报告

    联系:400-6363-638

  • 《电子行业AI+系列专题报告(六):DeepSeek重塑开源大模型生态AI应用爆发持续推升算力需求-250205(42页).pdf》由会员分享,可在线阅读,更多相关《电子行业AI+系列专题报告(六):DeepSeek重塑开源大模型生态AI应用爆发持续推升算力需求-250205(42页).pdf(42页珍藏版)》请在薪酬报告网上搜索。

    1、请务必阅读正文之后的免责声明及其项下所有内容20252025年年0202月月0505日日电子电子AI+AI+系列专题报告(六)系列专题报告(六)DeepSeekDeepSeek重塑开源大模型生态,重塑开源大模型生态,AIAI应用爆发持续推升算力需求应用爆发持续推升算力需求行业研究行业研究 行业专题行业专题 电子电子投资评级:优于大市(维持)投资评级:优于大市(维持)证券分析师:胡剑证券分析师:胡慧证券分析师:叶子证券分析师:张大为证券分析师:詹浏洋021-60893306021-608713210755-81982153021-61761072010-S0980521080001S098052

    2、1080002S0980522100003S0980524100002S0980524060001证券研究报告证券研究报告|请务必阅读正文之后的免责声明及其项下所有内容DeepSeekDeepSeek重塑开源大模型生态,重塑开源大模型生态,AIAI应用爆发持续推升算力需求应用爆发持续推升算力需求lDeepSeekDeepSeek发展突飞猛进,领跑开源大模型技术与生态,发展突飞猛进,领跑开源大模型技术与生态,DeepSeekDeepSeek模型已成为全球现象级模型。模型已成为全球现象级模型。DeepSeek(深度求索)公司成立于2023年7月,是一家致力于实现通用人工智能(AGI)的创新型科技公

    3、司。2024年12月,DeepSeek-V3发布,性能对齐海外领军闭源模型。据官方技术论文披露,V3模型的总训练成本为557.6万美元,对比GPT-4o等模型的训练成本约为1亿美元。2025年1月,DeepSeek-R1发布,性能对标OpenAI-o1正式版。在数学、代码、自然语言推理等任务上,性能比肩OpenAI-o1正式版。2月1日消息,据彭博社报道,DeepSeek的人工智能助手在140个市场下载次数最多的移动应用程序排行榜上名列前茅。国外大型科技公司如微软、英伟达、亚马逊等已先后上线部署支持用户访问DeepSeek-R1模型。2月1日,华为云官方发布消息,硅基流动和华为云团队联合首发并

    4、上线基于华为云昇腾云服务的DeepSeekR1/V3推理服务。lDeepSeekDeepSeek通过通过MLAMLA和和DeepSeekMoEDeepSeekMoE实现高效的推理和低成本训练,构建实现高效的推理和低成本训练,构建DualPipeDualPipe算法和混合精度训练优化计算与通信负载;通过算法和混合精度训练优化计算与通信负载;通过(分阶段分阶段)强化学习实现性能突破。强化学习实现性能突破。多头潜在注意力(MLA)通过低秩联合压缩技术,大幅削减了注意力键(keys)和值(values)的存储空间,显著降低了内存需求。DeepSeekMoE架构采用了更为精细粒度的专家设置,能够更加灵活

    5、且高效地调配资源,进一步提升了整体的运行效率和表现。DeepSeek模型对跨节点的全对全通信机制进行优化,充分利用InfiniBand和NVLink提供的高带宽。创新性提出了DualPipe算法,通过优化计算与通信的重叠,有效减少了流水线中的空闲时间。采用FP8混合精度训练技术,不仅极大地加快了训练速度,还大幅降低了GPU内存的消耗。DeepSeek-R1-Zero通过强化学习架构创新实现突破性性能,核心技术创新体现在训练效能优化策略、双维度评价体系、结构化训练范式三个维度。DeepSeek-R1采用分阶段强化学习架构演进,包括冷启动阶段、面向推理的强化学习、拒绝采样与监督式微调、全场景强化学

    6、习等。lAIAI应用爆发在即,算力需求持续攀升,关注应用爆发在即,算力需求持续攀升,关注ASICASIC及服务器产业链。及服务器产业链。Scaling Law与“涌现”能力是大模型训练遵循的重要法则,随着ChatGPT引领全球AI浪潮,国内外科技公司纷纷发布AI大模型,截至24年7月,全球AI大模型数量约1328个(其中美国位居第一位,占比44%;中国位居第二位,占比36%),模型的迭代加速、竞争加剧。同时,AI模型向多模态全方位转变,AI应用百花齐放,企业主动拥抱AI应用市场。因此,模型数量、模型参数、数据总量的持续增长及AI应用需求推动全球算力爆发式增长。在英伟达GPU随着架构的不断演进及

    7、算力的成倍增长,于AI大模型训练中得到广泛运用的同时,为了满足CSP客户更高性能和更好功能的需求,定制化芯片ASIC的需求持续提升,牧本钟摆从标准化逐渐摆向定制化。与之相应的算力基础设施持续建设和升级,促使国内外云服务商资本开支持续高速增长,带来AI服务器市场规模大幅提升,预计到26年全球AI服务器出货量将达到237万台,对应2023-2026年CAGR为26%。l重点推荐组合:重点推荐组合:中芯国际、翱捷科技、德明利、工业富联、沪电股份、联想集团、国芯科技、澜起科技、芯原股份、龙芯中科、东山精密、景旺电子。l风险提示:风险提示:宏观AI应用推广不及预期、AI投资规模低于预期、AI服务器渗透率

    8、提升低于预期、AI监管政策收紧。请务必阅读正文之后的免责声明及其项下所有内容DeepSeek发展突飞猛进,领跑开源大模型技术与生态0101AI应用爆发在即,算力需求持续攀升,关注ASIC及服务器产业链0202风险提示0303目录目录请务必阅读正文之后的免责声明及其项下所有内容DeepSeekDeepSeek发展突飞猛进,领跑开源大模型技术与生态发展突飞猛进,领跑开源大模型技术与生态请务必阅读正文之后的免责声明及其项下所有内容DeepSeekDeepSeek成立不到两年颠覆开源大模型格局,性能对标海外成立不到两年颠覆开源大模型格局,性能对标海外l DeepSeekDeepSeek(深度求索深度求

    9、索)公司成立于2023年5月,是一家致力于实现AGI(Artificial General Intelligence,通用人工智能)的创新型科技公司,专注于开发先进的大语言模型和相关技术。DeepSeek由知名量化资管巨头幻方量化创立,幻方量化创始人梁文峰在量化投资和高性能计算领域具有深厚的背景和丰富的经验。l 20242024年年5 5月,月,DeepSeek-V2DeepSeek-V2发布,成为全球最强开源通用发布,成为全球最强开源通用MoEMoE模型。模型。DeepSeek独创Attention结构MLA(一种新的多头潜在注意力机制)、稀疏结构DeepSeek-MoE在大模型竞技场(LM

    10、SYS)位列全球开源模型第一名,依靠创新结构,将推理成本降低近百倍。l 20242024年年1212月,月,DeepSeek-V3DeepSeek-V3发布,性能对齐海外领军闭源模型发布,性能对齐海外领军闭源模型。该模型在多项评测集上超越了阿里Qwen2.5-72B、Meta的Llama-3.1-405B等其他开源模型,并逼近GPT-4o、Claude-3.5-Sonnet等顶尖闭源模型。据官方技术论文披露,V3模型的总训练成本为557.6万美元,对比GPT-4o等模型的训练成本约为1亿美元。l 20252025年年1 1月,月,DeepSeek-R1DeepSeek-R1发布,性能对标发布,

    11、性能对标OpenAI-o1OpenAI-o1正式版正式版。DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAI-o1正式版。同时DeepSeek开源R1推理模型,允许所有人在遵循MIT License的情况下,蒸馏R1训练其他模型。图:图:DeepSeekDeepSeek模型迭代与发展历史沿革模型迭代与发展历史沿革资料来源:DeepSeek官网,国信证券经济研究所整理2023/052023/052023/112023/112024/022024/022024/032024/032

    12、024/052024/052024/062024/06DeepSeek(深度求索)成立。DeepSeek Math发布,7B模型逼近GPT-4的数学能力。DeepSeek V2发布,成为全球最强开源通用MoE模型。DeepSeek Coder V2发布,成为全球最强代码开源模型。DeepSeek VL发布,作为自然语言到多模态初探。DeepSeek Coder发布,目前仍是开源代码模型标杆。2024/092024/092024/112024/11DeepSeek-V2.5发布,融合通用与代码能力的全新开源模型。DeepSeek-R1-Lite预览版正式上线,展现了o1没有公开的完整思考过程。2

    13、024/12/102024/12/10DeepSeek-V2.5-1210发布,V2系列收官;联网搜索上线官网。2024/12/262024/12/262025/01/202025/01/20DeepSeek-R1发布,性能对标OpenAI-o1正式版。DeepSeek-V3发布,性能对齐海外领军闭源模型。请务必阅读正文之后的免责声明及其项下所有内容DeepSeekDeepSeek模型已成为全球现象级大模型模型已成为全球现象级大模型l DeepSeekDeepSeek下载量占据下载量占据140140多个国家榜首。多个国家榜首。2月1日消息,据彭博社报道,DeepSeek的人工智能助手在140个

    14、市场下载次数最多的移动应用程序排行榜上名列前茅,其中印度占据了新用户的最大比例。据Appfigures数据(不包括中国的第三方应用商店),这款推理人工智能聊天机器人于1月26日升至苹果公司应用商店的榜首,此后一直占据全球第一的位置。l 国外大型科技公司已上线部署支持用户访问国外大型科技公司已上线部署支持用户访问DeepSeek-R1DeepSeek-R1模型。模型。1月30日,微软宣布DeepSeek-R1模型已在Azure AI Foundry和GitHub上提供。1月31日,英伟达宣布DeepSeek-R1模型已作为NVIDIA NIM微服务预览版在英伟达面向开发者的网站上发布;同日亚马逊

    15、宣布,客户现已可以在Amazon Bedrock和Amazon SageMaker AI中部署DeepSeek-R1模型。l 硅基流动和华为云硅基流动和华为云宣布上线宣布上线DeepSeekR1/V3DeepSeekR1/V3推理服务。推理服务。2月1日,华为云官方发布消息,硅基流动和华为云团队联合首发并上线基于华为云昇腾云服务的DeepSeekR1/V3推理服务。该服务具备以下特点:1)得益于自研推理加速引擎加持,硅基流动和华为云昇腾云服务支持部署的DeepSeek模型可获得持平全球高端GPU部署模型的效果。2)提供稳定的、生产级服务能力,让模型能够在规模生产环境中稳定运行,并满足业务商部署

    16、需求。华为云昇腾云服务可以提供澎湃、弹性、充足的算力。资料来源:各公司官网,国信证券经济研究所整理图:微软宣布支持访问图:微软宣布支持访问DeepSeek-R1DeepSeek-R1模型模型图:英伟达图:英伟达宣布支持访问宣布支持访问DeepSeek-R1DeepSeek-R1模型模型图:亚马逊图:亚马逊宣布支持访问宣布支持访问DeepSeek-R1DeepSeek-R1模型模型请务必阅读正文之后的免责声明及其项下所有内容DeepSeek-DeepSeek-V3V3发布,性能对齐海外领军闭源模型发布,性能对齐海外领军闭源模型l 20242024年年1212月月2626日,全新系列模型日,全新系

    17、列模型DeepSeek-V3DeepSeek-V3首个版本上线并同步开源。首个版本上线并同步开源。DeepSeek-V3为自研MoE模型,共有671B参数,每个token激活37B,在14.8T token上进行预训练。DeepSeek-V3多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o及Claude-3.5-Sonnet不分伯仲。l DeepSeek-V3DeepSeek-V3模型模型生成速度提升至生成速度提升至3 3倍。倍。通过算法和工程上的创新,DeepSeek-V3的生成吐字速度从20TPS大幅提高至60

    18、TPS,相比V2.5模型实现了3倍的提升,能够为用户带来更加迅速流畅的使用体验。l DeepSeek-V3DeepSeek-V3模型具有更优的模型性能模型具有更优的模型性能/价格比例。价格比例。随着性能更强、速度更快的DeepSeek-V3更新上线,模型API服务定价调整为每百万输入tokens 0.5元(缓存命中)/2元(缓存未命中),每百万输出tokens8元。相比于其他模型性能和定价,该模型具有更优的模型性能/价格比例。资料来源:DeepSeek官网,国信证券经济研究所整理资料来源:DeepSeek官网,国信证券经济研究所整理图:图:DeepSeek-V3DeepSeek-V3等模型执行

    19、不同推理任务性能对比等模型执行不同推理任务性能对比图:图:DeepSeek-V3DeepSeek-V3等模型多项评测成绩对比等模型多项评测成绩对比图:图:DeepSeek-V3DeepSeek-V3具有更优的模型性能具有更优的模型性能/价格比例价格比例资料来源:DeepSeek官网,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容DeepSeek-R1DeepSeek-R1发布,性能对标发布,性能对标OpenAIOpenAI-o1o1正式版正式版l 20252025年年1 1月月2020日,日,DeepSeek-R1DeepSeek-R1正式发布,并同步开源模型权重,性能对齐

    20、正式发布,并同步开源模型权重,性能对齐OpenAI-o1OpenAI-o1正式版。正式版。DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAI-o1正式版。l DeepSeek-R1遵循MIT License,允许用户通过蒸馏技术借助R1训练其他模型;同时上线API,对用户开放思维链输出;DeepSeek官网与App同步更新上线,用户打开“深度思考”模式,即可调用最新版DeepSeek-R1完成各类推理任务。l DeepSeekDeepSeek蒸馏小模型超越蒸馏小模型超越Open

    21、AIo1-miniOpenAIo1-mini。在开源DeepSeek-R1-Zero和DeepSeek-R1两个660B模型的同时,通过DeepSeek-R1的输出,蒸馏了6个小模型开源给社区,其中32B和70B模型在多项能力上实现了对标OpenAIo1-mini的效果。图:图:DeepSeek-R1DeepSeek-R1等模型执行不同推理任务性能对比等模型执行不同推理任务性能对比图:图:DeepSeekDeepSeek蒸馏小模型蒸馏小模型等等执行不同推理任务性能对比执行不同推理任务性能对比资料来源:DeepSeek官网,国信证券经济研究所整理资料来源:DeepSeek官网,国信证券经济研究所

    22、整理请务必阅读正文之后的免责声明及其项下所有内容DeepSeek-DeepSeek-V3V3通过通过MLAMLA和和DeepSeekMoEDeepSeekMoE实现高效的推理和低成本训练实现高效的推理和低成本训练l DeepSeek-V3DeepSeek-V3以以TransformerTransformer框架为基石,创新性地融入多头潜在注意框架为基石,创新性地融入多头潜在注意力力(Multi-head Latent Attention(Multi-head Latent Attention,MLA)MLA)和和DeepSeekMoEDeepSeekMoE架构。架构。这一设计在维持模型高性能的

    23、同时,极大地提升了训练与推理的效率。l 多头潜在注意力多头潜在注意力(MLA)(MLA):在传统的注意力机制中,推理期间的键值(Key-Value,即KV)缓存往往占用大量资源。而MLA则另辟蹊径,通过低秩联合压缩技术,大幅削减了注意力键(keys)和值(values)的存储空间。在生成过程中,仅需缓存压缩后的潜在向量,这一举措显著降低了内存需求,但在性能上与标准多头注意力(Multi-head Attention,MHA)相比毫不逊色,有力地保障了模型运行的流畅性。l DeepSeekMoEDeepSeekMoE架构:架构:该架构采用了更为精细粒度的专家设置,还特别将部分专家设定为共享专家。

    24、在每一个MoE层中,都由共享专家和路由专家协同构成。其中,共享专家负责处理所有token的输入信息,为模型提供基础的处理支撑;而路由专家则依据每个token与专家之间的亲和度分数(这一分数通过sigmoid函数计算得出,即token-to-expert affinity)来决定是否被激活。这种独特的设计,使得模型在处理不同类型的输入时,能够更加灵活且高效地调配资源,进一步提升了整体的运行效率和表现。图:图:DeepSeek-V3DeepSeek-V3模型技术架构模型技术架构资料来源:DeepSeek-V3技术报告,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容DeepSee

    25、k-DeepSeek-V3V3构建构建DualPipeDualPipe算法算法和和混合精度训练混合精度训练优化计算与通信负载优化计算与通信负载l 对跨节点的全对全通信机制进行优化,充分利用对跨节点的全对全通信机制进行优化,充分利用InfiniBandInfiniBand和和NVLinkNVLink提供的高带宽。提供的高带宽。DeepSeek-V3模型在拥有2048个NVIDIA H800 GPU的大规模集群上进行训练,每个节点配置了8个GPU,并通过NVLink与NVSwitch实现内部高速互联;不同节点间的高效通信则依赖于InfiniBand(IB)网络。l 创新性提出了创新性提出了Dual

    26、PipeDualPipe算法,通过优化计算与通信的重叠,有效减少了流水线中的空闲时间。算法,通过优化计算与通信的重叠,有效减少了流水线中的空闲时间。对于DeepSeek-V3而言,由于跨节点专家并行引入的通信开销导致计算与通信的比例接近1:1,因此提出DualPipe(双向管道并行)算法,采用一种新的双向流水线方法,在独立的前向和后向处理块中实现了计算与通信的重叠,从而加速模型的训练过程并降低了气泡效应。为了确保DualPipe的性能最优,定制设计了高效的跨节点全对全通信核心,包括优化的调度和组合策略,减少用于通信的流式多处理器(SMs)资源占用,并通过调优PTX指令集和自动调整通信数据块大小

    27、,显著减少了L2缓存的使用及对其他SMs的干扰。l 采用采用FP8FP8混合精度训练技术,不仅极大地加快了训练速度,还大幅降低了混合精度训练技术,不仅极大地加快了训练速度,还大幅降低了GPUGPU内存的消耗。内存的消耗。基于低精度训练领域的成熟经验,开发人员构建了一个适用于FP8训练的混合精度框架,其中大部分计算密集型任务以FP8精度执行,而关键操作则保持原有精度,以确保数值稳定性和训练效率之间的平衡。结合FP8训练框架,能够将缓存激活值和优化器状态压缩至低精度格式,进一步减少了内存占用和通信负载。图:采用图:采用FP8FP8数据格式的整体混合精度框架数据格式的整体混合精度框架资料来源:Dee

    28、pSeek-V3技术报告,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容DeepSeek-DeepSeek-R1(-Zero)R1(-Zero)通过通过(分阶段分阶段)强化学习强化学习实现性能突破实现性能突破lDeepSeek-R1-ZeroDeepSeek-R1-Zero:通过强化学习架构创新实现突破性性能:通过强化学习架构创新实现突破性性能。该模型突破性地采用纯强化学习(RL)方法,未经过传统监督式微调(SFT)即达成卓越性能表现,在特定任务基准测试中实现对OpenAI-o1的超越。其核心技术创新体现在三个维度:1 1)训练效能优化策略训练效能优化策略。创新性采用GRP

    29、O(群体相对策略优化)算法,该技术继承自DeepSeek-V2的RLHF(人类反馈强化学习)研发成果。与传统方法相比,GRPO通过群体反馈数据分析替代独立评估模型,有效降低计算资源消耗。这种优化策略无需依赖与策略模型规模匹配的独立评估模型,通过动态基线估计显著提升训练效率。2 2)双维度评价体系双维度评价体系。建立“准确性验证+格式规范”的复合奖励机制:前者通过数学符号解析与代码编译测试进行精确度验证,后者要求模型将推理过程严格置于结构化标签内。这种双重设计既保障了技术问题求解的严谨性,又确保了输出内容的可解析性,为自动化评估提供标准化接口。3 3)结构化训练范式结构化训练范式。研发团队设计了

    30、标准化指令模板,通过分离推理过程与最终结论的结构化输出要求,既保证了知识表达的清晰度,又保留了内容创作的自主性。该模板仅规范输出框架,避免对具体解题方法或思维路径进行预设性限制。lDeepSeek-R1DeepSeek-R1:分阶段强化学习架构演进:分阶段强化学习架构演进。为克服Zero版本存在的可读性差、语言混淆的问题并提升结果校准能力,该迭代版本采用多阶段强化学习策略:1 1)冷启动冷启动阶段:阶段:通过少量高质量思维链(CoT)示范数据进行模型初始化,有效缓解基础模型在初始训练阶段的波动性。2 2)面向推理的强化学习。)面向推理的强化学习。和DeepSeek-R1-Zero方式相同,但引

    31、入了语言一致性奖励,对推理密集型任务进行特别优化。3 3)拒绝采样与监督式微调。)拒绝采样与监督式微调。使用已训练的RL模型来生成新的训练数据,通过构建推理数据和非推理数据提升模型的通用能力。4 4)全场景)全场景强化学习。强化学习。为了同时平衡推理能力和通用能力,将不同类型的奖励机制有机结合,再次进行强化学习。资料来源:DeepSeek-R1技术报告,国信证券经济研究所整理资料来源:DeepSeek-R1技术报告,国信证券经济研究所整理图:图:DeepSeek-R1-ZeroDeepSeek-R1-Zero模型结构化训练模版模型结构化训练模版图:图:DeepSeek-R1-ZeroDeepS

    32、eek-R1-Zero训练中针对训练中针对AIMEAIME正确率持续提高正确率持续提高请务必阅读正文之后的免责声明及其项下所有内容采用硬盘缓存技术大幅降低延迟和成本采用硬盘缓存技术大幅降低延迟和成本l DeepSeek APIDeepSeek API以其开创性的硬盘缓存技术,实现了价格的指数级下降。以其开创性的硬盘缓存技术,实现了价格的指数级下降。在大模型API的实际运用场景中,用户输入存在较高比例的重复内容。例如,用户输入的提示词(prompt)常常包含重复引用部分;在多轮对话里,每一轮都需重复输入前几轮的内容。针对这些情况,DeepSeek引入上下文硬盘缓存技术,将预估未来可能复用的内容,

    33、缓存至分布式硬盘阵列之中。一旦出现重复输入,重复部分直接从缓存读取,无需重新计算。这一技术不仅有效缩短了服务延迟,还极大地降低了最终的使用成本。1 1)降低服务延迟:)降低服务延迟:对于输入内容长且重复部分多的请求,API服务的首token延迟会大幅降低。以128K输入且大部分内容重复的请求为例,经实际测试,首token延迟从原本的13秒锐减至500毫秒。2 2)削减整体费用:)削减整体费用:最高能够节省90%的费用(前提是针对缓存特性进行优化)。即便不做任何优化,按照过往使用数据统计,用户整体节省的费用也能超过50%。并且,缓存所占用的存储无需额外付费。3 3)保障缓存安全:)保障缓存安全:

    34、在设计缓存系统时,DeepSeek已全面考量各类潜在安全问题。每个用户的缓存相互独立,在逻辑层面彼此不可见,从底层架构筑牢用户数据的安全与隐私防线。长时间未使用的缓存会自动清空,不会长期留存,也不会被挪作他用。l DeepSeekDeepSeek可能是全球首家在可能是全球首家在APIAPI服务中大规模应用硬盘缓存的大模型厂商。服务中大规模应用硬盘缓存的大模型厂商。这一成果得益于DeepSeek-V2提出的MLA结构,该结构在提升模型效果的同时,极大地压缩了上下文KVCache的大小,使得存储所需的传输带宽和存储容量大幅降低,进而能够将缓存置于低成本的硬盘之上。图:图:多轮对话场景,下一轮对话会

    35、命中上一轮对多轮对话场景,下一轮对话会命中上一轮对话生成的上下文缓存话生成的上下文缓存图:图:数据分析场景,后续具有相同前缀的请求会数据分析场景,后续具有相同前缀的请求会命中上下文缓存命中上下文缓存资料来源:DeepSeek官网,国信证券经济研究所整理表:表:DeepSeek-R1DeepSeek-R1 APIAPI服务定价服务定价图:图:DeepSeek-R1DeepSeek-R1等模型输入输出价格对比等模型输入输出价格对比模型上下文长度最大思维链长度最大输出长度百万tokens输入价格(缓存命中)百万tokens输入价格(缓存未命中)百万tokens输出价格DeepSeek-V364K-8

    36、K0.5元2元8元DeepSeek-R164K32K8K1元4元16元注1:表格中所列模型价格以“百万tokens”为单位。Token是模型用来表示自然语言文本的的最小单位,可以是一个词、一个数字或一个标点符号等。公司将根据模型输入和输出的总token数进行计量计费。注2:思维链为DeepSeek-R1模型在给出正式回答之前的思考过程。注3:如未指定max_tokens,默认最大输出长度为4K。可调整该参数以支持更长的输出。注4:表格中展示了DeepSeek-V3模型优惠前的价格。即日起至北京时间2025-02-08 24:00,所有用户均可享受DeepSeek-V3 API的价格优惠。在此之

    37、后,模型价格将恢复至原价。DeepSeek-R1不参与优惠。注5:DeepSeek-R1的输出token数包含了思维链和最终答案的所有token,其计价相同。请务必阅读正文之后的免责声明及其项下所有内容AIAI应用爆发在即,算力需求持续攀升,关注应用爆发在即,算力需求持续攀升,关注ASICASIC及服务器产业链及服务器产业链请务必阅读正文之后的免责声明及其项下所有内容Scaling LawScaling Law与与“涌现涌现”能力:大模型训练遵循的重要法则能力:大模型训练遵循的重要法则l ScalScaling Lawing Law:模型效果随模型规模指数增加而线性提高。:模型效果随模型规模指

    38、数增加而线性提高。据OpenAI发布的论文Scaling laws for neural language models,模型性能极大依赖训练规模,模型参数、数据集大小以及用于训练的计算量增加可以达到减少模型损失,增加大模型性能的效果。l“涌现涌现”能力:随着训练规模不断增大,大模型将产生质变。能力:随着训练规模不断增大,大模型将产生质变。据Emergent Abilities of Large Language Models,随着模型规模的扩大,语言模型表现出的新的、不可预测的能力。这些新能力在中小模型上线性放大都得不到线性的增长,但在模型规模突破一定阈值时突然出现。“涌现”能力反映了系统行

    39、为质的变化,这种变化不能简单地通过观察或分析较小规模模型的性能来预测。图:大模型参数量近年来迅速扩容图:大模型参数量近年来迅速扩容l自1956年计算机专家约翰麦卡锡提出“人工智能”概念以来,在过去的近70年时间里,行业经历了以CNN为代表的传统神经网络模型、以Transformer为代表的全新神经网络模型、以GPT为代表的预训练大模型这三个时代的进阶,在“算力芯片、存储芯片”等硬件技术持续演进的支撑下,伴随模型参数规模超越千亿级,伴随模型参数规模超越千亿级,近年来近年来人人工智能技术得以工智能技术得以“涌现涌现”出更加强大的理解、推理、联想能力。出更加强大的理解、推理、联想能力。资料来源:Ja

    40、red等Scaling Laws for Neural Language Models,国信证券经济研究所整理资料来源:Jared等著-Scaling Laws for Neural Language Models-Arxiv(2020)-P3,国信证券经济研究所整理图:模型规模图:模型规模的指数提升线性提高模型性能的指数提升线性提高模型性能资料来源:Information is Beautiful,国信证券经济研究所整理GPT 3.5WebGPTClaudeLuminous SupremePanGu-SigmaBard*AlpacaBloombergGPTCerebras-GPTGPT-4G

    41、PT4All-LoRAJurassic-2*StableLMDolly 2.0TitanTongyi QianwenHugging ChatBingChat*PaLM2Vicuna-13BFalcon LLMOpenLLMErnie Bot 3.5Claude 2LLaMa2Bichuan 2Claude InstantIDEFICSJais ChatFalcon 180BDeciLMAceGPTRetro48BErnie 4.0FuyuOrca 2GrokMEDITRONYuan 2.0Claude 2.1Grok 1GPT-4 TurboInflection-2SeaLLMMistral-

    42、smallQMistral-mediumGemini UltraGemini Pro 1.5MGIEDeepSeekFuyu-heavyGLM-4Qwen 1.5175B530BMistral-largeMM1Inflection-2.5Claude 305001000150020002022/8/272022/12/52023/3/152023/6/232023/10/12024/1/92024/4/18参数量(十亿)图:图:大模型随参数规模增加所体现的大模型随参数规模增加所体现的“涌现涌现”能力能力请务必阅读正文之后的免责声明及其项下所有内容l 海内外科技公司纷纷发布海内外科技公司纷纷发布

    43、AIAI大模型,模型的更新迭代和竞争加剧。大模型,模型的更新迭代和竞争加剧。据中国信通院数据,截至2024年7月,全球AI大模型数量约1328个(包含同一企业、同一模型的不同参数版本),其中美国AI大模型数量位居第一位,占比44%,代表性模型包括OpenAI的GPT、Anthropic的Claude、Meta的Llama、Google的Gemini等;中国AI大模型数量位居第二位,占比36%,代表性模型包括阿里的通义千问、腾讯的混元大模型、百度的文心一言、月之暗面的Kimi、字节跳动的豆包等。l 模型参数规模呈现指数级增长,模型性能持续提升。模型参数规模呈现指数级增长,模型性能持续提升。近年来

    44、新推出的大语言模型所使用的数据量和参数规模呈现指数级增长,例如GPT-3模型参数约为17501750亿亿,据Semianalysis推测GPT-4参数量达1.81.8万亿万亿;同时,国内目前公布的大模型参数规模也普遍在百亿至千亿级百亿至千亿级别别。性能方面,据Data Learner数据,GPT-4o在MMLU测评中获得88.7分的高分,分数较GPT-3大幅提高;国产模型中阿里的Qwen2.5-72B取得86.1分的高分,在各大模型中亦取得排名相对靠前的位置。资料来源:DataLearner,国信证券研究所整理注:MMLU是一种针对大模型的语言理解能力的测评,用以评测大模型基本的知识覆盖范围和

    45、理解能力。资料来源:斯坦福大学人工智能指数报告,国信证券经济研究所整理05010015020020192020202120222023开源限制访问私有表:主流大模型信息对比表:主流大模型信息对比模型名称参数大小(亿)MMLU分数发布者发布时间开源情况GPT-4o未公布88.7OpenAI2024.5.13未开源Claude 3.5 Sonnet未公布88.7Anthropic2024.6.21未开源Claude 3-Opus未公布86.8Anthropic2024.3.4未开源GPT-4未公布86.4OpenAI2023.3.14未开源Qwen2.5-72B72786.1阿里2024.9.18

    46、开源Llama3.1-405B405085.2Meta2024.7.23开源Gemini-Ultra未公布83.7谷歌2023.12.7未开源Qwen2.5-32B32083.3阿里2024.9.18开源Gemini 1.5 Pro未公布81.9谷歌2024.2.15未开源GLM4未公布81.5智谱AI2024.1.16未开源Grok-1.5未公布81.3xAI2024.3.29未开源YAYI2-30B30080.5中科闻歌2023.12.22 收费开源Qwen1.5-110B110080.4阿里2024.4.25开源Qwen2.5-14B14079.7阿里2024.9.18开源Llama3-

    47、70B70079.5Meta2024.4.18开源Gemini-Pro100079.1谷歌2023.12.7未开源Claude 3-Sonnet未公布79.0 Anthropic2024.3.4未开源DeepSeek-V2-236B236078.5DeepSeek2024.5.6开源Qwen-72B72077.4 阿里2023.11.30开源Yi-1.5-34B34077.1 零一万物2024.5.13开源GPT-3.5175070.0 OpenAI2022.11.30未开源GPT-3175053.9OpenAI2020.5.28未开源图:全球模型数量激增图:全球模型数量激增Scaling L

    48、awScaling Law与与“涌现涌现”能力:大模型训练遵循的重要法则能力:大模型训练遵循的重要法则请务必阅读正文之后的免责声明及其项下所有内容AIAI模型已从大语言模型进化为全方位多模态模型,开启模型已从大语言模型进化为全方位多模态模型,开启AIAI应用新纪元应用新纪元l23年3月以来,OpenAI所发布的GPT-4已经具备了多模态理解和多类型内容生成的能力,使得AI真正具备了重塑人机交互模式、全方位赋能人类生活的可能性。l24年12月OpenAI连续进行新品发布,包括具备多模态推理能力的完整版o1模型,正式发布Sora视频模型,开放并升级写作和编程工具Canvas,将ChatGPT与Ap

    49、ple生态深度整合、Siri与Apple Intelligence智能协同,发布了ChatGPT能够进行视频聊天的语音和视觉功能等。l字节跳动自24年5月豆包大模型家族正式发布到12月短短7个月时间,发布了Doubao-pro、Seed-TTS、Seed-ASR、Seed-Music、SeedEdit、视频生成模型、视觉理解模型等多项重磅成果,在语言能力、多模态理解与生成、模型推理、代码生成等方面不断提升。图:生成式图:生成式AIAI市场概览市场概览资料来源:IDC市场概览:生成式AI技术和服务,国信证券经济研究所整理图:中国市场企业生成式图:中国市场企业生成式AIAI应用进度应用进度资料来源

    50、:IDC,国信证券经济研究所整理18%15%25%42%已经落地生成式AI应用服务并计划增加投入已经落地生成式AI服务还在验证阶段,并未开始新一轮投资正在投资建设生成式AI应用服务已经做了初步测试验证和POC,但还未有正式投资计划请务必阅读正文之后的免责声明及其项下所有内容AIAI赋能下的赋能下的“场景数字化场景数字化”经济效益显著经济效益显著数字化解决方案的潜在价值对应近数字化解决方案的潜在价值对应近2727万亿美元万亿美元。数字化转型是以价值驱动的,其需求来源于企业即通过数字化来解决业务痛点、创造真实价值。根据华为的数据,制造业、金融保险、零售、能源电力等产业的数字化潜在价值均在2万亿美元

    51、以上;以作为支柱性工业的制造业为例,多为重资产企业,且流程复杂,需要在制造、运输、管理等多个环节进行数字化应用以实现降本增效,转型诉求强,数字化创造的潜在价值达6万亿美元。图:图:数字化潜在价值数字化潜在价值资料来源:华为数字化转型,从战略到执行,罗兰贝格,国信证券经济研究所整理图:图:制造业企业数字化演进制造业企业数字化演进资料来源:华为加速行业智能化白皮书、数字化转型,从战略到执行,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容随着企业对数据的需求从收集到理解并进行应用过渡,随着企业对数据的需求从收集到理解并进行应用过渡,AIAI是挖掘数据价值的重要工具是挖掘数据价值的

    52、重要工具。根据华为的数据,家电行业的大模型-AI质检系统借助AI能力,质检速度提升了数十倍。通过机器视觉AI的方式实现产品外观质量检测的自动化、智能化,系统能够使得检测速度提升10倍以上,缺陷检出率达到98%,进一步提高了质检质量,提高良品率,并且帮助企业节约因质量问题产生的退换货成本。同时,该系统能够帮助企业大幅减少质检工时,降低了人力成本。图:制造业的图:制造业的数字化转变数字化转变资料来源:华为,国信证券经济研究所整理图:图:家电家电AIAI质检应用案例质检应用案例资料来源:华为,国信证券经济研究所整理AIAI赋能下的赋能下的“场景数字化场景数字化”经济效益显著经济效益显著请务必阅读正文

    53、之后的免责声明及其项下所有内容AIAI推动全球推动全球ITIT支出增长,生成式支出增长,生成式AIAI市场规模持续提高市场规模持续提高l AIAI技术在企业端部署和应用推动全球技术在企业端部署和应用推动全球ITIT支出的增长。支出的增长。AI技术的发展驱动企业业务自动化、帮助企业优化资源配置并协助数据分析,从而提升业务流程效率,推动企业的智能化转型需求。个性化服务和智能应用带来了新的市场需求,以AIGC为代表的AI应用需要强大的计算能力和数据存储,推动了高性能计算、数据管理以及云计算的相关投资。随着AI应用的增多,企业对网络安全和合规服务的需求也在增加,推动相关领域的IT支出增长。据Gartn

    54、er预测,企业机构将于2024年加快投资于使用生成式AI,2024年全球IT总支出预计将达到5万亿美元,较2023年增长6.8%;中国IT总支出预计将达到3.9万亿元,较2023年增长6.2%。l AIAI技术将产生巨大的经济影响,其投入产出效益显著。技术将产生巨大的经济影响,其投入产出效益显著。据IDC数据,预计到2030年,人工智能对全球经济的累计影响将达到19.9万亿美元,占到预计2030年全球GDP的3.5%。到2030年,每在AI解决方案和服务上花费1美元,将产生4.6美元的经济效益,包括直接影响和间接影响。l 生成式生成式AIAI市场将成为当前最热门的市场将成为当前最热门的ITIT

    55、领域。领域。据IDC数据,24年中国生成式AI市场预计将达到33亿美元,预计到2028年将达到135亿美元,2024-2028年复合增长率将达33.4%,同时生成式AI市场规模占到整体AI市场规模的比例将由16%上升到29%。对于企业来讲,对于生成式AI的支出亦将经历不同阶段的重点,例如2024-2025年,支出主要集中在生成式AI基础设施建设;2025-2026年,支出重点用于推进生成式AI平台与解决方案建设;2027年及以后,支出重点着力于生成式AI服务。资料来源:IDCsWorldwideAIandGenerativeAISpendingGuideV2,2024,国信证券经济研究所整理0

    56、20406080100120140160202320242025202620272028GenAIserviceGenAIsoftwareGenAIhardware0%5%10%15%20%25%30%050100150200250300350400450500202320242025202620272028GenAIAIGenAI%图:图:2023-20282023-2028年中国生成式年中国生成式AIAI市场市场预测(亿美元)预测(亿美元)图:图:2023-20282023-2028年中国生成式年中国生成式AIAI与整与整体体AIAI市场规模预测(亿美元)市场规模预测(亿美元)图:图:20

    57、20-20242020-2024年全球年全球ITIT支出情况支出情况图:图:2020-20242020-2024年中国年中国ITIT支出情况支出情况资料来源:Gartner,国信证券经济研究所整理资料来源:Gartner,国信证券经济研究所整理0%1%2%3%4%5%6%7%8%9%10%38,00040,00042,00044,00046,00048,00050,00052,00020202021202220232024全球IT支出(亿美元)YoY0%2%4%6%8%10%12%14%16%05,00010,00015,00020,00025,00030,00035,00040,000202

    58、02021202220232024中国IT支出(亿元)YoY资料来源:IDCsWorldwideAIandGenerativeAISpendingGuideV2,2024,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容智能算力是构建大模型的重要底座智能算力是构建大模型的重要底座,AIAI算力需求持续攀升算力需求持续攀升l 大模型训练、大模型训练、AIAI应用需求兴起,推动全球算力需求快速增长。应用需求兴起,推动全球算力需求快速增长。全球算力需求飙升主要基于以下原因:1)模型能力提升依赖更大的训练数据量和参数量,对应更高的算力需求;2)AI模型的发展方向转向多模态,训练模型的

    59、数据从单一文字数据发展到目前的图片、视频数据,均需要更强的算力处理;3)模型种类多样化(文生图、文生视频)以及新推出的模型数量激增,均推动算力需求的增长,以AIGC为代表的AI应用用户数量爆发,推理侧算力需求快速增长。l 全球数据总量大幅上涨,数据中心算力需求快速增长。全球数据总量大幅上涨,数据中心算力需求快速增长。随着人工智能等新技术发展,海量数据的产生及其计算处理成为数据中心发展关键。据IDC数据,全球数据总量预计由2021年的82.47 ZB上升至2026年的215.99 ZB,对应CAGR达21.24%。其中,大规模张量运算、矩阵运算是人工智能在计算层面的突出需求,高并行度的深度学习算

    60、法在视觉、语音和自然语言处理等领域上的广泛应用使得算力需求呈现指数级增长。此外,据IDC数据,中国生成式AI日均Tokens处理规模显著增长,预计中国生成式AI日均Tokens调用量到2024年底将达到每天1.12万亿,是2023年底每天35亿规模的320倍。l 智能算力是构建大模型的重要底座,智能算力是构建大模型的重要底座,以以AIAI服务器为代表的全球智能算力需求激增。服务器为代表的全球智能算力需求激增。算力可分为通用算力、智能算力及超算算力:1)通用算力:由基于CPU的服务器提供算力,主要用于基础通用计算;2)智能算力:由基于GPU、FPGA、ASIC等AI芯片的加速计算平台提供的算力,

    61、主要用于人工智能训练和推理计算;3)超算算力:由超级计算机等高性能计算集群提供算力,主要用于尖端科学领域的计算。早期通用算力占整体算力的比重达90%以上,随着人工智能技术的发展,智能算力规模迅速增长。据中据中国信息通信研究院预期,国信息通信研究院预期,20302030年全球智能算力规模将达年全球智能算力规模将达52.5ZFLOPS52.5ZFLOPS。据。据IDCIDC预期,预期,20232023年中国智能算力规模达年中国智能算力规模达414.1EFLOPS414.1EFLOPS,至,至20272027年将达年将达1117.4EFLOPS1117.4EFLOPS。图:中国算力规模及预期(单位:

    62、图:中国算力规模及预期(单位:EFLOPSEFLOPS)资料来源:IDC,国信证券经济研究所整理图:图:AIAI大模型所需算力平均每大模型所需算力平均每2 2年增长年增长750750倍倍资料来源:riselab,国信证券经济研究所整理010020030040050060020202021202220232024202520262027EFLOPS通用算力规模(FP32)智能算力规模(FP32)图:图:2021-20262021-2026年全球数据总量及预测年全球数据总量及预测19%20%20%21%21%22%22%23%05010015020025020212022E2023E2024E20

    63、25E2026E数据总量(ZB)YoY资料来源:IDC,国信证券经济研究所整理图:中国生成式图:中国生成式AIAI日均日均TokensTokens处理规模处理规模资料来源:IDC,国信证券经济研究所整理02,0004,0006,0008,00010,00012,0002023年12月2024年4月2024年6月2024年11月E日均Tokens处理规模(亿)请务必阅读正文之后的免责声明及其项下所有内容AIAI应用智能化推动算力基础设施升级,算力厂商将率先受益应用智能化推动算力基础设施升级,算力厂商将率先受益l AIAI应用智能化应用智能化推动算力基础设施升级。推动算力基础设施升级。伴随着AI应

    64、用的智能化,一方面将通过优化智能汽车、智能机器人、智能家居、空间计算终端(MRVRAR)等各类智能物联产品的人机交互体验,加速其市场推广速度;另一方面也将倒逼相应的算力基础设施、终端硬件架构为此做出适应性的升级。l 算力需求催化投资,算力厂商将率先受益。算力需求催化投资,算力厂商将率先受益。根据斯坦福大学人工智能指数报告估算,OpenAI的GPT-4使用了价值约7800万美元的计算资源进行训练,而谷歌的Gemini Ultra耗费了1.9亿美元的计算成本。2024年3月,微软和OpenAI宣布计划投资1000亿美元打造星际之门AI超算,全球算力投资迅速提升,算力厂商将率先受益。图:全球模型训练

    65、投入激增图:全球模型训练投入激增资料来源:斯坦福大学人工智能指数报告,国信证券经济研究所整理0.00090.0030.24.36.41.312.478.43.9191.4050100150200250TransformerBERT LargeRoBERTa LargeGPT-3 175B(davinci)Megatron Turing NLG 530BLaMDAPaLMGPT-4LaMDA 270BGemini Ultra投入成本(百万美元)2017201820192020202120222023请务必阅读正文之后的免责声明及其项下所有内容英伟达英伟达CUDACUDA平台及平台及GPUGPU架

    66、构快速迭代更新奠定其领先地位架构快速迭代更新奠定其领先地位图:英伟达图:英伟达GPUGPU架构演进历程架构演进历程资料来源:woshipm,国信证券经济研究所整理图:英伟达图:英伟达BlackwellBlackwell架构的架构的技术突破技术突破资料来源:英伟达官网,国信证券经济研究所整理l 英伟达将英伟达将GPUGPU从图形处理器演进为通用计算处理器,从图形处理器演进为通用计算处理器,CUDACUDA降低通用降低通用GPUGPU应用门槛。应用门槛。成立于1993年的英伟达以制造单芯片图形用户界面加速器起家,于1999年发明了图形处理器GPU,从而定义了现代计算机图形学,并确立在该领域的领导地

    67、位。2006年公司推出用于通用GPU计算的CUDA平台,是首次可以利用GPU作为C语言编译器的开发环境,使得GPU能够进行图像处理之外的通用计算,英伟达GPU体系结构全面支持通用编程,GPU成为了真正的GPGPU(通用GPU)。l 英伟达英伟达GPUGPU加速计算发展始于加速计算发展始于TeslaTesla架构,其架构约每两年完成迭代更新奠定其领先地位。架构,其架构约每两年完成迭代更新奠定其领先地位。2008年,Tesla架构推出,成为第一代真正开始用于并行运算的GPU架构。2010年,Fermi架构推出,是第一个支持DirectX 11的GPU计算架构,采用台积电40nm制程。2012年的K

    68、epler架构是Fermi的升级版,整体架构保持一致性,采用台积电28nm制程。2014年的Maxwell架构通过优化架构,提供了可观的能耗比提升。2016年,Pascal架构推出,采用台积电16nm制程,支持DirectX 12标准,是首个为深度学习而设计的GPU架构。2017年的Volta架构专注于提高深度学习的性能,采用台积电12nm制程,2018年的Turing架构是全球首款支持实时光线追踪的GPU架构。2020年,Ampere架构推出,采用台积电7nm/三星8nm制程,统一了AI训练和推理,并在光线追踪和DLSS(深度学习超级采样)方面有显著的改进。2022年的Hopper架构采用台

    69、积电4nm制程,集成多达800亿个晶体管,主要面向AI及数据中心等构建。2024年3月最新推出的Blackwell架构采用台积电4nm制程,集成了2080亿个晶体管,使用了二代Transformer、Secure AI、5代NVLink等最新技术。请务必阅读正文之后的免责声明及其项下所有内容随着芯片架构不断演进,随着芯片架构不断演进,英伟达英伟达GPUGPU算力成倍增长算力成倍增长B200B100H200 SXMH100 SXMH800 SXMA100 SXMA800 SXML40SL40FP418 PFLOPS14 PFLOPS-INT4-1466 TOPS1448 TOPSFP8/FP69

    70、 PFLOPS7 PFLOPS3958 TFLOPS3958 TFLOPS3958 TFLOPS-1466 TFLOPS724 TFLOPSINT89 POPS7 POPS3958 TOPS3958 TOPS3958 TOPS1248 TOPS1248 TOPS1466 TOPS724 TFLOPSFP164.5 PFLOPS3.5 PFLOPS1979 TFLOPS1979 TFLOPS1979 TFLOPS624 TFLOPS624 TFLOPS733 TFLOPS362.1 TFLOPSTF322.2 PFLOPS1.8 PFLOPS989 TFLOPS989 TFLOPS989 TFL

    71、OPS312 TFLOPS312 TFLOPS366 TFLOPS191 TFLOPSFP3280 TFLOPS60 TFLOPS67 TFLOPS67 TFLOPS67 TFLOPS19.5 TFLOPS19.5 TFLOPS91.6 TFLOPS90.5 TFLOPSFP6440 TFLOPS30 TFLOPS34 TFLOPS34 TFLOPS1 TFLOPS9.7 TFLOPS9.7 TFLOPS-显存最高192GB最高192GB141GB80GB80GB80GB80GB48GB48GB显存带宽最高8 TB/s最高8 TB/s4.8 TB/s3.35 TB/s3.35 TB/s2039

    72、 GB/s2039 GB/s864 GB/s864 GB/s热设计功耗1000W700W最高700W最高700W最高700W400W400W350W300W互联速度NVLink:1.8TB/sPCle 6.0:256GB/sNVLink:1.8TB/sPCle 6.0:256GB/sNVLink:900GB/sPCle 5.0:128GB/sNVLink:900GB/sPCle 5.0:128GB/sNVLink:400GB/sPCle 5.0:128GB/sNVLink:600GB/sPCle 4.0:64GB/sNVLink:400GB/sPCle 4.0:64GB/sPCle 4.0:6

    73、4GB/sPCle 4.0:64GB/s表:英伟达数据运算表:英伟达数据运算GPU主流产品主流产品性能性能资料来源:英伟达官网,国信证券经济研究所整理l 英伟达英伟达GPUGPU芯片随着架构的不断演进及算力的成倍增长,在大算力需求的芯片随着架构的不断演进及算力的成倍增长,在大算力需求的AIAI大模型训练中得到广泛运用。大模型训练中得到广泛运用。基于Ampere架构的A100 GPU建立在Volta和Turing SM架构中引入的特性之上,并显著提高了性能,与Volta和Turing相比,每平方米的计算马力增加了2倍;Ampere架构还引入了细粒度结构稀疏性,可以使深层神经网络的计算吞吐量翻倍。

    74、Hopper架构利用专为加速AI模型训练而设计的Transformer引擎,进一步提升Tensor核心技术。Hopper Tensor核心可应用混合式FP8和FP16精确度,大幅加速Transformer的AI运算;和前一代Ampere相比,Hopper将TF32、FP64、FP16和INT8每秒浮点运算次数提高三倍。Blackwell架构使用了第二代Transformer引擎,将定制的Blackwell Tensor Core技术与NVIDIA TensorRT-LLM和NeMo框架创新相结合,加速大语言模型和专家混合模型的推理和训练;与上一代H100相比,使用Blackwell架构的GB2

    75、00 NVL72将资源密集型应用程序(例如1.8T参数GPT-MoE)的速度提高了30倍。请务必阅读正文之后的免责声明及其项下所有内容GB200GB200系统强势赋能下一代系统强势赋能下一代AIAI模型,模型,系列新品即将陆续出货系列新品即将陆续出货l 面向生成式面向生成式AIAI时代的全新机架级扩展的时代的全新机架级扩展的DGX SuperPODDGX SuperPOD架构架构基于基于DGX GB200DGX GB200系统,将前所未有赋能下一代系统,将前所未有赋能下一代AIAI模型。模型。GB200是由两个Blackwell B200 GPU和一个Grace CPU组成的AI加速平台,每个

    76、B200 GPU含有2080亿个晶体管。相较于H100,GB200的算力提升了6倍;而在处理多模态特定领域任务时,其算力更是达到H100的30倍。GB200 NVL72是一套多节点液冷机架级扩展系统,适用于高度计算密集型的工作负载,它将36个Grace Blackwell超级芯片组合在一起,其中包含通过第五代NVLink相互连接的72个Blackwell GPU和36个Grace CPU。DGX SuperPOD由8个或以上的DGX GB200 NVL72系统构建而成,这些系统通过NVIDIA Quantum InfiniBand网络连接,可扩展到数万个GB200超级芯片,可以用于处理万亿参数

    77、模型,能够保证超大规模生成式AI训练和推理工作负载的持续运行。l 预计预计B200B200和和GB200GB200系列在系列在20242024年第四季度和年第四季度和20252025年第一季度之间陆续出货,年第一季度之间陆续出货,B300B300系列将于系列将于20252025年第二季度至第三季度之间陆续出货。年第二季度至第三季度之间陆续出货。据TrendForce数据,英伟达对Blackwell系列芯片的划分更为细致,以向大型云服务商提供符合其能效要求和服务器OEM性价比需求的产品,并根据供应链情况动态调整。预计2025年英伟达将更着力于营收贡献度较高的AI机种,例如积极投入技术和资源在NV

    78、L Rack方案,协助服务器系统厂商针对NVL72系统调教或液冷散热等,推动大型云服务厂商从现有NVL36转为扩大导入NVL72。出货占比方面,据TrendForce数据,英伟达高端GPU增长明显,预计2024年出货占比约为50%;预计2025年受Blackwell新平台带动,其高端GPU出货占比将提升至65%以上。TrendForce指出,英伟达近期将其所有Blacwell Ultra产品更名为B300系列,预计B200和GB200系列在2024年第四季度和2025年第一季度之间陆续出货,B300系列将于2025年第二季度至第三季度之间陆续出货。旧名称旧名称新名称新名称主要服务器主要服务器出

    79、货单位出货单位HBMHBM类型类型CoWoSCoWoS类型类型B100B100HGXHBM3e 8hi*8(192GB)CoWoS-LB200B200HGXHBM3e 8hi*8(192GB)CoWoS-LB200 UltraB300HGXHBM3e 12hi*8(288GB)CoWoS-LGB200GB200NVL72(main)、NVL36HBM3e 8hi*8(192GB)CoWoS-LGB200 UltraGB300NVL72(main)、NVL36HBM3e 12hi*8(288GB)CoWoS-LB200A UltraB300AHGX、MGXHBM3e 12hi*4(144GB)C

    80、oWoS-SGB200A UltraGB300ANVL36、MGXHBM3e 12hi*4(144GB)CoWoS-S资料来源:TrendForce,国信证券经济研究所整理表:英伟达表:英伟达Blackwell系列产品重要规格预测系列产品重要规格预测表:英伟达表:英伟达GB200芯片及性能提升示意图芯片及性能提升示意图资料来源:英伟达官网,国信证券经济研究所整理表:英伟达表:英伟达DGX SuperPODDGX SuperPOD架构架构示意图示意图资料来源:英伟达官网,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容国内外云服务商资本开支快速增长,国内大厂增速明显国内外云服务

    81、商资本开支快速增长,国内大厂增速明显l 国内外大型云服务厂商近两年资本开支快速国内外大型云服务厂商近两年资本开支快速增长,增长,算力算力“军备竞赛军备竞赛”愈演愈烈愈演愈烈。国外四大CSP厂商今年前三季度资本开支均已超过200亿美元,亚马逊更是超过500亿美元。中国头部云服务商如腾讯、阿里巴巴等今年前三季度资本开支增长均超过100%。l 国外四大CSP厂商亚马逊、微软、谷歌、Meta在2024年第三季度资本开支分别达到226.2亿、149.23亿、130.61亿、82.58亿美元,同比分别增长81.3%、50.5%、62.1%、26.2%;2024年前三季度累计资本开支分别达551.65亿、3

    82、97.48亿、382.59亿、228.31亿美元,同比分别增长44.6%、56.1%、80.2%、16.5%。l 国内头部云服务商如腾讯、阿里巴巴在2024年第三季度资本开支分别达到170.94亿、169.77亿元,同比分别增长113.54%、312.86%;2024年前三季度累计资本开支分别达到401.82亿、390.90亿元,同比分别增长145.5%、209.5%。图:阿里巴巴季度资本开支图:阿里巴巴季度资本开支图:腾讯季度资本开支图:腾讯季度资本开支-100%-50%0%50%100%150%200%250%300%0204060801001201401601801Q202Q203Q20

    83、4Q201Q212Q213Q214Q211Q222Q223Q224Q221Q232Q233Q234Q231Q242Q243Q24资本开支(亿元)YoY-100%-50%0%50%100%150%200%250%300%350%020406080100120140160180FY4Q20FY1Q21FY2Q21FY3Q21FY4Q21FY1Q22FY2Q22FY3Q22FY4Q22FY1Q23FY2Q23FY3Q23FY4Q23FY1Q24FY2Q24FY3Q24FY4Q24FY1Q25FY2Q25资本开支(亿元)YoY图:亚马逊季度资本开支图:亚马逊季度资本开支资料来源:Wind,国信证券经济

    84、研究所整理图:微软季度资本开支图:微软季度资本开支图:谷歌季度资本开支图:谷歌季度资本开支图:图:MetaMeta季度资本开支季度资本开支-50%0%50%100%150%200%0501001502002501Q202Q203Q204Q201Q212Q213Q214Q211Q222Q223Q224Q221Q232Q233Q234Q231Q242Q243Q24资本开支(亿美元)YoY0%10%20%30%40%50%60%70%020406080100120140160FY3Q20FY4Q20FY1Q21FY2Q21FY3Q21FY4Q21FY1Q22FY2Q22FY3Q22FY4Q22FY1

    85、Q23FY2Q23FY3Q23FY4Q23FY1Q24FY2Q24FY3Q24FY4Q24FY1Q25资本开支(亿美元)YoY-60%-40%-20%0%20%40%60%80%100%0204060801001201401Q202Q203Q204Q201Q212Q213Q214Q211Q222Q223Q224Q221Q232Q233Q234Q231Q242Q243Q24资本开支(亿美元)YoY-40%-20%0%20%40%60%80%100%120%140%01020304050607080901001Q202Q203Q204Q201Q212Q213Q214Q211Q222Q223Q224

    86、Q221Q232Q233Q234Q231Q242Q243Q24资本开支(亿美元)YoY资料来源:Wind,国信证券经济研究所整理资料来源:Wind,国信证券经济研究所整理资料来源:Wind,国信证券经济研究所整理资料来源:Wind,国信证券经济研究所整理资料来源:Wind,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容算力需求爆发式增长,算力需求爆发式增长,AIAI服务器市场规模大幅提升服务器市场规模大幅提升l 受益于智能算力市场的推动,全球受益于智能算力市场的推动,全球AIAI服务器市场规模实现快速增长。服务器市场规模实现快速增长。据TrendForce数据,预计2024

    87、年全球AI服务器市场规模为1870亿美金,同比增长69%;从服务器出货量占比来看,预计2024年AI服务器占比为12.2%,同比提升3.4pct。TrendForce预计AI服务器出货量将由2023年的118万台增长至2026年的237万台,对应CAGR为26%。假设单台AI服务器价值量为25万美金,则预计2026年AI服务器市场规模为5922.5亿美金。l 中国中国AIAI服务器市场规模同样将实现快速增长,服务器市场规模同样将实现快速增长,AIAI服务器工作负载将由训练逐步过渡到推理。服务器工作负载将由训练逐步过渡到推理。据IDC数据,2023年中国AI服务器出货量达32.2万台,预计到20

    88、27年将达到80.9万台,对应CAGR达25.9%;对应到2023年AI服务器市场规模为60.8亿美元,预计到2027年将达到134亿美元,对应CAGR达21.8%。从工作负载来看,2023年训练服务器占比达58.7%。随着训练模型的完善与成熟,模型和应用产品逐步进入投产模式,处理推理工作负载的人工智能服务器占比将随之攀升,到2027年,用于推理的工作负载将达到72.6%。图:全球图:全球AIAI服务器出货量及预测服务器出货量及预测图:中国图:中国AIAI服务器出货量及预测服务器出货量及预测资料来源:Trendforce,国信证券经济研究所整理资料来源:IDC,国信证券经济研究所整理图:中国图

    89、:中国AIAI服务器工作负载占比及预测服务器工作负载占比及预测资料来源:IDC,国信证券经济研究所整理0%5%10%15%20%25%30%35%40%05010015020025020222023202420252026AI服务器出货量(万台)YoY0%5%10%15%20%25%30%35%40%0102030405060708090202220232024202520262027中国AI服务器出货量(万台)YoY0%10%20%30%40%50%60%70%80%90%100%20232024202520262027推理训练请务必阅读正文之后的免责声明及其项下所有内容政策支持亦将拉动中国

    90、政策支持亦将拉动中国AIAI服务器市场规模增长服务器市场规模增长资料来源:中商产业研究院,国信证券经济研究所整理发布日期发布日期发布单位发布单位政策名称政策名称主要内容主要内容2024年1月工信部国家人工智能产业综合标准化体系建设指南(征求意见稿)到2026年,共性关键技术和应用开发类计划项目形成标准成果的比例达到60%以上,标准与产业科技创新的联动水平持续提升。新制定国家标准和行业标准50项以上,推动人工智能产业高质量发展的标准体系加快形成。开展标准宣贯和实施推广的企业超过1000家,标准服务企业创新发展的成效更加凸显。参与制定国际标准20项以上,促进人工智能产业全球化发展。2023年4月工

    91、信部、中央网信办、国家发改委教育部等关于推进IPv6技术演进和应用创新发展的实施意见推动IPv6与5G、人工智能、云计算等技术的融合创新,支持企业加快应用感知网络、新型IPv6测量等“IPv6+”创新技术在各类网络环境和业务场景中的应用。2023年2月中共中央、国务院办公厅质量强国建设纲要加快大数据、网络、人工智能等新技术的深度应用,促进现代服务业与先进制造业、现代农业融合发展。2022年12月中共中央、国务院办公厅扩大内需战略规纲要(2022-2035年)加快物联网、工业互联网、卫星互联网、壬兆光网建设,构建全国一体化大数据中心体系,布局建设大数据中心国家枢纽节点,推动人工智能、云计算等广泛

    92、、深度应用,促进“云、网、端”资源要素相互融合、智能配置。推动5G、人工智能、大数据等技术。2022年8月科技部关于支持建设新一代人工智能示范应用场景的通知充分发挥人工智能赋能经济社会发展的作用,围绕构建全链条、全过程的人工智能行业应用生态,支持一批基础较好的人工智能应用场景,加强研发上下游配合与新技术集成,打造形成一批可复制、可推广的标杆型示范应用场景。首批支持建设十个示范应用场景。2022年7月科技部、教育部、工业和信息化部、交通运输部等关于加快场景创新以人工智能高水平应用促进经济高场景创新成为人工智能技术升级、产业增长的新路径,场景创新成果持续涌现推动新一代人工智能发展上水平。鼓励在制造

    93、、农业、物流、金融、商务、家等重点行业深入挖据人工智能技术应用场景,促进智能经济高端高效发展。2021年5月国家发改委、中央网信办、工信部中央能源局全国一体化大数据中心协同创新体系算力枢纽实施方案引导超大型、大型数据中心集聚发展,构建数据中心集群,推进大规模数据的“云端”分析处理,重点支持对海量规模数据的集中处理,支撑工业互联网、金融证券、灾害预远程医疗、视频通话、人工智能推理等抵近一线、高频实时交互型的业务需求,数据中心端到端单向网络时延原则上在20毫秒范围内。2021年3月中共中央国民经济和社会发展第十四个五年规划和二零三五年远景目标瞄准人工智能等前沿领域,实施一批具有前瞻性、战略性的国家

    94、重大科技项目。推动互联网、大数据、人工智能等同各产业深度融合,推动先进制造业集群发展,构建一批各具特色、优势互补、结构合理的战略性新兴产业增长引警,培育新技术、新产品、新业态、新模式。表:中国人工智能行业政策节选表:中国人工智能行业政策节选l 政策支持亦将拉动中国政策支持亦将拉动中国AIAI服务器市场规模增长。服务器市场规模增长。在当前数字经济时代背景下,国家出台多个政策支持AI产业发展,AI服务器行业将保持快速增长。相关企业加速布局以及人工智能应用场景的逐步落地,AI服务器在服务器整体市场中比重提高。中国的企业和研究机构积极进行人工智能服务器的技术研发和创新,包括高性能处理器、大容量内存、高

    95、速存储器和高效冷却系统等领域的创新,以满足计算能力和数据处理速度的需求。请务必阅读正文之后的免责声明及其项下所有内容AIAI服务器搭载服务器搭载AIAI芯片仍以芯片仍以GPUGPU为主,英伟达占据绝对的供应地位为主,英伟达占据绝对的供应地位l AIAI服务器搭载服务器搭载AIAI芯片仍以芯片仍以GPUGPU为主,搭载为主,搭载ASICASIC芯片服务器占比有上升趋势。芯片服务器占比有上升趋势。当前主流的AI芯片包括GPU、FPGA、ASIC等,其中GPU是前期较为成熟的芯片架构,属于通用型芯片;ASIC属于为AI特定场景定制的芯片。由于GPU通用型较强、适合大规模并行运算,设计和制造工艺成熟,

    96、适用于高级复杂算法和通用性人工智能平台。由于ASIC根据产品的需求进行特定设计和制造的集成电路,能够更有针对性地进行硬件层次的优化,因此具有更高的处理速度和更低的能耗;相比于其他AI芯片,ASIC设计和制造需要大量的资金、较长的研发周期和工程周期。据TrendForce数据,预计2024年搭载GPU的AI服务器占比约为71%,仍占据主导地位。而随着北美云服务商如亚马逊、Meta等,以及国内云服务商如阿里、百度、华为等持续积极扩大自研ASIC方案,使得搭载ASIC服务器占整体AI服务器比重在2024年将提升至26%。l 英伟达仍是搭载英伟达仍是搭载GPUGPU的的AIAI服务器的绝对芯片供应商。

    97、服务器的绝对芯片供应商。据TrendForce数据,单看AI服务器搭载GPU的芯片供应商中,英伟达占据绝对的主导地位,2022-2024年市占率均达到85%以上。随着AMD发布Instinct系列AI芯片并在AI服务器方面不断发力,其市占率有望从2022年的5.7%上升至2024年的8.1%。Intel在AI服务器芯片供应商中占比近年保持相对稳定,约占3%左右。图:搭载不同图:搭载不同AIAI芯片的芯片的AIAI服务器占比服务器占比图:图:搭载搭载GPUGPU的的AIAI服务器市场格局服务器市场格局资料来源:Trendforce,国信证券经济研究所整理资料来源:Trendforce,国信证券经

    98、济研究所整理表:表:不同技术架构不同技术架构AIAI芯片比较芯片比较AIAI芯片芯片种类种类GPUGPUASICASIC定制化程度定制化程度通用型全定制化算力算力中高价格价格高低优点优点通用型较强、适合大规模并行运算;设计和制造工艺成熟。通过算法固化实现极致的性能和能效、平均性强;功耗低;体积小;量产后成本低。缺点缺点并行运算能力在推理段无法完全发挥。前期投入成本高;研发时间长;技术风险大。应用场景应用场景高级复杂算法和通用性人工智能平台。当客户处在某个特殊场景,可以为其独立设计一套专业智能算法软件。资料来源:亿欧智库,国信证券经济研究所整理0%10%20%30%40%50%60%70%80%

    99、90%100%202220232024E搭载GPU的AI服务器搭载其他AI芯片的AI服务器0%10%20%30%40%50%60%70%80%90%100%202220232024ENVIDIAAMDIntel请务必阅读正文之后的免责声明及其项下所有内容图:图:ASICASIC在达到在达到4040万片后性价比相对万片后性价比相对FPGAFPGA更高更高资料来源:鲜枣课堂公众号,国信证券经济研究所整理资料来源:Marvell,国信证券经济研究所整理图:数据中心定制加速计算芯片市场规模图:数据中心定制加速计算芯片市场规模l ASIC专用集成电路是应特定用户的要求,或特定电子系统的需要,专门设计、制

    100、造的集成电路。根据下图显示,40万片的产量是ASIC和FPGA成本高低的分界线,当产量大于40万片时,ASIC的性价比相对FPGA更高。l 根据Marvell预测,数据中心定制加速芯片2023至2028年市场规模CAGR有望达到45.5%。2023年数据中心ASIC市场规模约66亿美元,占整体数据中心加速计算芯片680亿美元市场的16%。预计到2028年数据中心ASIC市场将达到429亿美元,占整体数据中心加速芯片2020亿美元的25%。相较于GPU,AI ASIC整体复合增速更快,达到45.4%。牧本定律摆向定制化,关注国产牧本定律摆向定制化,关注国产ASICASIC服务商服务商请务必阅读正

    101、文之后的免责声明及其项下所有内容图:标准化制造和定制化应用互相更替图:标准化制造和定制化应用互相更替资料来源:土人观芯公众号,国信证券经济研究所整理资料来源:土人观芯公众号,国信证券经济研究所整理图:牧本定律在标准化与定制化之间交替摆动图:牧本定律在标准化与定制化之间交替摆动l 牧本摆动每十年波动一次,有望从标准化摆向定制化牧本摆动每十年波动一次,有望从标准化摆向定制化。1987年,原日立公司总工程师牧本次生提出牧本摆动,揭露半导体产品发展历程总是在“标准化”与“定制化”之间交替摆动,大概每十年波动一次。牧本摆动背后是性能、功耗和开发效率之间的平衡,当算法发展达到平台期,无法通过进一步创新来推

    102、动发展时,就需要依赖于扩大规模来维持进步,这时转向ASIC的开发就变得至关重要。然而十年后,当规模扩张遭遇限制,又会重新聚焦于算法的创新,同时伴随半导体制造技术的进步,一些可编程解决方案在性价比上将会重新获得竞争优势。当前为了满足CSP客户更高性能和更好功能的需求,定制化芯片ASIC的需求持续提升,牧本钟摆从标准化逐渐摆向定制化。牧本定律摆向定制化,关注国产牧本定律摆向定制化,关注国产ASICASIC服务商服务商请务必阅读正文之后的免责声明及其项下所有内容图:博通已为两家头部图:博通已为两家头部CSPCSP客户提供客户提供ASICASIC资料来源:Broadcom官网,国信证券经济研究所整理资

    103、料来源:Broadcom官网,国信证券经济研究所整理图:图:AIAI芯片集群有望达到芯片集群有望达到100100万张量级万张量级l 在博通2024财年报告中,公司AI业务营收达到约122已美元,同比增长220%。同时,公司预计2027年AI业务可达市场规模为600-900亿美元,客户有望在AI芯片集群中部署100万个芯片,当前公司已开始为三家头部CSP客户提供ASIC。l 国内具备较强芯片定制服务能力的公司,有望在当前定制化ASIC芯片的趋势中收益。例如,翱捷科技基于丰富的设计经验及雄厚的技术积累,曾为全球领先的人工智能平台公司S、登临科技、美国Moffett等数家知名人工智能技术企业提供先进

    104、工艺下的人工智能云端推理超大规模芯片定制服务。牧本定律摆向定制化,关注国产牧本定律摆向定制化,关注国产ASICASIC服务商服务商请务必阅读正文之后的免责声明及其项下所有内容-30%-20%-10%0%10%20%30%40%50%01002003004005006007008009001990199119921993199419951996199719981999200020012002200320042005200620072008200920102011201220132014201520162017201820192020202120222023全球PCB产值(亿美元)YoYl 印制电

    105、路板(印制电路板(Printed Circuit Board,PCBPrinted Circuit Board,PCB)是指在绝缘基板上,有选择地加工安装孔、连接导线和装配电子元器件的焊盘,以实现电子元器件之间的电气互连的组装板。由于PCB可以实现电路中各元器件之间的电气连接,几乎任何一台电子设备都离不开它,它对电路的电气性能、机械强度和可靠性都起着重要作用,因此被称为因此被称为“电子产品之母电子产品之母”。l 根据Prismark数据,2023年全球PCB总产值同比下滑14.9%,达到695亿美金规模,Prismark预计2024年全球PCB产值将重回增长,达到730.26亿美金,同比增长5

    106、%。来源:Prismark,国信证券经济研究所整理 算力需求是算力需求是PCBPCB行业行业的主要增长引擎的主要增长引擎图:全球图:全球PCBPCB产值(亿美元)产值(亿美元)全球台式机兴起欧美是主要的PCB生产国HDI技术逐渐成熟全球功能机、笔记本市场增长迅猛产能向日本转移HDI、Flex、ICS是主要增量 2008年全球金融危机 产业链从日本向亚洲其他地区转移 智能手机爆发云计算、5G、互联网爆发19年疫情经济推动电子产品需求请务必阅读正文之后的免责声明及其项下所有内容算力需求是算力需求是PCBPCB行业的主要增长引擎行业的主要增长引擎资料来源:Prismark,国信证券经济研究所整理 l

    107、 PCBPCB市场下游应用分布广泛,主要涉及计算机、服务器、消费电子、汽车、工业、医疗、军事航天等领域。市场下游应用分布广泛,主要涉及计算机、服务器、消费电子、汽车、工业、医疗、军事航天等领域。根据Prismark 2023年数据,手机占比最大,约为18.8%;其次是个人计算机和消费电子,占比分别约13.5%和13.1%;服务器/数据存储领域的占比也均达12%左右。此外,2023年汽车的占比有所提升,达到13.2%。预计2023-2028年增速最快的是服务器和存储相关PCB,CAGR达到11%,其次为有线通信,CAGR 6%,然后是汽车,CAGR达到5%。l 从产品种类来看,刚性板的市场规模最

    108、大,其中多层板和单双面板的产值占比分别达到36.5%和10.9%;接下来是封装基板,产值占比为21.3%;柔性板和HDI板的产值占比分别为16.9%以及14.4%。图图:20232023年全球年全球PCBPCB分下游应用领域产值占比(分下游应用领域产值占比(%)PC13.5%服务器/数据存储11.8%其他计算机5.3%手机18.8%有线基础设施8.6%无线基础设施4.5%消费电子13.1%汽车13.2%工业4.1%医疗2.1%军事/航天航空5.1%3%11%2%5%6%4%5%5%4%4%5%0%2%4%6%8%10%12%PC服务器/存储其他计算机手机有线通信无线通信消费电子汽车工控医疗军事

    109、/航天航空图图:23-2823-28年分应用领域增速预期年分应用领域增速预期图图:20222022年全球年全球PCB细分产品的细分产品的产值产值占比(占比(%)单双面板10.9%多层板36.5%HDI板14.4%封装基板21.3%柔性板16.9%资料来源:Prismark,国信证券经济研究所整理 资料来源:Prismark,国信证券经济研究所整理 请务必阅读正文之后的免责声明及其项下所有内容算力需求是算力需求是PCBPCB行业的主要增长引擎行业的主要增长引擎l 服务器平台的升级会要求服务器平台的升级会要求PCBPCB板层数增加以及板层数增加以及CCLCCL介电损介电损耗降低。耗降低。PCB在服

    110、务器中的应用主要包括加速板、主板、电源背板、硬盘背板、网卡、Riser卡等,特点主要体现在高层数、高纵横比、高密度及高传输速率。l 1)PCB1)PCB板层数增加:板层数增加:随着服务器平台的演进,服务器PCB持续向更高层板发展,对应于PCIe3.0的Purely服务器平台一般使用8-12层的PCB主板;但Whitley搭载的PCIe4.0总线则要求12-16层的PCB层数;而对于未来将要使用PCIe5.0的Eagle Stream平台而言,PCB层数需要达到16-18层以上。根据Prismark数据,18层以上PCB单价约是12-16层价格的3倍。图:服务器升级要求图:服务器升级要求PCBP

    111、CB层数增加层数增加英特尔英特尔Purley(Sky Lake)Purley(Cascade Lake)WhitleyEagle StreamCPU制程14nm+14nm+10nm+10nm+PCIePCIe3.0PCIe3.0PCIe4.0PCIe5.0内存6DDR46DDR48DDR48DDR5核数28282848传输速率(Gbps)22L范围无变化,但是高层占比会提升最大层数24-2830-34线间距4 mil 3.5 mil材料Mid-Loss到Very-Loss层压板、薄铜电性能要求更高、需要ultra low-loss,extreme,low-loss层压板、极薄型铜请务必阅读正文

    112、之后的免责声明及其项下所有内容算力需求是算力需求是PCBPCB行业的主要增长引擎行业的主要增长引擎l HDIHDI在在20202020年、年、20212021年增长强劲,分别同比增长年增长强劲,分别同比增长9.6%9.6%、19.6%19.6%,20222022年年HDIHDI由于中国智能手机需求下滑,市场下滑由于中国智能手机需求下滑,市场下滑0.4%0.4%。2023年,由于高存货、下游需求疲软、供大于求和市场竞争加剧导致价格下滑,整体市场下滑严重。1Q24,智能手机的HDl板产量较去年有所改善,由于利润率低,供应能力有所萎缩,低端HDI供应紧张,平均售价从2023年的历史低点回升20%以上

    113、。1H24,新的应用领域增速迅猛,卫星通信、汽车智能驾驶和中控板,无线通信、AI GPU模组卡、可穿戴设备、AR/VR等推动了高端HDI的需求。l 预计预计HDIHDI市场将从市场将从20232023年的年的105105亿美元增长至亿美元增长至20282028年的年的142142亿美元,亿美元,CAGRCAGR达到达到6.2%6.2%。下游具体的应用占比来看,2023年占比最大的智能机份额从50%下滑到45%,增速最快的是有线和无线基建,其次就是服务器和数据存储,CAGR达到16%。由于高端产品需求增速更快,由于高端产品需求增速更快,3+HDI3+HDI及及以上的产品占比预计将从以上的产品占比

    114、预计将从20232023年的年的51%51%提升到提升到54%54%。图图:HDIHDI下游应用下游应用图图:HDIHDI分种类的占比分种类的占比0%10%20%30%40%50%60%70%80%90%100%20232028F电脑服务器/存储手机有线通信无线通信消费电子汽车工业医疗军事/航天航空0%20%40%60%80%100%120%20232028F1+HDI2+HDI3+HDIAny-LayermSAP HDI资料来源:Prismark,国信证券经济研究所整理资料来源:Prismark,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容算力需求是算力需求是PCBPC

    115、B行业的主要增长引擎行业的主要增长引擎资料来源:Prismark,国信证券经济研究所整理图:全球图:全球服务器系统及组件服务器系统及组件PCBPCB市场规模市场规模l 根据Prismark数据,2023年全球服务器及相关系统组件的PCB市场规模约为51.77亿美元,预计未来将以9%的增速增长至2028年的79.74亿美元。l 未来五年未来五年AIAI系统、服务器、存储、网络设备等是系统、服务器、存储、网络设备等是PCBPCB需求增长的主要动能。需求增长的主要动能。AI服务器主要涉及3块产品:GPU的基板需要用到20层以上的高多层板,并且使用高速材料;而小型AI加速器模组通常使用HDI来达到高密

    116、度互联,通常是4-5阶的HDI;传统的CPU的母板。并且,随着AI服务器升级,GPU主板也将逐步升级为HDI,因此HDI将是未来5年增速最快的PCB,根据Prismark预计,2023-2028年HDI的CAGR将达到16.3%,是增速最快的品类。010002000300040005000600070008000900020232024E2028F普通服务器AI服务器存储设备其他(HDD、SSD等)CAGR9%01,0002,0003,0004,0005,0006,0007,0008,0009,00020232028F单位:$M普通板4-6多层板8-16多层板18+多层板HDIFPC4.2%7

    117、.8%13.6%16.3%7.1%CAGR图:服务器图:服务器PCBPCB市场分产品占比市场分产品占比资料来源:Prismark,国信证券经济研究所整理请务必阅读正文之后的免责声明及其项下所有内容风险提示风险提示请务必阅读正文之后的免责声明及其项下所有内容风险提示风险提示1 1、宏观、宏观AIAI应用推广不及预期。应用推广不及预期。AI技术在应用推广的过程可能面临各种挑战,比如:(1)AI技术需要更多的时间来研发和调试,而且在应用过程中可能会受到数据质量、资源限制和技术能力等因素的制约;(2)AI技术的实施需要更多的资源和资金支持;(3)市场竞争可能也会影响企业在AI应用推广方面的表现。因此,

    118、投资者应审慎评估相关企业的技术实力、资金实力以及管理能力,相关企业的AI应用存在推广进度不及预期的风险。2 2、AIAI投资规模低于预期。投资规模低于预期。尽管AI技术在过去几年中受到广泛关注,但AI相关领域的企业投资回报并不总是符合预期。部分企业在AI领域可能缺乏足够的经验和资源,难以把握市场机会。此外,市场竞争也可能会影响企业的投资力度。因此,存在AI领域投资规模低于预期,导致企业相关业务销售收入不及预期的风险。3 3、AIAI服务器渗透率提升低于预期。服务器渗透率提升低于预期。虽然AI服务器的应用已经较为广泛,但AI服务器渗透率提升的速度存在低于预期的风险,这与企业对AI技术的投资意愿有

    119、关,也可能与市场需求和技术进展的速度有关。4 4、AIAI监管政策收紧。监管政策收紧。由于AI技术的快速发展和广泛应用,监管机构可能会加强对AI技术的监管力度。监管机构可能会制定严格的AI技术使用规定,以保障人们的隐私和数据安全,这些监管政策可能会对企业的业务模式和发展战略造成影响。请务必阅读正文之后的免责声明及其项下所有内容免责声明免责声明分析师承诺分析师承诺作者保证报告所采用的数据均来自合规渠道;分析逻辑基于作者的职业理解,通过合理判断并得出结论,力求独立、客观、公正,结论不受任何第三方的授意或影响;作者在过去、现在或未来未就其研究报告所提供的具体建议或所表述的意见直接或间接收取任何报酬,

    120、特此声明。重要声明重要声明本报告由国信证券股份有限公司(已具备中国证监会许可的证券投资咨询业务资格)制作;报告版权归国信证券股份有限公司(以下简称“我公司”)所有。本报告仅供我公司客户使用,本公司不会因接收人收到本报告而视其为客户。未经书面许可,任何机构和个人不得以任何形式使用、复制或传播。任何有关本报告的摘要或节选都不代表本报告正式完整的观点,一切须以我公司向客户发布的本报告完整版本为准。本报告基于已公开的资料或信息撰写,但我公司不保证该资料及信息的完整性、准确性。本报告所载的信息、资料、建议及推测仅反映我公司于本报告公开发布当日的判断,在不同时期,我公司可能撰写并发布与本报告所载资料、建议

    121、及推测不一致的报告。我公司不保证本报告所含信息及资料处于最新状态;我公司可能随时补充、更新和修订有关信息及资料,投资者应当自行关注相关更新和修订内容。我公司或关联机构可能会持有本报告中所提到的公司所发行的证券并进行交易,还可能为这些公司提供或争取提供投资银行、财务顾问或金融产品等相关服务。本公司的资产管理部门、自营部门以及其他投资业务部门可能独立做出与本报告中意见或建议不一致的投资决策。本报告仅供参考之用,不构成出售或购买证券或其他投资标的要约或邀请。在任何情况下,本报告中的信息和意见均不构成对任何个人的投资建议。任何形式的分享证券投资收益或者分担证券投资损失的书面或口头承诺均为无效。投资者应

    122、结合自己的投资目标和财务状况自行判断是否采用本报告所载内容和信息并自行承担风险,我公司及雇员对投资者使用本报告及其内容而造成的一切后果不承担任何法律责任。证券投资咨询业务的说明证券投资咨询业务的说明本公司具备中国证监会核准的证券投资咨询业务资格。证券投资咨询,是指从事证券投资咨询业务的机构及其投资咨询人员以下列形式为证券投资人或者客户提供证券投资分析、预测或者建议等直接或者间接有偿咨询服务的活动:接受投资人或者客户委托,提供证券投资咨询服务;举办有关证券投资咨询的讲座、报告会、分析会等;在报刊上发表证券投资咨询的文章、评论、报告,以及通过电台、电视台等公众传播媒体提供证券投资咨询服务;通过电话

    123、、传真、电脑网络等电信设备系统,提供证券投资咨询服务;中国证监会认定的其他形式。发布证券研究报告是证券投资咨询业务的一种基本形式,指证券公司、证券投资咨询机构对证券及证券相关产品的价值、市场走势或者相关影响因素进行分析,形成证券估值、投资评级等投资分析意见,制作证券研究报告,并向客户发布的行为。国信证券投资评级国信证券投资评级投资评级标准投资评级标准类别类别级别级别说明说明报告中投资建议所涉及的评级(如有)分为股票评级和行业评级(另有说明的除外)。评级标准为报告发布日后6到12个月内的相对市场表现,也即报告发布日后的6到12个月内公司股价(或行业指数)相对同期相关证券市场代表性指数的涨跌幅作为

    124、基准。A股市场以沪深300指数(000300.SH)作为基准;新三板市场以三板成指(899001.CSI)为基准;香港市场以恒生指数(HSI.HI)作为基准;美国市场以标普500指数(SPX.GI)或纳斯达克指数(IXIC.GI)为基准。股票投资评级股票投资评级优于大市股价表现优于市场代表性指数10%以上中性股价表现介于市场代表性指数10%之间弱于大市股价表现弱于市场代表性指数10%以上无评级股价与市场代表性指数相比无明确观点行业投资评级行业投资评级优于大市行业指数表现优于市场代表性指数10%以上中性行业指数表现介于市场代表性指数10%之间弱于大市行业指数表现弱于市场代表性指数10%以上请务必阅读正文之后的免责声明及其项下所有内容国信证券经济研究所国信证券经济研究所深圳深圳深圳市福田区福华一路125号国信金融大厦36层邮编:518046 总机:0755-82130833上海上海上海浦东民生路1199弄证大五道口广场1号楼12楼邮编:200135北京北京北京西城区金融大街兴盛街6号国信证券9层邮编:100032