定制报告-个性化定制-按需专项定制研究报告
行业报告、薪酬报告
联系:400-6363-638

《计算机行业人工智能系列深度:DeepSeek十大关键问题解读-250213(22页).pdf》由会员分享,可在线阅读,更多相关《计算机行业人工智能系列深度:DeepSeek十大关键问题解读-250213(22页).pdf(22页珍藏版)》请在薪酬报告网上搜索。
1、请务必阅读报告附注中的风险提示和免责声明1DeepSeekDeepSeek十大关键问题解读十大关键问题解读人工智能系列深度人工智能系列深度评级:推荐(维持)证券研究报告2025年02月13日计算机刘熹(证券分析师)S请务必阅读报告附注中的风险提示和免责声明2相对沪深300表现表现1M3M12M计算机30.1%3.3%57.5%沪深3005.0%-4.1%16.5%最近一年走势相关报告计算机行业点评报告:DeepSeek搅动了全球AI的“一池春水”(推荐)*计算机*刘熹2025-02-03美国对华AI限制加剧,自主可控大势所趋AI算力“卖水人”系列(4)(推荐)*计算机*刘熹2025-01-24
2、计算机行业事件点评:我国中部最大智算中心投产,国产算力景气上行(推荐)*计算机*刘熹2025-01-14-23%-7%9%24%40%56%2024/02/19 2024/05/19 2024/08/19 2024/11/19计算机沪深300mXiUpOoMoNmQnQ9PaO7NoMoOtRqNkPoOmOjMrQrN6MoOwPMYpNoPMYqQqO请务必阅读报告附注中的风险提示和免责声明3核心提要核心提要DeepSeekDeepSeek探索出一条探索出一条“算法创新算法创新+有限算力有限算力”的新路径,开源的新路径,开源AIAI时代或已至时代或已至,国产,国产AIAI估值或将重塑。估值
3、或将重塑。uQ1:DeepSeek对于算力的影响?对于算力的影响?Jevons悖论:短期训练侧算力需求或受影响,但DeepSeek推理价格下降吸引更多用户调用模型,带来英伟达H100 GPU的租赁价格提升,故表明算力需求量短期仍呈提升趋势,中长期推理算力需求有望持续增长。uQ2:文本与多模态对算力的需求差别?:文本与多模态对算力的需求差别?多模态模型大规模应用,或将升级算力需求。Sora将大模型训练数据从大规模的文本/图像,发展到视频数据,提升了新的维度,这或将数倍提升算力需求。uQ3:对芯片未来格局的影响?:对芯片未来格局的影响?训练:NV仍具备计算与生态护城河,DeepSeek带来模型训练
4、算力使用效率提升,NV高等级芯片或主要用于探索AGI;推理:推理化、国产化、ASIC化为三大趋势。uQ4:DeepSeek系列模型为何引起轰动?系列模型为何引起轰动?技术与开源:DeepSeek优化模型结构(MLA+MOE、MTP)、模型训练方法(DualPipe)、针对性GPU优化(FP8混合精度等)等内容,降低了训练成本,同时进行开源,各下游企业可以直接通过本地部署或云端调用,降低了调用成本。uQ5:模型未来侧重:模型未来侧重Dense还是还是Sparse(MOE)?)?一个通才(Dense)能够处理多个不同的任务,但一群专家(MoE)能够更高效、更专业地解决多个问题。uQ6:蒸馏模型的定
5、义与发展潜力?:蒸馏模型的定义与发展潜力?蒸馏可以减少原本大参数模型部署的硬件需求高、推理时间长、成本高昂的缺点,更有利于本地部署、推理业务、应用与端侧发展。uQ7:多模态的演进路径?:多模态的演进路径?AI大模型技术和应用逐渐从文本扩展至更多模态。uQ8:DeepSeek发生后对应用侧的影响?发生后对应用侧的影响?DeepSeek在推动降本、强推理等驱动下,有望加速AI应用普及度迎来跨越式提升。uQ9:DeepSeek发布对于端侧的影响?发布对于端侧的影响?DeepSeek决定支持用户进行“模型蒸馏”,已更新线上产品的用户协议,有望加速AI在端侧进程,未来手机、PC、小型设备等端侧或可部署。
6、uQ10:北美增加:北美增加Capex的用意,以及对的用意,以及对deepseek的看法?的看法?北美CSP厂商增加资本开支至服务器与数据中心,继续发展模型预训练与推理侧,重视deepseek技术与发展。请务必阅读报告附注中的风险提示和免责声明4投资建议与相关公司投资建议与相关公司u投资建议投资建议DeepSeek探索出一条“算法创新+有限算力”的新路径,开源AI时代或已至,国产AI估值或将重塑,维持计算机行业“推荐”评级。u1)AI应用:2G:中科曙光、科大讯飞、中国软件、太极股份、中科星图、国投智能、云从科技2B:金蝶国际、用友网络、卫宁健康、广联达、石基信息、明源云、新开普、泛微网络、同
7、花顺2C:金山办公、三六零、万兴科技、福昕软件、合合信息u2)算力:云:海光信息、寒武纪、浪潮信息、中科曙光、华勤技术、紫光股份、中国电信、优刻得、云赛智联、光环新网、中国软件国际、神州数码边:网宿科技、顺网科技、中科创达、深信服端:软通动力、乐鑫科技、移远通信u风险提示:宏观经济影响下游需求、大模型产业发展不及预期、市场竞争加剧、中美博弈加剧、相关公司业绩不及预期,各公司并不具备完全可比性,对标的相关资料和数据仅供参考。请务必阅读报告附注中的风险提示和免责声明5一一、DeepSeekDeepSeek十大关键问题解答十大关键问题解答请务必阅读报告附注中的风险提示和免责声明6 AI的演进路径中,
8、推理成本不断下降,计算效率持续提高是长期趋势。的演进路径中,推理成本不断下降,计算效率持续提高是长期趋势。例如:据Semianalysis,算法进步的速度约为每年4次;Anthropic CEO Dario甚至认为,这一进步速度可能达到10倍。Jevons 悖论悖论:技术进步提高了资源使用效率,效率提高降低了资源使用成本,成本下降刺激了资源需求的增长,需求增长可能超过效率提升带来的节约,最终导致资源总消耗增加。我们认为,短期训练侧算力需求或受影响,但我们认为,短期训练侧算力需求或受影响,但DeepSeek推理价格下降吸引更多用户调用模型,带来英伟达推理价格下降吸引更多用户调用模型,带来英伟达H
9、100 GPU的租赁价格的租赁价格提升,故表明算力需求量短期仍呈提升趋势提升,故表明算力需求量短期仍呈提升趋势,中长期推理算力需求有望持续增长。,中长期推理算力需求有望持续增长。Q1:DeepSeek对于算力的影响?对于算力的影响?Jevons悖论悖论资料来源:Semianalysis,新浪网表:大模型成本持续下降,效率提升表:大模型成本持续下降,效率提升表:表:V3/R1V3/R1发布后,发布后,AWSAWS多地多地H100 GPUH100 GPU价格上涨,价格上涨,H200H200也更难获取也更难获取请务必阅读报告附注中的风险提示和免责声明7Q2:文本与多模态对算力的需求差别?:文本与多模
10、态对算力的需求差别?多模态大模型是一种基于深度学习的机器学习模型,多模态大模型是一种基于深度学习的机器学习模型,类似于人脑能够同时处理文本、声音、图像等不同类型的信息,多模态模型能够处理和整合多模态模型能够处理和整合“图像图像+文本文本”、“视频视频+音频音频”、“语音语音+文字文字”等多种模态的数据和信息,等多种模态的数据和信息,利用不同模态之间的互补和协同,来提高模型的全面感知和泛化能力,使其能够应对更多复杂的任务和场景,以实现更好的性能表现。与传统的单模态模型相比,多模态对算力供给提出了更高的要求。与传统的单模态模型相比,多模态对算力供给提出了更高的要求。急剧飙升的算法复杂度及工程难度、
11、模型迭代下动辄千亿规模的参数量和远高于单模态模型的大量图片、文本和视频数据集,不仅需要消耗大量计算资源,对算力的速度、精度、性能等方面的要求也水涨船高。基础计算基础计算4 4 倍计算倍计算32 32 倍计算倍计算资料来源:机器之心公众号,国海证券研究所图:图:sorasora表示训练计算量增加,视频质量显著提高表示训练计算量增加,视频质量显著提高图:多模态模型推理所需算力较高图:多模态模型推理所需算力较高请务必阅读报告附注中的风险提示和免责声明8Q3:对芯片未来格局的影响?:对芯片未来格局的影响?NV仍具备计算与生态护城河。仍具备计算与生态护城河。我们认为,DeepSeek的成果使用低精度计算
12、、模型侧发展MOE架构、使用PTX层,这些会带来预训练算力使用效率的提升,但是这些技术仍与NV生态紧密联系,NV护城河仍在。模型训练算力使用效率提升,模型训练算力使用效率提升,NV高等级芯片或主要用于探索高等级芯片或主要用于探索AGI。根据DeepSeek-V3 Technical Report,模型的训练过程仅使用2048块H800,这表明使用A100、H800等相对低端的芯片可以实现类似OpenAI o1类似性能。这可能会影响英伟达2025年以后,B200 等最先进GPU的普及,Blackwell/Rubin 等最先进的 GPU 的用途,初期可能会被局限在探索下一代大模型(探索AGI)上。
13、图:图:英伟达英伟达PTXPTX是专门为其是专门为其GPUGPU设计的中间指令集架构设计的中间指令集架构资料来源:新智元公众号,IDC,国海证券研究所图:图:2024H12024H1,中国人工智能芯片市场份额,中国人工智能芯片市场份额请务必阅读报告附注中的风险提示和免责声明9Q3:对芯片未来格局的影响?:对芯片未来格局的影响?推理芯片百花齐放。推理芯片百花齐放。国产化:国产化:我们认为,考虑到目前中美半导体博弈加剧,DeepSeek积极适配昇腾、海光等国产芯片,国产化推理算力需求有望持续增长。ASIC/LPU/单芯片等:单芯片等:ASIC芯片在性能、能效以及成本上优于标准GPU等芯片,更加契合
14、AI推理场景的需求。据TrendForce预估,2024年北美CSPs业者(如AWS、Meta等)持续扩大自研ASIC,以及中国的阿里巴巴、百度、华为等积极扩大自主ASIC 方案,促ASIC服务器占整体AI服务器的比重在2024年将升至26%,而主流搭载GPU的AI服务器占比则约71%。图:图:DeepSeek R1&V3DeepSeek R1&V3推理适配推理适配昇昇腾云腾云表:表:20242024年搭载年搭载ASICASIC芯片芯片AIAI服务器出货占比将逾服务器出货占比将逾2.52.5成成公司公司20222022202320232024E2024ENVIDIANVIDIA67.6%65.
15、5%63.6%AMDAMD(包括(包括XilinxXilinx)5.7%7.3%8.1%IntelIntel(包括(包括AlteraAltera)3.1%3.0%2.9%OthersOthers23.6%24.1%25.3%全部全部100%100%100%资料来源:Trendforce,华为云公众号,国海证券研究所请务必阅读报告附注中的风险提示和免责声明10资料来源:DeepSeek-R1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning,DeepSeek-V3 Technical Report,国海证券
16、研究所MoE架构模型核心创新1、多头潜在注意力(MLA):减少KVCache2、混合专家架构(DeepSeekMoE):细粒度专家分割,共享专家隔离,辅助损失优化的专家负载平衡策略。3、多 Token 预测目标(MTP)4、DualPipe算法。5、支持 FP8 混合精度训练。DeepSeek V3DeepSeek V3以V3作为基础模型,纯强化学习替代有监督微调核心创新1、强化学习RL算法:GRPO框架2、自我演化与AhaMoment:模型通过 RL 自动学习复杂的推理行为,在推理任务上显现突破性的性能提升。DeepSeek R1 DeepSeek R1 ZeroZero以V3作为基础模型,
17、结合冷启动数据的多阶段训练核心创新1、冷启动数据引入:提高了模型的可读性和训练初期的稳定性。2、推理导向的强化学习:通过多轮 RL,优化模型在数学、编程等密集任务表现。3、监督微调与拒绝采样:使用RL检查点生成额外的推理和非推理任务数据。4、全场景强化学习:在最终阶段结合多种奖励信号,提升模型有用和安全性。DeepSeek R1DeepSeek R1Q4:DeepSeek系列模型为何引起轰动?系列模型为何引起轰动?技术与开源技术与开源 模型的优势点:模型的优势点:我们认为,DeepSeek优化模型结构(MLA+MOE)、模型训练方法(DualPipe)、针对性GPU优化(FP8混合精度等)等内
18、容,降低了训练成本,同时进行开源,各下游企业可以直接通过本地部署或云端调用,降低了调用成本。DeepSeek的轰动性:的轰动性:1)快速的技术突破:)快速的技术突破:2024年9月OpenAI发布o1模型,但是2025年1月deepseek就推出类比OpenAI o1的DeepSeek R1,这改变海外对于国内模型能力与迭代速度的认知。2)开源:)开源:DeepSeek R1模型实现了开源,采用MIT协议,一定程度打破高级闭源模型的封闭生态。开源免费调用有助于先行占据市场份额,成为规则制定者,率先拓展生态粘性。请务必阅读报告附注中的风险提示和免责声明11Q5:模型未来侧重:模型未来侧重Dens
19、e还是还是Sparse(MOE)?)?MoE是大模型架构的一种,其核心工作设计思路是“术业有专攻”,即将任务分门别类,然后分给多个“专家”进行解决。与MoE相对应的概念是稠密(Dense)模型,可以理解为它是一个“通才”模型。一个通才能够处理多个不同的任务,但一群专家能够更高效、更专业地解决多个问题。图图:传统大模型传统大模型 vs MoE vs MoE架构架构资料来源:昆仑万维集团公众号,国海证券研究所图图:moemoe模型的优势模型的优势应用应用具体内容具体内容计算效率与传统的Dense模型相比,MoE能够在远少于前者所需的计算资源下进行有效的预训练,计算效率更高、速度更快,进而使得模型规