定制报告-个性化定制-按需专项定制研究报告
行业报告、薪酬报告
联系:400-6363-638
《字节AI深度:战略布局、产业趋势、产业链及相关公司深度梳理-241230(38页).pdf》由会员分享,可在线阅读,更多相关《字节AI深度:战略布局、产业趋势、产业链及相关公司深度梳理-241230(38页).pdf(38页珍藏版)》请在薪酬报告网上搜索。
1、 1/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 行业研究报告 慧博智能投研 字节字节AI深度:深度:战略布局战略布局、产业趋势产业趋势、产业链、产业链及相关公司深度梳理及相关公司深度梳理 近两年来,全球 AI 大模型产业浪潮持续向前推进,国内外龙头大厂纷纷布局。进入 2024 年,字节以同样积极的姿态,全方位布局 AI 应用,力图在 AI 时代复制移动互联网的成功。字节 AI 形成了算力-算法-应用的全产业链布局,其豆包大模型自 2023 年 8 月推出以来,凭借产品领先+高性价比+生态协同优势,实现快速崛起和赶超,跻身国内大模型领军队列。12 月 1
2、8 日,字节跳动举办火山引擎冬季 FORCE 原动力大会,公布了多项重要突破。同时,字节前瞻算力投资有望于 25 年步入收获期,以字节为首的互联网厂商也有望开启新一轮的算力投资。本文将深入探讨字节跳动的 AI 技术。首先,我们会详细介绍字节跳动的主要业务内容,接着梳理该公司在 AI 技术发展上的各个阶段,并简要描述其 AI 战略布局。在此基础上,我们将进一步拆解公司战略布局的各细分领域。随后,我们将基于这些信息,探讨字节 AI 的发展可能引领的产业新趋势。文章的最后,我们会简要梳理字节 AI 的产业链以及与之相关的公司,并着重分析产业链中的关键领域。希望通过这些内容,能够增强大家对字节 AI
3、的认识和理解。目录目录 一、概述.1 二、模型与算力:火山引擎与豆包,构筑大模型 MaaS 底座.5 三、应用:从 C 端到 B 端,AI 应用场景布局丰富.19 四、端侧智能:切入 2C 场景,布局 AI 玩具+AI 眼镜.22 五、字节 AI 为产业带来新趋势.27 六、产业链及相关公司.30 七、参考研报.38 一、一、概述概述 1、字节跳动:打造多平台字节跳动:打造多平台 APP 矩阵矩阵 北京字节跳动科技有限公司成立于 2012 年 3 月,是最早将人工智能应用于移动互联网场景的科技企业之一。公司以建设全球创作与交流平台为愿景,以Inspire Creativity,Enrich L
4、ife(激发创造,丰富生活)为使命,以追求极致、务实敢为、开放谦逊、坦诚清晰、始终创业、多元兼容为字节范儿,并且对于行为准则高度重视,制定了企业行为准则以及合作伙伴行为准则。2/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 字节跳动在全球推出了多款有影响力的产品,包括今日头条、抖音、西瓜视频、飞书、Lark、PICO、剪映、TikTok 等。2021 年年 11 月月 2 日起,新任日起,新任 CEO 梁汝波发布全员邮件,宣布字节跳动将进行组织调整,实现业务线梁汝波发布全员邮件,宣布字节跳动将进行组织调整,实现业务线BU 化(化(BusinessUnit)
5、,成立六大业务板块,),成立六大业务板块,AI 战略目标全线赋能。火山引擎战略目标全线赋能。火山引擎板块致力于打造企业级技术服务云平台,孵化豆包大模型及工具链,构建字节云&AI 计算业务底座。抖音抖音板块涵盖了抖音、今日头条、西瓜视频等多个平台,凭借推荐算法及内容生态驱动字节整体业务增长,是字节商业化的核心;大力教育大力教育板块则从 K12 教育转型为职业教育,专注于智慧学习、成人教育和智能硬件等领域;飞书飞书板块通过合并飞书、企业效率部门和企业应用部门,聚焦提供企业协作与管理服务;朝夕光年朝夕光年板块负责游戏研发与发行,通过收购和自研相结合的方式,逐步建立起多元化的游戏产品矩阵;TikTok
6、 为字节国际化的重要触点,负责海外 TikTok 平台以及支持海外电商等延伸业务的发展。而近两年来公司战略而近两年来公司战略高度重视本轮高度重视本轮 AI 产业浪潮,目前已经基本形成全产业链布局,全面赋能各大业务板块。产业浪潮,目前已经基本形成全产业链布局,全面赋能各大业务板块。2、字节字节 AI 研发阶段研发阶段:AI 布局快速发展布局快速发展 在 2016 年,张一鸣在公司内建立了 AI Lab,力邀微软亚洲研究院前常务副院长马维英、华为诺亚方舟实验室原主任李航、自然语言处理技术专家李磊等多位科学家加入,设立了包括计算机视觉(CV)、自然语言处理(NLP)、语音和音频处理、音乐、机器学习等
7、多个子团队,几乎覆盖当时人工智能涉及的所有前沿领域。但后续因为抖音、TikTok 等核心应用的绝对优势市场地位,AI Lab 在字节的位置松动了,变成了服务于抖音这一应用的技术团队。导致字节,在大模型领域反应较为迟钝,而 2023 年紧急成立的 Seed 团队,某种程度上承担了 AI Lab 最初成立时被赋予的角色:理解和抓住眼下最前沿的人工智能技术。2023 年开始重新对于大模型的投入,是积极的,不仅在人才端抢人,应用端也在抢用户,也使得字节 AI 布局实现了快速地发展。rWpUhYgZwVzWpO9PcMbRsQpPmOnReRpOtRkPnOpObRoOuNvPnPyQvPrQuM 3/
8、38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 3、字节字节 AI 战略布局:覆盖算力、模型及应用的完整卡位战略布局:覆盖算力、模型及应用的完整卡位 字节是国内投入字节是国内投入 AI 激进的互联网大厂,有望拉动国内激进的互联网大厂,有望拉动国内 AI 全产业链从预期到现实,并形成全产业链从预期到现实,并形成 2025 年二年二级投资最重要的映射机会。级投资最重要的映射机会。字节跳动积极投入 AI 的原因:(1)字节跳动不可错失下一代入口级的重大机会;(2)AI 拉动云计算需求,布局 AI 是字节跳动云计算业务火山引擎弯道超车的机会;(3)未上市,在新业务拓
9、展上容错率高。4/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 从从 AI 部门架构来看,字节跳动已形成较为清晰的部门架构来看,字节跳动已形成较为清晰的 AI 部门架构,部门架构,专注于 AI 应用落地的 Flow 部门、专注于大模型研发的 Seed、为 AI 应用产品提供技术支持的 Stone 团队,目前朱文佳、洪定坤、朱骏等为AI 部门团队主要负责人,均已在字节跳动任职多年。字节跳动目前形成算力-算法-应用的全产业链布局,展现出其在 AI 大模型时代类IaaS-MaaS-SaaS三层的完整版图,自下而上:算力环节:依托火山引擎的算力基础设施,可为模型训
10、练和推理提供支持。自研云服务器、算力环节:依托火山引擎的算力基础设施,可为模型训练和推理提供支持。自研云服务器、GPU 服务服务器等,即可对内为模型和应用提供算力支持,也可对外赋能器等,即可对内为模型和应用提供算力支持,也可对外赋能 B 端客户的算力租用。端客户的算力租用。AI+云浪潮下火山引云浪潮下火山引 5/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 擎有望为字节打开云计算市场空间。擎有望为字节打开云计算市场空间。此前字节在云计算领域已有较多布局尝试,AI+云将带来新的机会。火山引擎为字节跳动的核心云基础设施层布局,23H2 GenAI IaaS 市
11、场规模约为 32.2 亿元,其中火山引擎占比约为 21%。字节跳动此前在算卡购买上较为积极,已有着较为充沛的算力储备,支撑公司整体的 AI 应用布局。模型层:字节跳动构建了以豆包大模型为核心的模型层:字节跳动构建了以豆包大模型为核心的 AI 模型体系,涵盖了图像、视频、音频和开发等多个模型体系,涵盖了图像、视频、音频和开发等多个领域。领域。豆包大模型家族包括通用模型 pro 和 lite 版本,针对不同应用场景进行了优化,例如文生图模型。这些模型构成 MaaS 商业版图,通过自然语言处理、计算机视觉和语音识别等核心技术,为字节跳动在AI 应用层的创新提供了强大的技术支持,并为开发者提供成熟完整
12、的工具链,助力生态建设。应用层:应用层:字节跳动的 AI 产品矩阵中内生部分含两大类,1)将 AI 技术深度整合进其传统产品线中,如2B 领域飞书低代码平台、2C 领域抖音及 TikTok 电商广告生态;2)推出全新的 AI2.0 生成式 AI 应用,如豆包、猫箱、星绘、即梦等创新产品,进一步拓展了字节跳动在 AI 内容生成领域的应用边界。字节跳动于字节跳动于 2024 年年 12 月月 18-19 日召开火山引擎日召开火山引擎 2024 冬季原动力大会,展示了公司在端侧冬季原动力大会,展示了公司在端侧 AI 的模的模型、应用、终端、算力等型、应用、终端、算力等全方位布局。全方位布局。二、二、
13、模型与算模型与算力:火山引擎与豆包,构筑大模型力:火山引擎与豆包,构筑大模型 MaaS 底座底座 1、业务载体:火山引擎,赋能内部创新及外延生态业务载体:火山引擎,赋能内部创新及外延生态 火山引擎作为字节跳动企业服务战略的核心平台,依托字节跳动在火山引擎作为字节跳动企业服务战略的核心平台,依托字节跳动在 AI、大数据、云计算等领域的深厚、大数据、云计算等领域的深厚技术积累,迅速构建起面向企业市场的云服务能力。技术积累,迅速构建起面向企业市场的云服务能力。火山引擎的起步可以追溯到 2020 年,当时字节跳动开始将内部积累多年的技术能力对外输出,最初主要依托其在推荐算法、数据分析、视觉智能、多媒体
14、技术等领域的积累,逐步构建起涵盖计算、存储、网络、安全等全方位云服务能力。这一阶段,火山引擎的产品体系不断丰富,以 IaaS 的 CPU 云&GPU 云和 MaaS 模型层为基础,逐步完善企业服务场景。6/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 进入大模型时代,火山引擎通过构建开放的技术、工具生态,持续赋能行业和场景的数字化转型。进入大模型时代,火山引擎通过构建开放的技术、工具生态,持续赋能行业和场景的数字化转型。2023 年,字节跳动推出了面向开发者的企业级大模型服务平台火山方舟平台火山方舟平台,为企业和开发者提供AI 模型训练和推理服务。2024
15、 年 5 月,字节跳动在火山引擎原动力大会上正式发布了豆包大模型(原云雀大模型),豆包大模型的推出不仅丰富了火山引擎的产品矩阵,还为后续的行业应用奠定了更为坚实的技术基础。企业端合作案例包括,火山引擎与南开大学合作,打造了国内首个全面融合大模型能力的智慧校园;与医渡科技合作,基于豆包大模型和火山方舟平台,提升了医疗数据的处理和分析能力;与中手游合作,为仙剑世界引入豆包大模型能力,打造 AI NPC 生态,大幅提升了游戏的趣味性和陪伴感。火山引擎的商业模式核心是云服务订阅,提供火山引擎的商业模式核心是云服务订阅,提供 AI 模型训练和推理服务、以及基于大模模型训练和推理服务、以及基于大模型的行业
16、解决方型的行业解决方案。案。在 ToB 场景中,火山引擎通过 HiAgent 平台,帮助企业轻松构建智能体,赋能业务创新。HiAgent具备多模型适配、智能体构建和企业应用开发管理等多重功能,高度适配企业的个性化需求,使业务人员能够快速构建经营助手、员工助手、智能客服、智能导购、营销文案等各类应用,而无需深厚的编程技能。HiAgent 不仅为企业构建 AI Agent 提供了强大的工具和保障,还通过与字节跳动旗下其他产品的 7/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 联动,构建了企业与 C 端用户的新型桥梁。扣子平台能够将字节的大模型能力快速接入金融
17、、营销、智能家居、消费电子等涵盖千行百业的 AI 应用场景中,扣子目前则已成为中国最具活力的智能体开发社区之一,扣子现有超过 100 万的活跃的开发者,创造出了超过 200 万多个各具特色的智能体应用。火山方舟作为企业火山方舟作为企业 AI 应用开发的核心引擎,平台能力持续优化。应用开发的核心引擎,平台能力持续优化。火山方舟平台在此次 2024 火山引擎FORCE 原动力大会上推出了应用实验室,为客户和开发者提供完整场景化解决方案与源代码。在编程接口方面,火山方舟支持多模态推理、续写能力等功能,并推出 session cache 功能,通过上下文缓存技术显著降低端到端延迟。在多轮对话场景中,企
18、业客户可为独立用户创建专属上下文环境,大量真实案例中可降低端到端延迟 50%以上。此外,火山方舟还推出了全周期数据保障,通过全链路加密、数据高保密、环境强隔离、操作可审计四个安全组件确保信息安全。“HiAgent”+“扣子扣子”助力企业高效开发助力企业高效开发 AI 应用。应用。1)此次大会上正式推出 HiAgent 1.5 版本,依据过往一年实践从企业级真实应用场景沉淀超 100 个行业应用模板供企业利用落地,还提供全新的知识融合能力,打造 AI 知识助手,使知识检索更准确、回复更丰富、可视化更清晰。2)扣子 1.5 版本在大会上正式发布,提供了全新的应用开发环境 IDE,支持低代码搭建用户
19、界面,并全面升级了工作流数据库及知识库等业务逻辑。该版本还推出了全新对话流,支持搭建更复杂对话式 AI 应用,并处理对话历史,提升开发与协作效率。扣子平台还新增了模板功能,提供大量可一键复制的模板,进一步降低构建智能体与 AI 应用难度。例如,扣子上已有许多精品模板,一键复制即可修改发布为专属 AI 应用,如可快速获得扣子官方客服智能体、生图小程序模板。8/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 边缘智能与边缘智能与 RTC 技术结合,拓展技术结合,拓展 AI 应用场景。应用场景。火山引擎在大会上展示了边缘智能平台和大模型网关的结合应用,通过端边云协
20、同框架和平台应用开发工具,助力 AI 技术在边缘设备上的落地。例如,在智能工厂和智能园区案例中,扣子平台与边缘智能平台结合,快速搭建 AI 应用,实现对边缘设备的智能管理。此外,火山引擎还发布了基于 RTC 的 API,将 RTC 技术深入 AI 领域,进一步拓展 AI 应用场景,特别是在实时语音交互和多智能体协同方面。通过将 RTC 技术接入扣子平台,AI Bot 不仅实现了更自然、更流畅的实时语音对话,还支持流式输入,响应时间低至 1 秒,并具备语音打断功能,使用户能够随时输入新的语音内容,进一步提升了对话的流畅度和用户体验。2、模型生态:豆包大模型,技术迭代与商业落地并进模型生态:豆包大
21、模型,技术迭代与商业落地并进 在基础模型方面,字节依托其强大的自研体系,形成了以豆包大模型为核心的产品矩阵,涵盖自然语言在基础模型方面,字节依托其强大的自研体系,形成了以豆包大模型为核心的产品矩阵,涵盖自然语言处理、语音识别、图像生成等多个关键领域。处理、语音识别、图像生成等多个关键领域。通用模型通用模型 pro:作为字节跳动自研的 LLM 专业版,通用模型 pro 支持 256K 长文本,易于落地,并且可以精调,适用于问答、总结、创作和分类等场景。其应用场景包括办公助手、智能客服、文献理解、小说续写、剧本创作、作业批改、长文总结等。通用模型通用模型 lite:作为轻量版通用模型,在保持高性能
22、的同时,进一步降低了 token 成本和延迟,适用于对成本和实时性要求较高的场景。通用模型 lite 适合于舆情分析、广告文案生成、角色扮演、口语对话、意图识别以及内容质检等应用场景。多款特定场景专用模型:多款特定场景专用模型:多款针对特定领域的专用大模型进一步丰富了豆包大模型家族的产品线。例如,语音大模型能够在 5 秒内复刻用户的声音,并支持多种语言和方言的识别和生成,提升了智能体的交互体验。音乐生成模型则能够通过文本描述或图片生成包含旋律、歌词的 1 分钟音乐作品,支持十余种风格。此外,字节跳动还研发了图生图、文生图、视频生成、同声传译等专用大模型,涵盖了从图像生成到视频生成,再到跨语言翻
23、译等多个领域。当前豆包大模型快速增长,大模型家族成员持续上新当前豆包大模型快速增长,大模型家族成员持续上新:9/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 (1)豆包大模型发展迅速,持续迭代下性能提升、成本降低豆包大模型发展迅速,持续迭代下性能提升、成本降低 豆包大模型发布以来,用户使用量增长显著,推理需求持续增长。豆包大模型发布以来,用户使用量增长显著,推理需求持续增长。继豆包 MAU 增长超预期(根据 AI产品榜,11 月豆包 MAU 仅次于 ChatGPT)后,字节在 12 月 18 日火山引擎原动力大会开幕式上公布,其模型的日均 token 调用
24、量在 7 个月的时间内增长了 33 倍,自 5 月发布以来的 1200 亿至 12 月的超 4 10/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 万亿。根据 9 月 24 日火山引擎智能算法负责人、火山方舟负责人吴迪的预测,2027 年豆包每日 Token消耗量将超过 100 万亿。考虑到字节豆包的 token 调用量在 12 月迎来较大的突破,未来在 toB 需求的增长下,日均百万亿的目标有望更快达成。性能方面,豆包通用性能方面,豆包通用 Pro 模型升级后专业知识、任务处理等能力实现与模型升级后专业知识、任务处理等能力实现与 GPT4o 对齐。对齐。
25、2024 年 12 月豆包通用 Pro 模型进行了升级,根据火山引擎 2024 冬季原动力大会,升级后的豆包通用 Pro 模型实现了多项能力的提升:1)在专业知识领域,其性能相比此前提升了 54%,能力领先于 GPT4o;2)在综合任务处理领域,其性能相比此前提升 32%,能力与 GPT4o 持平;3)在指令遵循/逻辑推理/数学领域,其性能相比此前分别提升 9%/3%/43%。成本方面,豆包视觉理解模型的发布推动定价进入成本方面,豆包视觉理解模型的发布推动定价进入“厘时代厘时代”。根据火山引擎 2024 冬季原动力大会,Claude 模型价格为 0.021 元/千 token,GPT 为 0.
26、0175 元/千 token,阿里 Qwen 为 0.02 元/千 token;11/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 而豆包大模型为 0.003 元/千 token,定价比同行低 85%,相当于 1 元钱可以处理 284 张 720P 照片,推动着视觉理解模型定价进入厘时代。猜测豆包实现低价原因:1)在这一价格下豆包并未实现盈利,以抢占客户为主;2)有较多活跃用户后,火山云可以实现较高的芯片利用率,减少公有云闲置算力,从而降低成本。(2)多模态大模型家族全面升级,持续拓展落地场景多模态大模型家族全面升级,持续拓展落地场景 火山引擎 2024
27、冬季原动力大会上,豆包多模态大模型家族全面升级,除了发布视觉理解模型和 3D 生成模型,还对通用模型、文生图模型和音乐模型等旗下多款产品做了全面升级。豆包视觉理解模型:豆包视觉理解模型:通过豆包视觉理解模型,用户可以同时输入文本和图像相关的问题,模型能够综合理解并给出准确的回答,这将极大地简化应用的开发流程,解锁更多的大模型价值场景。当前豆包视觉理解模型在教育、旅游、电商等场景有着广泛的应用。视觉理解能力将极大拓展大模型的场景边界,为大模型的场景使用打开天花板,在金融、医疗、建筑、地理、体育、物流等诸多行业还有非常广阔的应用前景。12/38 2024 年年 12 月月 30 日日 行业行业|深
28、度深度|研究报告研究报告 豆包豆包 3D 生成模型:生成模型:字节与英伟达合作的 veOmniverse 平台发布最新的豆包 3D 生成模型。可以高效完成智能训练、数据合成和数字资产制作,成为一套支持 AIGC 创作的物理世界仿真模拟器。可为 3D 资产生产商提供 AI 开发工具,有望在游戏等领域实现落地。豆包通用模型:豆包通用模型:升级后在专业知识、综合任务处理、指令遵循、逻辑推理和数学能力上全面对标 GPT-4o,部分功能表现更优,而价格仅为 GPT-4o 的 1/8。该模型已在汽车、法务和教育等多个领域已成功落地;豆包音乐模型:豆包音乐模型:支持生成完整 3 分钟音乐,并可进行局部修改,
29、已应用在 vivo 手机 2024 年 10 月发布的 OriginOS5 系统中,能够根据相册内容生成音乐和歌词;豆包文生图模型:豆包文生图模型:升级后新增一键 P 图功能,可根据文字 prompt 精准移除目标,同时支持多任务并行操作;还引入了一键生成海报功能,可稳定生成中文海报,进一步提升用户创作效率与体验。(3)产品领先产品领先+高性价比高性价比+生态协同,豆包后来居上跻身大模型领军队列生态协同,豆包后来居上跻身大模型领军队列 13/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 豆包大模型发布较晚,但快速崛起和赶超。豆包大模型发布较晚,但快速崛起和
30、赶超。2018 年起 OpenAI、谷歌、英伟达、Meta 和微软等海外大型科技企业陆续推出自研大模型技术,2023 年 3-4 月百度、阿里巴巴、科大讯飞、商汤科技等国内科技企业加速入局,陆续发布大模型产品,而字节跳动的豆包大模型于同年 8 月才正式推出。相较竞对而言,字节跳动的豆包大模型起步相对较晚,但凭借模型和产品快速迭代、高性价比优势及生态协同轻松引流,豆包大模型在商业化落地过程中,实现快速崛起和赶超。在多个大模型测评榜单中,豆包大模型均位居前列。在多个大模型测评榜单中,豆包大模型均位居前列。2024 年 12 月,智源研究院发布全球 100 余个开源和商业闭源的语言、视觉语言、文生图
31、、文生视频、语音语言大模型综合及专项评测结果。语言模型方面,针对一般中文场景的开放式问答或者生成任务,模型能力已趋于饱和稳定,但针对复杂场景任务,国内头部语言模型与国际一流水平仍存在显著差距,在闭源大语言模型主观及客观评测方面,豆包通用模型 pro(Doubaopro-32k-preview)分别位居第一及第四;视觉语言模型方面,豆包视觉理解模型(DoubaoPro-Vision-32k-241028)排名第二,仅次于 OpenAI 的 GPT-4o,是得分最高的国产大模型;文生图模型方面,豆包文生图模型(Doubao Imagev2.1)排名第二。此外,在 InfoQ2024 大模型综合能力
32、测评报告中,围绕语义理解、文学写作、知识问答、逻辑推理、编程、上下文理解、语境感知、多语言能力及多模态能力等核心维度进行测评,豆包在全球主要代表性大模型中综合得分排名第六。依托字节跳动的生态协同,豆包具有天然获客优势。依托字节跳动的生态协同,豆包具有天然获客优势。大模型产品能够快速出圈并形成先发优势,用户认知度提升速度和获客速度非常关键。而豆包依托字节跳动的巨量引擎平台,具有天然的流量及高效获客优势。根据 App Growing 数据,豆包智能助手 4-5 月份投放金额仅 1800 万元,而 6 月上旬则飙升至1.24 亿元,与之相应,豆包月活数据也快速超过竞对。可见,借助字节自身平台巨量引擎
33、买量投流,大举助力了豆包快速获取客户、提升 C 端和 B 端客户认知度;而反过来豆包的投流又进一步赋能了巨量引擎这一投流渠道,字节生态协同更加突出。14/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 3、算力部署:推理优先,存储、组网等环节相应优化算力部署:推理优先,存储、组网等环节相应优化(1)字节在字节在 GPU 集群建设、自研芯片等方面深度布局集群建设、自研芯片等方面深度布局 GPU 集群建设:集群建设:据算力豹数据,字节早已完成了万卡集群的布局。2023 年 9 月,字节跳动建立起超过1 万张卡的 Ampere 架构 GPU(A100/A800)集
34、群,并持续建设大规模 Hopper 架构(H100/H800)集群。这些高性能 GPU 集群为字节跳动的大模型训练提供了强大的算力支持。自研芯片:自研芯片:字节启动了多个芯片自研项目,包括 AI 芯片、服务器芯片、FPGA NIC(FPGA 形态的智能网卡)和 RISC-V 项目。2023 年 4 月字节宣布完成自研 DPU 的成功应用;服务器芯片的主要方向是视频编解码芯片。这些自研芯片主要用于满足字节跳动自身业务的需求,如视频编解码、云端推理加速等场景。(2)推推理优先,存储、组网等环节相应优化理优先,存储、组网等环节相应优化 1)IDC/智算中心:发布新一代智算中心:发布新一代veStac
35、k混合云智算版混合云智算版2.0 在在火山引擎火山引擎 FORCE 原动力大会原动力大会上,上,火山引擎发布新一代火山引擎发布新一代 veStack 混合云智算版混合云智算版 2.0,支撑,支撑 10 万卡万卡集群异构场景。集群异构场景。2.0 支持更多的异构卡、更广泛的操作系统和更大规模的集群组网能力,和火山引擎公有云同源同构,能够给用户提供与公有云一致的用云体验。当前该平台已支持英伟达系列 GPU 及国产GPU 等 20 余类 AI 芯片,且支持一套平台管理多个异构卡集群。训练场景可支持 10 万卡集群,推理场景支持 prefill 与 decode 分离需求,最大化算力利用率。智算平台的
36、持续迭代,进一步确保字节算力底座的投建确定性与节奏。15/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 2)通信网络:推理架构指引算网硬件新趋势通信网络:推理架构指引算网硬件新趋势 此次火山引擎 FORCE 原动力大会提出了以 AI 负载为中心的基础架构范式,对通信网络的需求增加巨大。计算角度看:新一代的火山引擎 GPU 实例,通过 vRDMA 网络,支持大规模并行计算和 P/D 分离推理架构,显著提升训练和推理效率,降低成本。存储角度看:新推出的 EIC 弹性极速缓存,能够实现 GPU 直连,使大模型推理时延降低至 1/50;成本降低 20%。安全角度看
37、:火山将推出 PCC 私密云服务,构建大模型的可信应用体系。基于 PCC,企业能够实现用户数据在云上推理的端到端加密,而且性能很好,推理时延比明文模式的差异在 5%以内。字节重视推理布局,字节重视推理布局,P/D 分离架构利于整体效率和推理体验提升。分离架构利于整体效率和推理体验提升。在 Transformer 推理过程中利用 KV Cache 技术可降低 Decoding 阶段的计算量,目前已成为 LLM 推理系统的必选技术。采用 KV Cache 的 LLM 推理过程通常分为预填充(Prefill)和解码(Decode)两个阶段。Prefill 阶段:将用户请求的 prompt 传入大模型
38、,进行计算,中间结果写入 KV Cache 并推出第 1 个token,该阶段属于计算密集型操作。Decode 阶段:将请求的前 1 个 Token 传入大模型,从显存读取前文产生的 KV Cache 再进行计算,该阶段属于访存密集型操作。16/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 在实际的深度学习模型部署中,考虑到 Prefill 和 Decode 两阶段的计算/通信特征的差异特点,为了提升性能和资源利用效率,通过通过 P-D 分离部署方案将分离部署方案将 Prefill 和和 Decode 分别部署在不同规格和架构的分别部署在不同规格和架构的集
39、群中,在提供更好用户体验的前提下,提升算力利用率。因此可以近似理解为:集群中,在提供更好用户体验的前提下,提升算力利用率。因此可以近似理解为:Prefill 阶段的算力阶段的算力网络需求,对单卡算力性能要求较高,而网络需求,对单卡算力性能要求较高,而 Decode 阶段则可适当降低单卡算力要求但对访存能力的需阶段则可适当降低单卡算力要求但对访存能力的需求大幅提升;因此对求大幅提升;因此对 chip to chip 或或 machine to machine 维度的通信网络需求增加(例如以太网、维度的通信网络需求增加(例如以太网、NVLink、PCIe 等)。等)。17/38 2024 年年 1
40、2 月月 30 日日 行业行业|深度深度|研究报告研究报告 硬件角度看,芯片的算力性能提升速度快于内存性能,模型参数量的增速也快于硬件性能提升;字节硬件角度看,芯片的算力性能提升速度快于内存性能,模型参数量的增速也快于硬件性能提升;字节P/D 分离的推理架构,也一定程度指引了未来算力网络硬件在推理场景下的发展方向。分离的推理架构,也一定程度指引了未来算力网络硬件在推理场景下的发展方向。由于 Prefill 和 Decode 对硬件需求侧重不同,实际上将 GPU 分类并专用于 P 或 D 场景的架构效率,高于合并运行的架构,同时 D 过程的吞吐量更高;且 P/D 并行时,两个阶段的并行方式也共享
41、(例如数据并行、张量并行、流水线并行等),而分离后可以针对不同阶段的不同特征,分别应用不同的并行策略。因此 P/D 分离后可以分别优化计算和存储的性能,最大化硬件利用率。实际上推理阶段(尤其字节实际上推理阶段(尤其字节 P/D 分离的推理架构)对高性能硬件的需求增加,而非市场普遍理解的推分离的推理架构)对高性能硬件的需求增加,而非市场普遍理解的推理对硬件性能需求下降,且成本、效率、应用体验、安全等刚需下,硬件扩展的网络设计复杂度和需求理对硬件性能需求下降,且成本、效率、应用体验、安全等刚需下,硬件扩展的网络设计复杂度和需求量均增加,与训练阶段形成明显差异。量均增加,与训练阶段形成明显差异。3)
42、火山引擎火山引擎GPU Direct KVEIC加速大模型推理加速大模型推理 火山引擎推出火山引擎推出 GPU Direct KVEIC 技术服务,使大模型推理时延降低至技术服务,使大模型推理时延降低至 1/50,读写吞吐量提升,读写吞吐量提升 10倍,推理成本降低倍,推理成本降低 20%。大模型推理过程中的关键环节是 KV 缓存的加速以及 GPU 的高效利用。火山引擎通过 GPU Direct RDMA 技术,绕过主机的 CPU 和内存,直接从远程数据源访问 KV 数据。此外,EIC 服务通过以存代算的策略,降低了 20%以上的 GPU 消耗。在对比通用方案和 GPU Direct KVEI
43、C 方案时,通用 KV 存储方案如 Redis/Valkey 需要通过 CPU 进行数据处理和传出,效率较低;而通过 GPU Direct 直连和 EIC,数据可以由 GPU 读取并传输,读写吞吐量提升并且计算时延优化。GPU Direct KV 旨在优化旨在优化 KV 存储与存储与 GPU 之间的数据传输效率。之间的数据传输效率。GPU Direct KV 是一种结合 GPU Direct 直连与键值存储(Key-Value Store)的计算框架。GPU Direct 是英伟达推出的一系列技术,旨在提高数据在 GPU 与存储设备之间的传输效率。在数据处理和存储系统中,键值对(KV)存储是一
44、种常见的数据存储方式。在涉及 GPU 计算的场景中,KV 存储与 GPU 的高效传输对计算效率较为关键。火山引擎的 GPU Direct KV 使用 GPU 直连对键值对(KV)数据存储进行访问和加载,通过直接内存访问等技术,减少数据传输的中间环节,允许 GPU 直接与 KV 存储设备进行高速数据交互。18/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 弹性极速缓存弹性极速缓存 EIC 通过以存代算大幅降低推理通过以存代算大幅降低推理 GPU 资源消耗,优化推理时延。资源消耗,优化推理时延。弹性极速缓存 EIC(Elastic Instant Cache)
45、是火山引擎为大模型等场景提供的高速 KV Cache 服务。传统的大模型推理执行多轮对话时,为了节省显存,历史对话的键值对(KV)Cache 都不会保存。后续推理需要反复计算历史 Token 的 KV Cache,导致计算资源浪费、推理成本增加。弹性极速缓存 EIC 位于 GPU 和存储之间,负责缓存大模型推理过程中的中间结果和常用数据。当 GPU 需要历史 tokenKV 时,首先会在 EIC 中查找,如果数据已经存在于缓存中,则可以直接从缓存中调用,无需再从 KV 存储设备中读取,以此降低推理 GPU 资源消耗。火山引擎火山引擎 EIC 和华为云和华为云 EMS 采用类似的以存代算策略。采
46、用类似的以存代算策略。2024 年 6 月,华为云发布 EMS 弹性内存存储服务(Elastic Memory Service),旨在缓解大模型训练与推理面临的内存墙问题,其中一个策略便是以存代算;7 月,华为云 EMS 团队发布 Cached Attention 论文进行解释,基于 AttentionStore 实现了大模型推理过程中的 KV Cache 复用,降低了高达 87%的大模型推理的首 Token 时延,提升了 Prefill阶段 7.8 倍的吞吐量,从而大幅降低端到端推理成本。19/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 火山引擎 GP
47、U Direct KV-EIC 技术显著提高大模型推理性能。2024 火山引擎冬季 FORCE 原动力大会智算专场中,火山引擎展示了该技术的应用效果。1)多轮对话场景性能稳定性大幅提升:)多轮对话场景性能稳定性大幅提升:得益于 GDKV 更大的 KV Cache 缓存能力,在多轮对话中,系统能够保持高效的吞吐量(Goodput)。在 Prefill 和 Decode 阶段,吞吐量会受到影响,尤其是在多轮对话时。经过对比发现,采用 GDKV 技术方案即使达到 6 到 7 轮的对话,有效吞吐量仍然保持在 90%以上,而传统方案的性能已经显著下降。2)模型加载加速显著:)模型加载加速显著:大模型的参
48、数规模不断增大。由于 GPU 资源昂贵,很多时候同一 GPU 会被用于多个模型,导致模型加载时可能会遇到瓶颈。GDKV 从远端直接读取 GPU 显存,GDR 带宽大幅提升,70B 大模型的加载速度提升 6 倍之多。三、应用:从三、应用:从 C 端到端到 B 端,端,AI 应用场景布局丰富应用场景布局丰富 已上线超已上线超 20 款款 AI 应用,驱动字节将应用,驱动字节将“APP 工厂工厂”方法论输出到方法论输出到 AI 应用。应用。在移动互联网时代,字节围绕抖音、今日头条两款亿级 DAU 的产品布局移动 APP 矩阵。据晚点 LatePost 统计,2018 年以来字节自研或收购了大量项目,
49、在 AppStore 上线约 140 个应用。在生成式 AI 时代,字节将APP 工厂方法论输出到 AI 应用,有望挖掘 AI 时代的抖音和今日头条。根据 ZFinance、七麦数据统计,字节已在全球上线超过 20 款 AI 应用,覆盖视频生成、虚拟陪伴、图片生成等几乎所有热门细分赛道。20/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 1、字节、字节 AI 助手:面向国内、海外推出豆包和助手:面向国内、海外推出豆包和 Cici 字节分别面向国内、海外推出豆包和字节分别面向国内、海外推出豆包和 Cici,两者的功能相近,均包括,两者的功能相近,均包括 AI
50、 聊天机器人和大量智能体。聊天机器人和大量智能体。豆包是字节旗下用户量最多的原生 AI 应用,也是国内第一大、全球第二大 AI 应用 App。根据 AI 产品榜统计的 AI 应用 App 月活数据,从绝对规模看,豆包 App 在 11 月月活 5998 万,环比增加 17%,高基数下 8-11 月复合增速 14%;从相对规模看,11 月豆包 App 月活约为国内第二大 AI 应用(文小言 App)的5 倍。Cici 在 11 月月活 1267 万,与谷歌 GeminiApp 的月活相近。2、字节字节 AI 音乐模型:降低用户创作门槛,音乐模型:降低用户创作门槛,AI 向生成创意方向持续取得进向
51、生成创意方向持续取得进展展 降低音乐创作门槛,降低音乐创作门槛,AI UGC 内容平台向音乐领域延伸。内容平台向音乐领域延伸。字节 AI 音乐模型具备独特的音乐生成的架构,用户可在海绵音乐等应用上体验,可实现用户输入一个灵感,AI 工具在十几秒后生成质量较好的成品。字节 AI 音乐模型亮点在于歌词生成更加精准、押韵效果也不错、旋律丰富多样。有望极大降低 AI 音乐创作门槛。21/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 3、字节字节 AI 视频创作:即梦平台,有较强内容一致性视频创作:即梦平台,有较强内容一致性 24 年年 5 月字节发布即梦平台,集成
52、月字节发布即梦平台,集成 AI 图片生成、图片生成、AI 视频生成等视频生成等 AI 功能,定位为综合功能,定位为综合 AI 创意工具创意工具平台,近期新一代模型更新上线。平台,近期新一代模型更新上线。24 年 11 月字节跳动在即梦平台上线新一代 AI 视频大模型PixelDance,可实现较为出色的性能。相比同类竞品等,基于 PixelDance 模型的图生视频功能生成内容的一致性、视频内容拓展幅度、文本忠实度及连贯性上均有着较为亮眼的表现。此外,面向抖音推出的视频剪辑产品剪映(海外版叫 CapCut,面向 Tiktok 推出)也集成了视频生成、图像编辑等一系列 AI功能,提高创作者的内容
53、生产效率。4、字节字节 AI 教育:推出垂类场景模型,已有标杆客教育:推出垂类场景模型,已有标杆客户户 Gauth 是字节跳动在 2020 年底推出的拍照搜题类应用,早在 23 年 5 月就集成 AI 功能,陆续接入GPT-4 和 Bard,主要用于提高答案的准确度;24 年初升级 AI 功能,答案准确度进一步提高,且详细罗列解题步骤和原因。根据 AI 产品榜,Gauth 受学生假期等因素影响略有波动,11 月 App 月活 862 万,环比下降 47%,出海应用中排名第 5,但 10 月活环比增加 69%至 1626 万。豆包爱学是字节面向国内推 22/38 2024 年年 12 月月 30
54、 日日 行业行业|深度深度|研究报告研究报告 出的 AI 教育 App,前身是字节旗下大力教育的 AI 教育 App 河马爱学,9 月正式更名为豆包爱学,提供答疑解惑、作业批改、知识问答、作文辅导和口算练习等功能。5、字节字节 AI 营销:大模型助力降本增效营销:大模型助力降本增效 大会智能体+实体产业专场中,美宜佳 CIO 代迪先生受邀发表营销 Al 助力增效降本主题演讲。美宜佳全国共拥有 3.7 万家连锁便利店,每月服务约 2.5 亿人次线下消费者。美宜佳与火山深度合作,打造工具链平台,豆包大模型+云资源赋能多个 AI 落地场景:1)数字店员:通过数字人店员,提供 24 小时服务、具备多语
55、言能力、增强和顾客互动与营销能力;2)营销素材生成:AI 精准定位商圈人群,生成对应营销文案和素材。形成数据资产与业务应用的飞轮,持续优化 ROI。6、字节、字节 AI 社交:推出社交:推出 AI 虚拟陪伴应用虚拟陪伴应用 猫箱(海外版叫 Anydoor)是一款 AI 虚拟陪伴应用。与星野、冒泡鸭等国内同类产品相比,猫箱会在对话后面描述虚拟对象的心理活动和神态,营造更好的聊天氛围感,且记忆能力更强。根据 AI 产品榜,11 月猫箱 App 月活 458 万,环比增加 23%。7、字节、字节 AI 图像:推出两大类图像:推出两大类 AI 图像产品图像产品 字节共推出两大类 AI 图像产品。一类是
56、星绘(海外版叫 PicPic),主要提供 AI 写真功能,使用体验类似妙鸭相机,根据 AI 产品榜,11 月 App 月活 124 万,环比持平。另一类是 AI 修图应用星绘(海外版叫 Hypic),功能类似于美图秀秀。四、端侧智能:切入四、端侧智能:切入 2C 场景场景,布局,布局 AI 玩具玩具+AI 眼镜眼镜 1、汽车、手机、汽车、手机、PC 等终端设备:等终端设备:实现智能交互与个性化服务全面升级实现智能交互与个性化服务全面升级 豆包大模型以通用能力为基础,赋能多终端豆包大模型以通用能力为基础,赋能多终端 AI 应用。应用。在汽车、手机、PC 等终端设备中,豆包大模型提供了旅游景点推荐
57、、教育辅导(如口语陪练和奥数题辅导)、工作支持(如复杂资料阅读和多媒体创作)等功能。23/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 汽车端:大模型与智能座舱深度融合。汽车端:大模型与智能座舱深度融合。豆包的大模型技术已广泛应用于汽车座舱场景,包括自然语音交互、个性化服务和多模态交互等功能。通过提升语音识别系统与上下文记忆能力,可实现对用户情绪的识别并检索用户喜好,主动分享话题;大模型技术还能结合实时时间检索用户历史行为,给出友好生活建议。公司表示,过去 7 个月整个汽车行业在豆包的日均 token 消耗量增长了超过 50 倍。截至目前,豆包大模型已经服
58、务了国内超过 80%的汽车品牌。手机端:深度融合操作系统,赋能智能助手手机端:深度融合操作系统,赋能智能助手。豆包大模型在手机端赋能智能助手,提供陪伴闲聊、百科问答和实时咨询等交互功能,同时成为创作工具,支持相册美化、文档润色和个性化搜索等场景。目前,智能终端领域,豆包的日均 token 消耗量已实现超 100 倍增长,多款 AI 手机已集成豆包大模型。荣耀Magic 系列手机将火山方舟与豆包大模型全面引入其 AI 中台,推动智能终端功能创新与用户体验的全面升级。PC 端:端:豆包电脑版提供浏览网页时的智能问答与总结功能,通过右上角提问按钮即可获得实时支持。同时,即将上线的文档编辑器将提供一键
59、润色功能,并支持全网搜索插图并自动嵌入文档,全面提升办公效率。2、AI 玩具:字节玩具:字节+乐鑫乐鑫+ToyCity、Folotoy、魂伴科技发布、魂伴科技发布 AI+硬件智跃硬件智跃计划计划 在火山引擎 2024 冬季原动力大会首日的视频云&边缘云专场活动中,火山引擎与乐鑫科技、火山引擎与乐鑫科技、ToyCity、Folotoy、魂伴科技联合发布了、魂伴科技联合发布了 AI+硬件智跃计划,硬件智跃计划,其后乐鑫科技副总经理王珏女士受邀发表主题演讲。乐鑫提供的乐鑫提供的“连接连接+处理处理”芯片,将作为潮玩产品的芯片,将作为潮玩产品的“大脑和神经大脑和神经”。制造商构建玩具的结构和骨肉,作为
60、肉体部分;云端大模型赋予产品半个灵魂,IP 创作者赋予手办形象,其想传递的精神和内容赋予了产 24/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 品另半个灵魂;而乐鑫作为连接和交互能力的技术提供者,其具有连接功能的处理器芯片则可以将肉体和灵魂相连。端侧处理端侧处理+云端调用,提供一站式云端调用,提供一站式 Turnkey 解决方案。解决方案。本次与字节的合作方案中,乐鑫将提供一站式Turnkey 解决方案,通过 Wi-Fi 调用云端提供的智能体服务。该解决方案可以理解为:一站式硬件(已有丰富解决方案的端侧音视频处理)+端到端大模型(通过低延迟抗干扰的 RT
61、C 技术,设备端到云端的大模型应用可实现真人感的实时通话)。预计未来更多 AI 应用落地,乐鑫的无线 SoC 以及方案作为将 AI 大模型运用到端侧设备的关键环节预计充分受益。乐鑫技术端可支撑通用乐鑫技术端可支撑通用 IoT/边缘边缘 AI/云端云端 AI 功能。功能。其中,通用 IoT 功能主要包括连接、控制、屏显、摄像头等;边缘 AI 功能主要包括支持语音唤醒、语音控制、人脸和物体识别等;云端 AI 功能主要为依托于豆包等大模型实现生成式内容输出,不论输出形式是语音或是屏幕显示。AI 玩具兼具教育玩具兼具教育+陪伴价值。陪伴价值。24 年中秋节火山引擎发放显眼包非商业化产品,其集合了蓝白色
62、毛绒玩具+内嵌 FoloToy 的 AI 机芯魔匣+火山引擎 AI 技术(豆包大模型、扣子专业版、语音识别、语音合成等),不仅能理解并回应复杂的问题,同时积极鼓励的互动,甚至主动发出互动邀请、主动建立高质量情感连接,内置中英文两个角色。作为非卖品,显眼包在二手市场交易价格已超过 200 元。同类产品已有可观销量:1)Bubblepal 单价 399 元,24 年 7 月发售,全年预计销量 8-10 万;2)FoloToy AI 玩具 C 端累计出货量 2 万;3)AI 萌宠机器人 LOVOT 单价 2 万人民币起,销量已破 1.4 万;4)AI 伴老机器人 Hyodol 单价 6500 元,累
63、计出货 1 万台。AI 玩具可满足教育和陪伴价值,叠加低成本的优点实玩具可满足教育和陪伴价值,叠加低成本的优点实现快速落地,随模型能力与软硬结合度提高,有望落地更多场景。现快速落地,随模型能力与软硬结合度提高,有望落地更多场景。25/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 火山原动力大会发布火山原动力大会发布 AI+硬件智跃计划。硬件智跃计划。该计划结合豆包大模型+火山引擎的拟人化语音对话+ToyCity的潮玩设计+乐鑫科技的 AI 芯片等,推动 AI 潮玩的普及化。乐鑫科技副总经理王珏女士认为,未来 AI玩具在多个产品形态中均具备潜力:1)二次元品
64、类包括吧唧、卡片、亚克力立牌等产品,通过底座嵌入电路板实现电子化功能,简单实现AI+的同时避免三次元翻车;2)三次元产品例如手办、可动人偶、艺术模型。增加 AI 实现更好的交互体验,并塑造更立体的 IP 形象,增加受众面积,提高用户粘性及付费意愿。2、眼镜、耳机等其他终端:智能眼镜眼镜、耳机等其他终端:智能眼镜&Ola Friend,接入豆包大模型,接入豆包大模型 继继 Meta Rayban 二代眼镜爆火后,眼镜成为二代眼镜爆火后,眼镜成为 AI 终端落地热门方向。终端落地热门方向。Meta RayBan 二代于 2023 年 9月发布,2024 年 4 月升级 AI 功能、链接 Llama
65、3 大模型,成为 2024 年 AI 爆款终端。TheVerge 统计,截止 2024 年 5 月,MetaRay-Ban 智能眼镜的全球销量已突破 100 万副,预计 2024 年全年出货量有望超过 150 万副。26/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 字节跳动在眼镜产品线布局已久,字节跳动在眼镜产品线布局已久,PICO 国内市占率已超国内市占率已超 70%。2015 年 PICO 发布便携式虚拟现实头盔 Pico1,6 年后字节跳动收购 PICO,并于 2022 年发布 PICO4,创新搭载 Pancake 折叠光路设计、62-72 毫米无
66、级电动瞳距调节。目前 PICO 已发布十余款头显产品,据洛图科技 RUNTO 数据,2024 年上半年 PICO 国内市占率 73%。据 Counterpoint,2Q24 PCIO 全球市占率第二,仅次于 Meta。也使得字节在眼镜领域具备了丰富的技术能力和市场经验。AI 眼镜方面,投资李未可科技,持股比例眼镜方面,投资李未可科技,持股比例 20%。李未可科技是一家专注于 AI+AR 技术的科技公司,22 年获得字节跳动千万元天使轮融资,24 年推出 AI 智能眼镜Meta Lens Chat,售价 699 元,主打AI 语音交互,通过点触镜腿唤醒 AI 语音助手,搭载自研大模型 WAKE-
67、AI,不仅能在 500 毫秒内快速响应用户指令,还支持百科问答、学习辅助、英文翻译、语音导航、情感陪伴等多种功能。同时李未可也曾推出多款 AR 眼镜例如 Meta Lens S 系列。至此,字节跳动已全面布局 VR、AR、AI 眼镜,眼镜是第一视角的最佳载体,结合其视觉大模型的识别、理解、推理能力,字节此赛道未来将会有更大发展空间。字节推出首款智能耳机产品字节推出首款智能耳机产品 Ola Friend,接入豆包大模型。,接入豆包大模型。2024 年 10 月,字节跳动旗下首款智能耳机产品 Ola Friend 正式发布,外观延续了 Oladance 的开放式设计风格,单只重量 6.6g,主体部
68、分最宽10mm,最薄 7mm,耳挂连接处为 0.7 毫米金属钛丝,佩戴几乎无感,即使长时间佩戴也不会感到负担。单只耳机的续航时间为 8 小时,搭配充电盒使用则可将续航延长至 28 小时。搭载 5 核专业音频芯片,采用物理+算法双防风噪设计,精准提取人声,实现高通话清晰度,售价 1199 元。功能上,Ola Friend接入了豆包 AI 大模型,用户在下载豆包手机 APP 并连接 Ola Friend 后,可通过豆包豆包唤醒词或长按耳机进行语音交互,支持随时问答、英语陪练、旅行导游、音乐控制以及情绪沟通等多项 AI 功能,提供随时随地陪伴。27/38 2024 年年 12 月月 30 日日 行业
69、行业|深度深度|研究报告研究报告 五、五、字节字节 AI 为为产业产业带来新带来新趋势趋势 1、IDC/智算中心:高算力部署需求下优先受益智算中心:高算力部署需求下优先受益 IDC 行业而言,市场和产业对以算力为代表的资源供给是否过剩分歧较大,尤其是在传统上架率指标的视角下;通过测算认为,伴随传统数据中心向伴随传统数据中心向“智算中心智算中心”演进,行业供需开始出现缺口,演进,行业供需开始出现缺口,“有效供给有效供给”的稀缺性较强,行业发展面临分化。的稀缺性较强,行业发展面临分化。机房机房/IDC/智算中心每一轮周期都遵循自上而下的传导逻辑,由资本开支拐点开始。智算中心每一轮周期都遵循自上而下
70、的传导逻辑,由资本开支拐点开始。国内 BAT24 年三季度加总资本开支同比增长 128.48%,自 2023Q4 起显著回暖,且同样重点投资 GPU、AI 服务器等基础设施设备。国内 AI 模型与应用发展空间巨大,下游 Agent 产品、AI 应用终端等远未达到最终形态,算力需求具有长期持续性。结合字节近期All in AI决心与国内互联网厂商竞争态势,能够认为国内互能够认为国内互联网厂商将持续加大算力投资,扩大智算中心建设。联网厂商将持续加大算力投资,扩大智算中心建设。28/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 第三方第三方 IDC 厂商交付节奏
71、迎来转折点。厂商交付节奏迎来转折点。在建 IDC 楼栋转固可一定程度上体现 IDC 交付情况;同时由于未来需求以可承载 AI 算力集群的大规模批发型数据中心为主,进一步重资产的约束下 IDC 厂商基本按需、按客户定产,因此 IDC 厂商在建工程转固情况亦可体现预期需求落地情况。此前由于短期供需失衡,核心第三方 IDC 厂商普遍放慢新增楼栋交付节奏;24 年前三季度,绝大多数主流第三方 IDC 厂商转固同比增速均回升,体现市场整体供需关系转好,当下或为重要转折点。“算力尽头是电力算力尽头是电力”,能耗跟踪是,能耗跟踪是 IDC 行业景气变化的重要线索。行业景气变化的重要线索。IDC/AIDC 作
72、为高耗能行业,算力与电力匹配是现实需求。不同于传统 IDC,由于 AI 训练/推理的高负载特性,包括 AI GPU 在内的 AI 硬件运行功率通常接近其热设计功率(TDP)。因此,自下而上来看,由于 GPU 芯片功耗不断提升,单台 AI 服务器以及单机柜功率持续提高。另据 Vertiv(维谛)预测,以能耗为单位,2023-2029 年全球新增智算中心总负载将达 100GW,每年新增约 13-20GW。能耗视角,承载能耗视角,承载 GPU/AI 服务器的智算中心新增有效供给,仍然供不应求。服务器的智算中心新增有效供给,仍然供不应求。基于华为、Nvidia(英伟达)等文件以及 IDC 数据,测算得
73、到 2023 年以及 24 年上半年承载算力集群的 AI 服务器对应智算中心所需总负载约为 2GW;同时基于主流第三方厂商资本开支(由于智算中心建设预计以超大规模为主,马太效应凸显,主要考虑 7 家核心第三方 IDC 厂商)以及每 MW 容量智算中心建设对应资本投入,得出 23 年+24 年上半年实际供给的总 IT 负载不到 1GW,供应缺口较大。即便考虑运营商与 CSP 自建,由于算力规模爆发与智算中心建设均处于起步阶段,且场景差异化较大,能够认为短期内整体格局实际供不应求。29/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 拉长时间维度,当前以 AI
74、为技术锚点的产业红利传导逻辑,与上一代移动互联网时期是相似的;时间关系对应来看,AI 带来的行业新周期仍在前期上行阶段;下游应用/终端等进一步催化后,行业或将进入类似 16-20 年的高速增长周期。此外,新一轮 AI 周期或将伴随核心互联网厂商的此消彼长,对第三方 IDC 公司而言,赢优质客户、赢长期合作关系者赢天下。2、计算及连接芯片市场将蓬勃发展、计算及连接芯片市场将蓬勃发展 由于基础大模型的迭代需要较大的研发和资本开支投入,能够持续在底层大模型技术实现突破的企业日由于基础大模型的迭代需要较大的研发和资本开支投入,能够持续在底层大模型技术实现突破的企业日益减少,拥有资金、人才储备优势的大型
75、云厂商开始引领行业发展的趋势逐步确立。益减少,拥有资金、人才储备优势的大型云厂商开始引领行业发展的趋势逐步确立。根据 Omdia 数据,字节 2024 年对 Nvidia 高端 AI 芯片产品的采购量有望超过 20 万张,仅次于 Microsoft,甚至超越部分北美企业,总资本支出达到数十亿美元。能够认为,大型云厂商高强度的研发和资本开支投入,为其带来了在基础大模型技术实力的快速迭代以及应用端的快速推广,未来大型云厂商有望快速形成模型研发及商业落地的闭环,并在需求端持续对大算力 AI 芯片构成拉动。供给侧来看,宏观背景加速了中国科技公司走向技术自主的步伐,国产云端 AI 算力芯片厂商通过多年技
76、术积累已将技术差距与全球龙头企业缩短至 2-3 年水平。随着国产先进制程供应链的建立,国产云端 AI 芯片的业绩成长之路有望变得更加清晰。端侧来看,国产多模态大模型崛起将带来端侧硬件机会,其中端侧来看,国产多模态大模型崛起将带来端侧硬件机会,其中 SoC 芯片在不同场景下有望发挥差异化芯片在不同场景下有望发挥差异化作用作用,端智能场景中,端侧 AI 算力需求较低,通常更侧重连接和低功耗能力,能够认为在相关能力上领先的 SoC 龙头有望受益于未来的 AI 眼镜浪潮;边智能场景中,能够认为 SoC 算力未来有不断升级的趋势;端边云协同场景中,在连接和计算方面能力更全面的龙头将受益。30/38 20
77、24 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 3、算力卡结构发生变化,算力卡结构发生变化,ASIC 和推理场景增加和推理场景增加 预计 2025 年豆包推理场景有望快速落地,推理算力需求大幅增加。相比于训练场景,推理场景国产卡需求更加旺盛。2024 年 10 月,黄仁勋称,目前 NVIDIA 超过 40%的收入来自推理任务。博通明确提出 ASIC 需求旺盛。CEO Hock Tan 预计 2027 年市场对定制款 AI 芯片的需求规模为 600 亿至 900 亿美元。国产 AI 芯片持续迭代,各家新品进入测试阶段。同时,随着字节等大厂推理需求加大,国产算力和海外算力
78、相对差距缩小,2025 年国产算力以华为昇腾为首,有望迎来百花齐放。3、端侧有望迎来端侧有望迎来“+AI”端侧将是 AI 的重要落地场景和流量入口。字节已经发布了 AI 耳机,后续有望在更多 AI 硬件终端上有布局。但从字节发展历程上看,字节在硬件布局较少,生态伙伴有望承担起更多 AI 硬件开发工作。以字节为突破,更多 AI 大厂有望和硬件终端合作,开启AI+硬件产品开拓,端侧有望迎来新变化。六、产业链六、产业链及相关公司及相关公司 字节 AI 产业链及相关企业包含:1)算力:润泽科技、寒武纪、兆易创新、浪潮信息、华工科技、英维克、盛科通信、光讯科技等;2)AI 硬件:兆易创新、乐鑫科技、移远
79、通信、润欣科技、中科蓝汛、恒玄科技等;3)数据:海天瑞声、视觉中国等;4)应用和生态合作:中科创达、汉得信息、盛天网络、游族网络、实丰文化、居然智家、浙文互联、掌阅科技、博纳影业、芒果超媒、华策影视、冰川网络、易点天下、富春股份、蜂助手等。31/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 32/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 此次火山引擎 FORCE 原动力大会多项模型表现均超市场预期,AI 应用快速拓展下字节链行情极具稀缺性,有望成为长期投资主线,算力需求亦同步快速扩张。从字节产业链来看,AIDC 及
80、算力设备两个方向值得关注。1、润泽科技:字节润泽科技:字节 AIDC 核心合作伙伴核心合作伙伴 润泽科技是全国领先的综合算力中心领域的科技公司。润泽科技是全国领先的综合算力中心领域的科技公司。公司成立十五年来始终以构筑中国信息化产业长城,夯实中国数字经济发展基石底座为愿景,以稳定、安全、可靠、绿色为服务宗旨,坚持在智能算力、算力基础设施、数字经济等领域持续性、大规模投入,专注于园区级、高等级、高效高性能、绿色的综合算力中心的投资、建设、持有和运营,持续构建技术先进、布局合理、供需匹配、安全可靠、绿色低碳的算力基础设施集群,逐步在业内树立了良好的声誉和品牌影响力,是国内领先的综合算力中心整体解决
81、方案服务商。截至 2024 年上半年,公司已在京津冀 廊坊、长三角 平湖、大湾区 佛山和惠州、成渝经济圈 重庆、甘肃 兰州和海南 儋州等全国 6 大区域建成了 7 个 AIDC 智算基础设施集群,基本完成了全国一体化算力中心体系框架布局,全国合计规划 61 栋智算中心、约 32 万架机柜。公司于公司于 2009 年开始布局一线城市周边区域,较早掌握了一线城市周边稀缺的土地、能耗、电力等核心年开始布局一线城市周边区域,较早掌握了一线城市周边稀缺的土地、能耗、电力等核心基础资源。基础资源。首先,由于北上广深等一线城市人口密度大、总部企业多、经济繁荣、产业集群程度高、数据产生量巨大,使得一线城市机柜
82、需求尤为旺盛,而公司选址又严格遵循价值副中心服务价值核心的原则,既满足了总部企业对数据传输低时延和快速现场服务的需求,又降低了土地、电力、人力等综合运营成本,做到了经营效益最大化。其次,随着双碳、东数西算等战略深入实施,以及人工智能科技革命带来的低时延、高密度算力需求,一线城市及其周边的土地和能耗限制更加严格、电力资源日益紧张,使得全国一线城市的优质机柜资源更具有稀缺性。公司公司 2009 年成立之初即锚定园区级算力中心的发展战略,并年成立之初即锚定园区级算力中心的发展战略,并抓住了整个互联网爆发的窗口期,当前已抓住了整个互联网爆发的窗口期,当前已在全国在全国 6 大核心区域,大核心区域,7
83、大算力节点均布局了园区级算力中心,积累了丰富的园区级算力中心运营经验。大算力节点均布局了园区级算力中心,积累了丰富的园区级算力中心运营经验。公司布局了 1 处 13 万架机柜园区,1 处 5 万架机柜园区,4 处 3 万架机柜园区及 1 处 1.4 万架机柜园区,远大于行业制定的超大规模数据中心标准(规模大于等于 1 万个标准机架),特别是京津冀园区,已成为全国最大的园区级算力中心之一,规模和区位优势显著。除规模外,公司园区级算力中心还配套综合管廊、110KV 及 220KV 变电站、水站等辅助设施,可供终端客户根据自身业务发展迅速在本地算力中心扩容,持续为客户提供优质便捷的综合服务。随着规模
84、化、集约化、绿色化的园区级算力中心逐渐成为主流发展方向,行业资源及客户资源也呈现出向园区级算力中心集中的趋势。综上,公司前瞻性锚定园区级算力中心的模式高度契合行业发展趋势,奠定了行业引领者优势。和字节合作渊源长,字节为核心客户。和字节合作渊源长,字节为核心客户。公司和字节跳动合作已有较长时间,是字节跳动重要 IDC 供应商之一,2021 年 1-10 月,字节跳动占公司营业收入比重达到 64.2%,收入体量超过 10 亿元。我们预计随着字节跳动在数据流量以及算力需求持续提升下,公司和字节跳动合作或将持续增加,有望充分受益。33/38 2024 年年 12 月月 30 日日 行业行业|深度深度|
85、研究报告研究报告 作为AIDC 领先的头部企业,公司积极把握 AI 发展机遇,主动加大智算领域的资金投入和研发投入。2023 年,公司作为智算中心的链主方,牵头在京津冀园区和长三角园区部署了算力模组,以卓越的技术实力赢得 AI 头部客户的信任。2024 年上半年,公司 AIDC 业务实现高速增长,收入达到 20.54 亿元,同比增长 1,147.85%。公司持续夯实AIDC 领先,为业务长期保持领先地位奠定牢固基础。作为液冷领先的头部企业,公司紧抓高密算力趋势与双碳目标深入实施所带来的液冷技术刚需发展契机,于 2023 年液冷元年成功交付了行业内首例整栋纯液冷智算中心,展现了强大的液冷技术实力
86、。公司凭借与客户的高信任关系,在液冷技术方面建立了较强的先发优势、技术优势以及知名客户示范效应优势,积累了丰富的液冷智算中心设计、研发、建设和运维经验。2024 年 H1,公司将自研的液冷技术全面应用于全国多园区的下一代新型智算中心项目中,创造性地完成了高功率、高算网、高存储、多模组的多元融合架构智算集群基础设施设计,可实现单体建筑面积约 22 万平米、IT 功率超 200MW,在理论距离约束范围内可聚集 13 万张以上算力卡的集群,为高复杂度、高计算需求的万亿级大模型训练提供全方位的服务支持与技术保障,全面支撑各类人工智能技术的应用和演进。公司不断在规模化商业应用的实践中,优化液冷系统的设计
87、,提高其稳定性和可靠性,持续夯实液冷领先,引领行业向更加高效、环保的绿色智算中心迈进。2、锐捷网络:互联网企业数据中心交换机的主流供应商锐捷网络:互联网企业数据中心交换机的主流供应商 锐捷网络是国内交换机行业的重要领先厂商。锐捷网络是国内交换机行业的重要领先厂商。锐捷网络,成立于 2003 年,是行业领先的 ICT 基础设施及解决方案提供商,业务范围覆盖 90 多个国家和地区。在交换机领域,公司持续深耕,根据中商产业研究院数据,2024 年中国交换机市场华为、新华三、锐捷网络市场份额分别为 35.8%、32.4%和 14.6%,呈现寡头竞争的市场格局。34/38 2024 年年 12 月月 3
88、0 日日 行业行业|深度深度|研究报告研究报告 打造打造 AI-Fabric 智算中心网络解决方案,赋能大规模组网。智算中心网络解决方案,赋能大规模组网。锐捷网络 AI-Fabric 网络解决方案采用多轨组网架构,让同号网卡连接到同一网络 Pod 组内,使训练业务的流量限定在同一 Pod 组或同一 Tor 设备上,从而减少转发跳数,大幅降低网络转发时延;同时为了构建高算力的大规模 GPU 集群,锐捷网络 AI-Fabric 网络解决方案采用三级组网,各层级按照 1:1 的收敛比的设计,最大可以提供 32768 个400G 端口,实现 32K 个 GPU 的集群承载。和字节跳动深度紧密合作。和字
89、节跳动深度紧密合作。锐捷网络在投资者互动平台表示,公司是阿里巴巴、腾讯、字节跳动等头部互联网企业数据中心交换机的主流供应商,一直保持深度而紧密的合作。35/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 以太网交换机有望受益,以太网交换机有望受益,AI 网络下占比提升,同时交换机速率迭代。网络下占比提升,同时交换机速率迭代。市场研究机构 DellOro 集团数据中心和园区交换研究副总裁 sameh boujelbene 在主持的网络研讨会上指出,用于高端计算(包括AI/ML)的 InfiniBand 和以太网之间的组合正在迅速改变,未来 3 年内,以太网将在
90、新的 AI/ML 构建中取代 InfiniBand 的使用。英伟达也发布专为 AI 打造的以太网网络平台 Spectrum-X,可支持 64 个800G 端口和 128 个 400G 端口。3、英维兊:英维兊:温控设备领先厂商,技术积累赋能产品温控设备领先厂商,技术积累赋能产品/客户拓展客户拓展 公司下游行业布局丰富,产品与服务广泛应用于数据中心、通信、智能电网、储能电站,新能源车、轨道交通、冷链运输,智慧教育、家居、医疗等行业,服务如三大运营商、Sprint、软银等运营商以及腾讯、阿里巴巴、秦淮数据等客户。丰富的下游应用领域布局助力公司业务持续增长动力强劲。英维克打造全链条液冷英维克打造全链
91、条液冷。英维克从冷板、管路,到快速接头、Manifold、CDU、冷源、SoluKing 长效液冷工质,依靠全正向液冷研发能力,在数据中心液冷项目交付过程中积累了丰富的技术,截止 24 年4 月累计已交付 900MW 液冷项目。36/38 2024 年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 具备行业领先客户。具备行业领先客户。公司拥有强大的客户基础,典型用户包括爱立信(Ericsson)、华为(HUAWEI)、中兴(ZTE)、中国铁塔(China Tower)、美国铁塔(American Tower)、软银(SoftBank)、沃达丰(Vodafone)等通信客户;博
92、世(Bosch)、通快(TRUMPF)、舍弗勒(Schaeffler)、亚马逊(Amazon)、通用汽车(GM)、蒙牛等工业客户:国家电网.南方电网、许继、南瑞等电力客户;宁德时代、南都、科陆等储能客户。近年持续在大客户大项目上有所斩获。近年持续在大客户大项目上有所斩获。电信电信 DC 舱集中采购中斩获份额第一。舱集中采购中斩获份额第一。此前,英维克中标中国电信弹性 DC 舱(2024-2025 年)集中采购项目,该项目合计采购弹性 DC 舱 3200 套,共涉及 5 种 DC 舱模型,英维克获得第一份额。据悉,此次集采项目是中国电信算力基础设施最大规模集采项目,比上轮集采规模翻一倍,意味着算
93、力基础设施建设将进一步提升。本次中标的英维克 DC 舱,产品采用模块化设计,由网络机柜、通用结构框架及封闭组件(含天窗通道门、走线槽等)、列间空调、电源列柜、消防联动接口、本地安防(门禁、视频)及本地监控装置等模块化基础设施组成的封闭冷(热)通道 T 设备舱,能够实现块化快速拼装和快速交付,具有配置灵活、安全可靠、高效节能、智能运维等特点。与超聚变合作,打造全链条液冷解决方案。与超聚变合作,打造全链条液冷解决方案。2022 年,超聚变联合英维克举行 xLAB 液冷集群启用仪式,并针对全链条液冷解决方案的联合创新开展深入技术交流。超聚变通用服务器领域总裁唐启明、英维克董事长齐勇等双方领导参加活动
94、。英维克通过多年技术创新和积累,深入研究全链条液冷解决方案,实现了一系列产品技术突破。包括:冷板换热和流道的创新设计,接头材料和密封构造的优化验证,管路生产和装配的工艺优化,CDU 性能的持续提升,散热冷源面向液冷需求的再创新,长效稳定液冷工质配方的基础技术研究,以及液冷全链条系统智能管理平台的搭建。4、光迅科技:光迅科技:光迅科技与字节跳动合作,携手展出高速光模块光迅科技与字节跳动合作,携手展出高速光模块 OFC 2024 展会期间,光迅科技将联合字节跳动现场展出 800G OSFP SR8 高速光模块,并进行产品性能动态演示,携手助推数据中心及 AI 大算力应用发展。37/38 2024
95、年年 12 月月 30 日日 行业行业|深度深度|研究报告研究报告 5、海天瑞声:、海天瑞声:为字节提供多模态等多累模型训练的专业数据集为字节提供多模态等多累模型训练的专业数据集 海天瑞声是国内海天瑞声是国内 AI 数据服务的领先企业。数据服务的领先企业。公司深耕数据服务行业 20 年,从做智能语音领域的数据服务起家,公司主要业务是 AI 训练数据的研发设计、生产及销售业务。技术能力方面和场景资源方面,公司在基础研究、平台工具、训练数据生产方面均有技术积累,并公司持续在智能语音、计算机视觉、自然语言、以及智能驾驶为代表的垂直领域进行技术拓展;软实力方面,公司拥有较强的项目管理能力和全流程的数据
96、服务能力。这些优势有望使得公司在行业的竞争中进一步脱颖而出,进一步享受行业发展红利。持续推进大模型开发,深化持续推进大模型开发,深化 AIGC 研究进程。研究进程。公司始终致力于为 AI 产业链各类机构提供算法模型发开训练所需的专业数据集,自有知识产权的训练数据产品储备超过 1,550 个,全面覆盖智能语音、计算机视觉、自然语言等多条业务线,全面服务于人机交互、智能家居、智能驾驶、智能金融、智能安防等多种创新应用场景,目前客户累计数量超过 930 家。未来,公司将继续秉承技术+产品双轮驱动的核心理念,重点服务以大模型为主的新兴技术方向的数据需求,加强技术能力护城河,不断向训练数据生产智能化、规
97、模化方向迈进。公司为字节跳动提供智能语音、计算机视觉以及自然语言等各类数据产品或服务。6、中科创达:携手字节跳动探索中科创达:携手字节跳动探索 AI 端侧应用端侧应用 公司是全球领先的全栈式智能操作系统及端侧智能产品和技术提供商,深耕智能操作系统领域 16 年。三大核心业务:智能软件、智能汽车以及智能物联网协同发展并驾齐驱。构建网状生态系统,深耕公司计算架构。构建网状生态系统,深耕公司计算架构。公司始终坚持技术为本,生态为王,坚定全球化的核心战略。聚焦自身生态,强化软硬一体能力,形成了从硬件驱动、操作系统内核、中间件到上层应用全面的技术体系。深耕芯片+操作系统+应用场景计算架构,以芯片技术为核
98、心,AI、大模型等高新技术助力操作系统不断迭代更新,应用场景随着芯片不断更新进步而拓展,形成行业芯片技术驱动公司操作系统的发展模式,具有强大技术壁垒和卡位优势。38/38 2024 年年 12 月月 30 日日行业行业|深度深度|研究报告研究报告 公司与火山引擎达成深度合作,共建联合实验室赋能端侧智能。双方将充分发挥各自领域的核心技术、产品和市场等多方面的优势,在人工智能大模型应用领域展开深度创新合作,携手推动大模型的科研成果在车端和智能硬件端的转化和应用,为产业创新发展赋能。七、参考研报七、参考研报 1.申万宏源-传媒行业 GenAI 之四十四:豆包大模型升级,字节 AI 产业链梳理2.中金
99、公司-科技硬件行业:从字节 AI 布局看,端侧 AI 生态如何打造?3.中金公司-人工智能行业十年展望(二十二):字节 AI 向上突破,有望带动生态繁荣4.中金公司-软件及服务行业 AI 动态跟踪:字节火山大会拉开帷幕,AI 全链进展滚滚向前5.天风证券-通信行业专题研究:字节持续推动 AI 产业布局,重视产业链核心标的6.中信建投-传媒行业 AI 应用跟踪系列:字节跳动 AI 布局梳理7.华泰证券-科技行业周报(第五十一周):字节 AI 迎新突破,关注国产算力链8.招商证券-计算机行业周观察:持续关注字节 AI 产业链投资机会9.浙商证券-主题策略:豆包大模型,豆包概念股票池及主题指数10.东吴证券-计算机行业跟踪周报:从字节大会看算力产业的三个趋势11.兴业证券-计算机行业周报:一文读懂字节跳动 AI 生态12.光大证券-AI 行业跟踪报告第 48 期:字节 AI 算力加码带动 AIDC 需求,重点关注润泽科技13.国信证券-通信行业周报 2024 年第 51 周:OepnAI、字节持续迭代模型,LightCounting 积极展望高速互联市场免责声明:以上内容仅供学习交流,不构成投资建议。