定制报告-个性化定制-按需专项定制研究报告
行业报告、薪酬报告
联系:400-6363-638
《中国联通:2025年DeepSeek洞察与大模型应用-人工智能技术发展与应用实践报告(37页).pdf》由会员分享,可在线阅读,更多相关《中国联通:2025年DeepSeek洞察与大模型应用-人工智能技术发展与应用实践报告(37页).pdf(37页珍藏版)》请在薪酬报告网上搜索。
1、 DeepSeek洞察与大模型应用人工智能技术发展与应用实践联通数据智能有限公司史树明2025年-1-目录Contents0203 0104 05-2-DeepSeek是私募量化巨头幻方量化旗下的一家大模型企业,成立于2023年5月份。幻方量化营收:作为中国头部量化对冲基金,曾管理资金规模超160亿美元(2019年),年管理费收入超过3亿美元。DeepSeek公司概况-3-DeepSeek-V3(对标GPT-4o)于2024年12月26日推出,因其显著的性能,用户迅速开始增长Deepseek-V3仍是基于Transformer架构的模型,是一个强大的混合专家(MoE)模型,总共有 671B 个
2、参数,生成每个token时激活 37B 参数训练成本比 Llama 405B 低一个量级DeepSeek-V3所采用的技术:MLA多头潜在注意力机制(降低显存占用)MTP多token预测(提升效果、提升推理速度)FP8混合精度训练、DualPipe流水线、MoE负载均衡(提升训练效率,降低训练成本)DeepSeek-V3多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。DeepSeek-V3-4-R1推出后,追平GPT-o1,迅速出圈海外。从DeepSeek在美国下载排
3、名从1月22日的201名,迅速在1月27日登顶第一名;截止1月30日,DeepSeek在168个国家位居下载榜第一名DeepSeek-R1-Zero:一种通过大规模强化学习(RL)训练的模型,没有监督微调(SFT)作为初步步骤,展示了卓越的推理能力。通过强化学习,R1-Zero自然而然地出现了许多强大而有趣的推理行为;但是,遇到了可读性差和语言混合等挑战DeepSeek-R1:为了解决这些问题并进一步提高推理性能,DeepSeek团队引入了 R1,它在RL之前结合了多阶段训练和少量冷启动数据。R1在推理任务上实现了与OpenAI-o1-1217相当的性能DeepSeek-R1(对标GPT-o1
4、)于2025年1月20日推出,随后DeepSeek进一步出圈DeepSeek-R1-5-DeepSeek模型效果(1/2):世界最顶尖模型的对比大模型竞技场(Chatbot Arena LLM Leaderboard,https:/lmarena.ai/?leaderboard)更新日期:2025-2-11n DeepSeek-V3和R1进入到国际顶尖模型行列n DeepSeek-R1是综合效果最好的开源模型,排在众多优秀的开源和闭源模型前面n Qwen2.5-Max、GLM-4-Plus、Step-2-16K-Exp等国产模型也有不俗的表现-6-DeepSeek模型效果(2/2)n Deep
5、Seek-V3和R1相对于700亿以下开源模型(以千问720亿为代表),扩充了其能力边界n DeepSeek-R1引入能力,在代码、数学、复杂规划等方面的能力显著增强,使得对于新场景的支持成为可能-7-DeepSeek不同版本对比n V3 vs.R1:R1在普通的中文和英文任务上性能小幅领先,在数学和代码等需要深度推理的场景下明显胜出n R1蒸馏版 vs.R1满血版:在数学、代码等场景下的性能有明显差距,蒸馏版参数量越小,与满血版差距越大n R1蒸馏版 vs.V3满血版:140亿以上参数的R1蒸馏版的深度推理效果显著强于V3满血版;低参数量R1蒸馏版能力落后于V3模型AIME 2024MATH
6、-500GPQA DiamondLiveCodeBenchCodeForcespass1pass1pass1pass1ratingR1的15亿蒸馏版(基于千问)28.9 83.9 33.8 16.9 954R1的70亿蒸馏版(基于千问)55.5 92.8 49.1 37.6 1189R1的140亿蒸馏版(基于千问)69.7 93.9 59.1 53.1 1481R1的320亿蒸馏版(基于千问)72.6 94.3 62.1 57.2 1691R1的80亿蒸馏版(基于Llama)50.4 89.1 49.0 39.6 1205R1的700亿的蒸馏版(基于Llama)70.0 94.5 65.2 5
7、7.5 1633DeepSeek-R179.8 97.3 71.565.92029DeepSeek-V339.2 90.2 59.136.21134模型架构参数量激活参数R1的15亿蒸馏版稠密1.5B1.5BR1的70亿蒸馏版稠密7B7BR1的140亿蒸馏版稠密14B14BR1的320亿蒸馏版稠密32B32BR1的80亿蒸馏版稠密8B8BR1的700亿的蒸馏版稠密70B70BDeepSeek-R1MoE671B37BDeepSeek-V3MoE671B37B模型参数量:显存占用激活参数:推理速度-8-DeepSeek出圈原因分析1.DeepSeek-R1的卓越性能表现2.DeepSeek-V3
8、的超低训练开销OpenAI奥特曼:“DeepSeek是一个令人印象深刻的模型,但我们相信我们会继续开拓前沿并推出出色的产品,所以很高兴能有另一个竞争对手。”Meta扎克伯格:“DeepSeek技术非常先进。这是一场差距很小的竞争。”虽然DeepSeek已证明研发AI所需的资金和算力比之前预想的要少,但Meta不会因此减少AI支出:“我仍然认为,从长远来看,大力投入资本支出和基础设施建设将成为一种战略优势。”卷积神经网络之父Yann LeCun:“与其说中国AI正在追赶美国,不如说开源模型正在超越闭源”。Anthropic CEO达里奥阿莫迪:我认为一个公平的说法是“DeepSeek 生产的模型
9、接近 7-10 个月前美国模型的性能,成本要低得多(但远不及人们建议的比例)”Scale AI创始人亚历山大王:“DeepSeek可能改变中美在人工智能竞赛中的格局”游戏科学创始人冯骥:”DeepSeek,可能是个国运级别的科技成果。”“如果有一个AI大模型做到以下任何一条,都是超级了不起的成就,但DeepSeek全部同时做到了:强大、便宜、开源、免费、联网、本土”面壁智能首席科学家刘知远:“DeepSeek的意义更像Llama。DeepSeek R1相当于是像2023年初的OpenAI ChatGPT一样,让所有人真正地感受到了震撼”V3训练开销&R1效果引发全球热议ChatGPTLlama
10、o1/o3DeepSeek-R1首次提出开源复现DeepSeek V3效果对标顶级闭源模型,训练成本比LLaMA低一个量级30.82.802040Llama 3.1 405BDeepSeekV3 671B下降一个量级训练耗时单元:万GPU小时DeepSeek-V3MMLU 得分API价格¥/M tokens908286lLlama3.1-405BlGPT-4olQwen2.5-72BlQwen2.5-72BlClaude 3.5 SonnetlDeepSeek-2.5lGPT-4o mini模型性能/价格比最优区间(对数坐标)10010-9-DeepSeek影响:门槛全面降低,千行百业加速融A
11、IDS作为一款现象级应用,对全社会开展了一次人工智能科普再教育,DS C端应用人人装,人人感受人工智能,政府、企业管理者认识到人工智能战略意义,由探索尝试,升级为战略布局,市场进入爆发期DS上线20日,日活超4000万,已达到ChatGPT 74%,成为C端现象级应用。微信、钉钉等头部应用纷纷接入截至2月15日,全国10省省委书记将人工智能作为新春第一会重点部署,B端大模型应用进一步加速省份要求广东集中发力人工智能和机器人领域浙江加快建设创新浙江、因地制宜发展新质生产力广西不能妄自菲薄、行动迟缓江西强化企业科技创新主体地位,推动科研成果向现实生产力转化安徽在抢占科技制高点上奋勇争先江苏找准“一
12、中心一基地一枢纽”甘肃着力提升科技创新效能,深入实施研产融合科技攻关赋能计划重庆部署实施“人工智能+”行动山东建立科技创新和产业创新融合机制湖北到2030年,具有全国影响力的科技创新高地加快形成-10-DeepSeek影响:格局被打乱,AI竞争进入第二阶段C端AI应用市场格局重构,新入局者迎来机遇B端客户全面评估DS影响,重新论证基础模型选型DS国内登顶、全球仅次于GPT,月均活跃用户数跃居第一,全球全端DAU近1.2亿;纳米AI搜索(原360)将其核心模型换为DS 1月web端访问量登顶、APP端增速位列第2某机构接国家FGW通知,全面评估DS影响,组织专题论证会,重新评估基础模型选型,由原
13、某公司大模型为主,转为吸纳多家模型,重点引入DS山东省委书记于开年第一天工作会上,明确部署省数据局研究DS,研究人工智能某央企董事长在开年第一天即召集全管理层会议,开展 AI 全面赋能生产运营工作部署中石油、中石化、南网、星网、中广核、中铝等央国企均在拥抱对接或重新研判DS开源策略全面冲击基础模型商业模式,将大厂在C端、B端过去一年构建的技术优势拉回同一起跑线,市场竞争从一阶段比拼模型能力,进入比拼应用、数据、工程化交付能力的第二阶段-11-目录Contents0203 0104 05-12-中美在AI领域的对比:人才与技术n 我国高端人才的数量和密度跟美国有明显差距n 我国AI领域重大原创性
14、成果的数量落后于美国人工智能领域被引用最多的100篇论文(20202022)-13-中美在AI领域的对比:企业n 中美头部高科技企业的市值差距非常显著n 我国AI独角兽的数量和估值落后于美国n 头部高科技企业n 美国7大科技公司市值:均在万亿美元以上,合计约18万亿美元n 中国7大科技公司市值:第一名5600亿美元,合计约1.4万亿美元n AI独角兽-14-中美在AI领域的对比:GPU芯片中美l英伟达:拥有A100、H100、B200等GPU芯片,性能和稳定性遥遥领先,又有CUDA生态加持,在AI芯片市场牢牢占据主导地位lAMD:MI300系列lGoogle:TPUlGroq:高性能AI推理芯
15、片l博通:在ASIC(专用集成电路)定制芯片领域表现突出,2024年市值突破万亿美元l华为:昇腾系列芯片,产品性能和销量国内领先,910B性能对标A100l其它国产芯片厂商:海光、寒武纪、燧原科技、沐曦、天数智芯、摩尔线程、壁仞科技、昆仑芯科技、阿里平头哥等n 美国企业在GPU芯片领域占据绝对优势,尤其英伟达芯片性能高、生态成熟n 国产芯片近几年进步很快,但在性能、产能、软件适配和生态方面还有显著差距vs.-15-中美在AI领域的对比:头部大模型n 在模型效果上,中国大大缩小了与美国的差距,呈现与美国平分秋色的格局n 模型开源领域:DeepSeek超越Meta,成为效果最好的开源模型,阿里巴巴
16、千问系列模型下载量超过Meta的Llama系列模型厂商国家代表性模型及竞技场排名是否开放模型权重谷歌(Google)美国Gemini-2.0-Flash-Thinking-Exp-01-21,#1Gemini-2.0-Pro-Exp-02-05,#1不开放OpenAI美国ChatGPT-4o-latest(2025-01-29),#1o1-2024-12-17,#4不开放DeepSeek中国DeepSeek-R1,#4DeepSeek-V3,#9Deepseek-v2.5-1210,#17开放阿里巴巴中国Qwen2.5-Max,#7Qwen2.5-plus-1127,#16Qwen2.5-72
17、B-Instruct,#33不开放不开放开放智谱中国GLM-4-Plus-0111,#9不开放阶跃星辰中国Step-2-16K-Exp,#9不开放xAI美国Grok-2-08-13,#16不开放零一万物中国Yi-Lightning,#16不开放Anthropic美国Claude 3.5 Sonnet(20241022),#16Claude 3.5 Sonnet(20240620),#23不开放Meta美国Meta-Llama-3.1-405B-Instruct-bf16,#21Llama-3.3-70B-Instruct,#33开放Mistral AI法国Mistral-Large-2407,
18、#37Mistral-Small-24B-Instruct-2501,#50开放-16-DeepSeek对中美科技竞争产生深刻影响美参议员提出2025年美国与中国人工智能能力脱钩法案,有脱钩风险 特朗普:“DeepSeek的技术进步为美国敲响了警钟”美国新任白宫新闻秘书卡罗琳莱维特:“白宫正在努力确保美国人工智能的主导地位,美国国家安全委员会正对DeepSeek开展国家安全调查”美国商务部长提名人霍华德卢特尼克:指责 DeepSeek 抄袭美国科技公司并违反美国芯片出口禁令来建立其模型。“我们需要停止帮助他们。Meta 的开放平台(开源模型Llama)让 DeepSeek 依赖它。他们购买了大
19、量英伟达的芯片,并找到了自己的方法,推动了他们的 DeepSeek 模型。这种情况必须结束。”美国商务部工业与安全局BIS启动对新加坡芯片转口贸易调查,核查HS8542类目芯片是否违规流向DeepSeek,拟议对华禁售H20芯片 美国国会、得州、NASA、美国海军、美国国防部已禁止使用 deepseek。Anthropic CEO达里奥阿莫迪:对于 DeepSeek 的崛起,美国应该加强管制美国上升到影响国家安全,拟进一步收紧对华芯片政策2025 年 1 月 29 日,美国参议员 Josh Hawley 提出 2025年美国与中国人工智能能力脱钩法案,旨在全面切断中美在人工智能(AI)领域的技
20、术合作、资本流动,以遏制中国在AI领域的竞争力,保护美国技术优势 AI技术与知识产权流动禁令:法案禁止从中国进口或向中国出口任何与AI相关的技术或知识产权,包括芯片(GPU、CPU等)、存储设备、操作系统、云计算服务等核心硬件和软件,以及版权、专利、商业秘密等知识产权。AI研发合作全面禁止:美国公民、绿卡持有者及机构不得在中国境内从事AI研发,也不得与中国的“受关注实体”(包括高校、企业、政府机构等)及其海外子公司合作。对华AI投资彻底切断:禁止美国个人或机构投资中国AI企业的公开股票和证券,防止资金间接支持中国AI发展。处罚措施:刑事处罚:个人最高罚款100万美元、监禁20年;企业罚款1亿美
21、元,并取消联邦合同及许可证。民事赔偿:违规者需支付三倍损失赔偿及诉讼费用,并可能被禁止获得联邦资助5年。驱逐出境:违者可能被驱逐出境(非美国公民)或面临高额罚款 针对DeepSeek的特别禁令,使用或下载中国AI公司DeepSeek的产品将被视为犯罪,最高判20年监禁。中:突破技术封锁,在大模型这个关键赛道上与美国的差距无限缩小,信心增强,科技股崛起美:发现在模型的技术创新上已经被中国追赶并部分超越,危机感和压力陡然增加,预计会加大对华技术封锁(更严格的芯片禁令等)-17-目录Contents0203 0104 05-18-国内主流大模型公司模型阿里巴巴千问(Qwen)系列字节跳动豆包大模型百
22、度文心大模型腾讯混元大模型华为盘古大模型国内互联网公司:公司模型联通元景大模型电信星辰大模型移动九天大模型国内运营商:公司模型深度求索DeepSeek-V3/R1等智谱GLM系列MiniMaxMiniMax-Text-01等月之暗面Kimi大模型阶跃星辰Step系列百川智能Baichuan系列零一万物Yi系列国内大模型七小虎:公司模型OpenAIChatGPT系列GPT-4o系列o1系列o3系列GoogleGemini系列Gemma系列xAIGrok系列AnthropicClaude系列MetaLlama系列Mistral AIMistral系列Mixtral系列国外大模型:-19-国内外主流
23、大模型工具/应用工具名称所属公司备注DeepSeek深度求索https:/ AIhttps:/www.perplexity.ai/PikaAI图片/视频生成Pikahttps:/pika.art/MidJourneyAI图片/视频生成MidJourneyhttps:/ DiffusionAI图片/视频生成Stability AIhttps:/stability.ai/通用AI助手:其它类型:-20-目录Contents0203 0104 05-21-政务热线大模型全面上线辽宁省热线平台:服务80+坐席人员,工单填单时间由186s/单下降到133s/单;工单记录完整度提升30%在热点事件分析场景
24、:处理90余万张工单,完成12万个小区数据抽取,形成供水、供电、供热等6类单位画像热线数据报告:围绕投诉、求助、建议与举报信息开展时空定位、问题萃取、颗粒缩放、精细诊断等多维度分析,输出周期报告和专题报告大模型赋能政务热线应用n 联通数智公司联合辽宁产互等打造政务热线大模型,已落地辽宁、北京等多省市12345项目-22-大模型辅助政府经济决策2023年10月,服务北京发改委面向经济领域数据查询及分析、报告撰写、经济领域知识问答等业务场景,实施经济大模型,打造“学文件、读数据、出观点、快呈现”的高效AI工具,赋能经济运行调度工作,人工智能辅助经济决策;打造国内首个经济数据分析智能体和区域经济分析
25、智能体。北京发改委 AI经济运行监测分析应用“粤经济”全面打通了横向30多个厅局和纵向21个地市的经济运行相关数据,实现全省经济发展分析”一屏总览”;元景经济大模型在“粤经济”上部署实施,发挥联通多源大数据的独特优势,基于全国高质量经济语料,打造经济垂直领域大模型,模型在查数据、问知识、做推理、快分析等经济领域任务中都表现良好。广东政数局 ”粤经济“平台n 经济运行大模型落地北京发改委、广东政数局等多省市项目-23-大模型赋能公安智能化n 联通数智公司联合北京联通等打造元景公安大模型,在北京西城、安徽省厅等多省市视侦智能化升级项目试点应用在北京西城区公安局试点,提供以特征搜特征的大模型视觉分析
26、能力,解决小模型无法识别的复杂场景7月,该试点实验室进展收到了公安部领导的肯定,对取得的成果进行充分肯定,希望在中国联通元景大模型的加持下,探索视频侦查新技术提高案件查办效率利用以图搜图、以文搜图提升检索效率,可服务平安城市、雪亮工程、平安乡村等场景利用以图搜图、以文搜图,检索监控内容,提升办案效率-24-大模型赋能医疗智能应用n 联通数智公司支撑广东产互/医疗军团打造多款智慧医疗应用,助力中山三院智能化升级大模型医疗应用服务平台中山三院私域GPT应用私域GPT应用和服务平台私域GPT应用:集医教研管全方位智能助手于一体的应用,整合了业务文件1500+、医学教材指南1800+、管理报表100+
27、,为医护人员提升信息获取效率,为精准医疗提供有力保障。大模型医疗应用服务平台:提供模型微调、测评、推理加速等全链路工具箱,为医院管理、临床、教学、科研等工作提供新范式。-25-大模型赋能船舶设计n 联通数智公司、上海联通与中船海舟联合挂牌成立联合实验室,探索大模型落地中船海舟船舶设计等应用场景针对大模型处理公式计算和图表理解的不准确问题,使用5万条增量数据对元景70B大模型微调训练,提升基础大模型计算的准确率;针对上万页造船规范知识中的复杂问题,运用元景RAG技术中级联切分手段、自适应表格拆分与整合技术、多路检索融合方式进行解析,提升元景大模型对相关内容的召回率。造船规范知识问答针对2D船舶设
28、计图纸中不同标尺参数,运用元景多模态大模型进行识别,精准输出设计参数信息,为设计师精准建模提供必要参考;面向不同船厂的设计规范、图纸中不同类型的线材,运用元景视觉大模型进行分割检测,有效提取船舶轮廓、不同船舱的设计要素,输出3D建模所需的信息要素,提高设计师看图建模的工作效率。翻模设计线条类型位置参数-26-大模型赋能国产大飞机装备运维n 联通数智公司支撑装备军团和上海产互打造大模型应用,赋能大飞机装备运维级联切分增强长文本召回匹配度自适应拆分增强知识理解完整性多路检索融合增强检索能力多样性支持OCR解析能力支持富文本知识问答能力支持答案出处定位至原文支持统计类问答能力针对多模态装备文档做精准
29、查询和智能问答,重点解决长文本、复杂表格、数字序列、OCR解析、网页资源解析、统计类问答等挑战并快速迭代,问答效果优于头部竞品。业界首创RAG中的富文本知识问答、来源出处定位、数据飞轮等独有能力。基于RAG的装备运维-27-文物活化大模型,助力国家博物馆:中华文明云展在生动呈现文化内容,创新文博场馆观展体验方面,凭借在大模型、数字人、虚拟空间建设等方面的核心优势,对中国国家博物馆古代中国展部分精品文物活化展示,以联通元景大模型实现国博数字人线上讲解和互动问答,生动呈现中华文明优秀成果。通过文物元素属性创作,生成民族服饰;传播与创作中华文化。基于大模型创作生成汉服、游戏、卡牌等数字文创产品,并实
30、现自定义换脸,支持商业化互动内容与应用。文创大模型,助力外文局/文联发展数字文创产业大模型赋能文博文创n 联通数智公司联合在线公司等团队打造元景文博文创大模型,助力国博、外文局等文物创新应用-28-DS应用落地同样面临挑战DS优势在6000亿级语言大模型,在R1版惊艳的推理效果,在应用侧落地仍需要多模型组合、多外挂工具,以及大量工程化配合C端AI应用需要通才,需要百晓生B端应用需要专才,需要超高性价比的产线工人DS很好纠结各应用需要一个超强大脑需求各单位应用DS落地需要工程化套壳1、安全监管增强+灌入企业价值观2、灌入企业独有数据3、推理算力消耗、效果等方面优化.多模型协同,与外挂AI工具1、
31、多模态、语音、视觉模型联动2、挂RAG知识库、联网搜索优化等3、接入智能体平台.B端生产场景多数重复使用模型某一重复能力,大量百亿级参数模型即可适用DS-V3/R1满血版推理需16-32张910B,LORA微调需512张910B。大量客户无支持微调的算力。单任务算力消耗与百亿级参数模型不在同一量级DS 最惊艳的R1版,一次推理多在10-20秒,更适合代码、数学、复杂规划等场景,很难响应B端高实时业务应用场景让DS高效学会私域知识,尚未明显突破,利用DS 蒸馏得到百亿参数模型,对于从头预训练模型优势还有待观测-29-目录Contents0203 0104 05-30-认识大模型的局限性幻觉问题知
32、识实时更新能力差偏见、隐私与安全算力消耗仍然很高-31-认识大模型的局限性:幻觉n 什么是大模型的幻觉?生成式语言模型在生成文本或者回答问题时,产生与事实不符或者逻辑错误的内容,即“一本正经地胡说八道”示例1:一篇根本不存在的参考文献(右图)n 大模型幻觉产生的原因目前的大模型结构和训练机制:基于概率的生成模型,本质上没有理解自己所学习的内容缺乏对真实世界的有效建模方式和全息感知能力训练数据的局限性:数据质量、重要数据的缺失、不同类型数据的比例n 如何应对(用户角度)建议1:建立“大模型结果不一定可信”的认知,根据自己的需要,对于模型的输出进行不同层次的验证(享受便利,控制风险)建议2:通过大
33、量使用而加深对一款大模型能力边界的理解:知道什么情况下模型输出更可靠,什么情况下更容易出现幻觉-32-认识大模型的局限性:算力消耗大n 模型训练:算力消耗大大模型庞大的参数量:通常包含数十亿到数千亿个参数训练数据:通常包含数万亿到十几万亿token训练时间:通常几个月n 模型推理:算力消耗大,实时性差,支持的并发低大模型庞大的参数量:通常包含数十亿到数千亿个参数当前神经网络推理方式的特点:大量的矩阵乘法操作Transformer推理阶段的“按token依次输出”机制:生成每个token的算力和时间消耗*token数用户可感知的结果:DeepSeek投入大量算力提供服务,仍然频繁出现“服务器繁忙
34、”;硅基流动等部署DeepSeek模型服务的第三方厂商亦无法有效承接流量l 建议3:学会接受大模型的输出速度,效果越好的模型,速度可能越慢-33-认识大模型的局限性:知识实时更新能力差n 实时知识更新 必要性:引入新知识,保证与时俱进 大模型参数量大,知识更新速度慢,无法实时将最新事件、社会动态、研究成果加入到模型 轻量级的知识更新方法不能保证效果 DeepSeek最新版模型的知识截止日期是2024年7月(7个月前)n 缓解手段:联网搜索+检索增强生成(RAG)不改变模型,在外部建立索引,严格意义上不属于模型更新的范畴 建议4:对于时效性较强的问题,确保AI助手的联网搜索功能是开启的-34-认
35、识大模型的局限性:偏见、隐私与安全n 偏见大模型的输出结果可能包含性别、种族、年龄、价值观、文化等偏见核心原因:训练数据中包含了偏见信息(比如西方的数据中反映西方价值观的信息占比更大)n 隐私与安全难以避免生成有害内容:可能会输出虚假信息、脏黄反信息、宣扬暴力和仇恨的内容等安全评估与防范难度大:大模型结构复杂、参数量众多、可解释性差,给安全评估和防范带来了挑战易受到有毒数据的攻击:多项研究表明,少量的有毒数据就可以显著提高模型输出错误或有害内容的可能性l 建议5:问大模型的问题不要涉及政治敏感、黄赌毒、暴力、歧视等(有法律风险和被封禁的风险)l 建议6:问大模型的问题中不要包含国家机密或者机构的商业秘密(有信息泄露风险和法律风险)-35-认识大模型的优势和特色l 建议7:熟悉大模型的回复特点,掌握提问技巧(提示词技巧),激发模型的创造力谢谢!