近日,深圳证券交易所发布通知,宣布广州明美新能源有限公司(以下简称"明美股份")创业板IPO终止。明美股份作为1998年成立的锂电池定制解决方案提供商,曾被誉为"世界上...
中信证券:DeepSeeek对全球人工智能产业链具有很强的参考意义,重点关注工具软件等重点行业软件、通用管理软件、人工智能计算能力三条主线
后台-插件-广告管理-内容页头部广告(手机) |
文|杨泽原 丁奇 潘儒琛 马庆刘 孙竟耀最近,DeepSeek在世界各地蓬勃发展,以其能力强、成本低的特点,为全球人工智能产业链带来了很强的参考意义。2025年1月20日发布的DeepSeek-R1性能标杆OpenAI o1官方版强调强化学习技术
文|杨泽原 丁奇 潘儒琛 马庆刘 孙竟耀
最近,DeepSeek在世界各地蓬勃发展,以其能力强、成本低的特点,为全球人工智能产业链带来了很强的参考意义。2025年1月20日发布的DeepSeek-R1性能标杆OpenAI o1官方版强调强化学习技术路线,推理能力强,性价比突出。我们认为,新一代DeepSeek模型的发布意味着人工智能模型的应用将逐步普及,加快人工智能应用的全面实施;同时,它有望开启新的Scaling Law,模型重点逐渐从预训练转变为强化学习和推理阶段,有助于计算能力需求的持续增长。建议重点关注工具软件和其他重点行业软件、通用管理软件和人工智能计算能力。
▍以强大的推理能力和低成本加速AI全面落地,DeepSeek在世界各地爆炸。
2025年1月20号,DeepSeek-R1正式发布并开源,性能对标OpenAI o1官方版在网页端、APP和API全面推出。它的推理能力大大提高,成本大大降低,引起了全球的高度关注,推动了AI应用的全面实施。
▍模型概述:推理能力对标OpenAI o1,性价比优势突出。
参考DeepSeek正式发表的论文,DeepSeek-R1作为开源强化学习的大模型,在数学、编程、复杂问题解决等领域体现了强大的推理能力:
1)在数学方面,R1是AIME 79.8分,79.2分,OpenAI-o1-1217分,OpenAI-o3-mini(medium)79.6分处于同一水平;
2)在编程方面,R1在Codeforces测试集中得分为2029,2061和OpenAI-o3与OpenAI-o1-1217相同-mini(medium)2036处于同一水平;
3)在复杂的问题领域,R1在GPQA-Diamond测试集中得分为71.5,比OpenAI-o1-1217得分为75.7,OpenAI-o3-mini(medium)76.8分略有不足。
总的来说,模型的推理能力和OpenAI o1相当。在定价方面,R1的API定价为输入百万tokens 1元(缓存命中)/4元(缓存未命中)输出数百万tokens 16元;与Opena相比; 输入百万tokenso1定价 7.5美元(缓存命中)/15美元(缓存未命中)输出数百万tokens 60美元,数量级下降。在高性价比的API服务和模型开源策略下,DeepSeek-R1有望推动全行业持续降本,帮助AI应用全面落地。
▍技术解读:R1-zero将减法做到极致,R1方案采用两阶段强化学习,预计将开启新的Scaling Law。
参考DeepSeek发表的论文,R1-zero采用无SFT、以Deeepseek-V3为基础,以GRPO战略优化和规则为基础,纯强化学习技术路线,涌现出长思维链(CoT)能力显著降低了计算成本。同时,为了进一步解决R1-Zero可读性差、通识能力不足等问题,公司进一步提出了R1模型两种强化学习的培训结构,即R1模型,不仅实现了规则驱动的大规模强化学习,而且实现了混合微调 二次强化学习带来的推理能力泛化。基于R1模型架构的探索可能会打开新的Scaling Law。在我们看来,R1技术方案可以快速应用于数学、代码、科研等复杂推理能力要求较高的场景,帮助以Agent形式为代表的应用形式全面实施。
▍算力分析:Scaling Law从预训练到加强学习和推理,降低成本是提高市场空间的基础,并反复得到行业验证。
1)DeepSeek V3 R1带动全球AI大模型降低成本,提高效率。V3的API定价是输入每百万tokens 0.5元(缓存命中)/2元(缓存未命中)输出每百万tokens 8元;R1API定价为输入百万tokens 1元(缓存命中)/4元(缓存未命中)输出数百万tokens 16元。在Deepseekek。 R1发布定价后,OpenAI还对其o系列模型进行了定价调整。根据OpenAI官网,o1标准版输出端定价60美元/百万token,o1 mini输出端定价12美元/百万token,在R1发布后,目前o1 mini输出端的定价已调整到4.4美元/百万token,新推出的o3 mini定价也设定为o1 同等水平的mini。
2)降本源于DeepSeeek持续原创降本方案,如MLA算法、流水线策略、Moe调度等。根据DeepSeek的官方论文,2024年5月,DeepSeek发布V2模型,引领国内大模型降价。这一代模型采用了DepSeek原创MLA注意算法,大大降低了Atention的计算能力消耗。2024年8月,DeepSeek率先在主流大模型中使用硬盘作为输入端缓存(MLA算法降低带宽需求,使用硬盘成本较低)。这一创新将DeepSeek的输入端缓存命中价降至缓存未命中价的10%,是目前世界主流模型中最低的。根据DeepSeekekek V3论文是世界上第一个采用FP8低精度数据进行大规模培训的双向流水线策略,也是降低成本的重要因素,在世界主流大型模型中率先采用FP8低精度数据,提出更有效的MoE调度和负载平衡。根据DeepSeekekek R1论文提出了原GRPO强化学习算法,也大大节省了强化学习环节的计算能力。
3)训练端全球资本支出稳定,推理端计算能力有望全面爆发。全球计算产业链的规模与计算成本密切相关。在培训方面,微软和Meta的业绩新闻发布会显示,这两家公司的资本支出预期并没有下降。我们预计,全球顶级制造商仍将保持计算能力投资,努力在模型层取得前沿突破,二、三级制造商也预计将受益于较低的培训成本和持续投资。在推理方面,我们认为降低计算能力成本将真正促进应用百花齐放,实现人工智能的普及。就像杰文斯悖论一样(Jevons Paradox/ Jevons Effect)因此,工业革命期间煤炭价格的下降促进了其在各行业的普及,推动了产业规模的增长。类似的后续案例不断出现,摩尔定律下晶体管成本呈指数级下降,反而促进了PC、手机和其他行业的繁荣;从2G到5G,通信速度不断加快,成本不断下降,催化了移动互联网产业的发展。我们认为,未来人工智能产业也将呈现这一趋势,计算能力降低预计将推动应用端产业的巨大规模和推理计算能力需求。
4)三大Scaling Law接力支持全球计算能力需求,国内计算能力支持国内大模型商业化。根据英伟达首席执行官黄仁勋在2025年首席执行官的主题演讲,全球计算能力行业目前正处于领先地位-training scaling向post-Training scaling和test-time 在scaling的切换过程中,未来的推理端 加强学习的计算能力需求将提前培训,支持全球计算能力产业链的稳步增长。对于中国的计算能力产业链,实际进展也不断出现。例如,根据硅基移动官方网站,它已经推出了由华为盛腾计算支持的DeepSeek API,根据光合组织官方微信公众号,海光信息DCU已迅速完全适应Deepsekek R1和V3模型。我们认为,对于国内大型模型来说,国内计算能力是一个相对稳定可靠的选择,可以支持国内大型模型从研发到商业化。
▍应用展望:DeepSeeek低成本 强大的能力促进了人工智能应用的全面实施,预计在开源开放下生态将继续增长。
随着DeepSeek模型性价比的不断提高,依托丰富的生态和成熟的流量,国内人工智能应用加快了各个领域的实施。同时,模型推理能力的提高对复杂的推理场景起到了明显的推动作用。其中,Agent模式有望成为所有人工智能应用的最佳载体之一,具有更长的任务流程、更好的场景理解和更高的自主性,并在企业管理、教育、办公、医疗、科研等领域展示其应用价值。此外,DeepSeek各种模型的开源和开放特性有助于不同场景的应用,预计将继续丰富和扩大支持生态。、教育(数学、竞赛)、科研(药物、材料研发)、法律(合同全案分析)、医疗(病历纵向跟踪)等场景。
▍风险因素:
人工智能核心技术的发展低于预期,人工智能的不当使用造成了严重的社会影响,数据安全风险、信息安全风险、行业竞争加剧。
▍投资策略:
新一代DeepSeek模型的发布意味着人工智能大模型的应用将逐步普及,加快人工智能应用的全面实施;与此同时,它有望开启新的Scaling Law,模型重点逐渐从预训练转变为强化学习和推理阶段,有助于计算能力需求的持续增长。建议重点关注工具软件和其他重点行业软件、通用管理软件和人工智能计算能力:1)主线1:工具软件和其他重点行业软件;2)主线2:通用管理软件;3)主线3:人工智能基础设施。
(来源金融界)后台-插件-广告管理-内容页尾部广告(手机) |
标签:
相关文章