数据中心行业专题报告:数字经济+AI浪潮下IDC或迎投资机遇精选版.docx
《数据中心行业专题报告:数字经济+AI浪潮下IDC或迎投资机遇精选版.docx》由会员分享,可在线阅读,更多相关《数据中心行业专题报告:数字经济+AI浪潮下IDC或迎投资机遇精选版.docx(17页珍藏版)》请在三一文库上搜索。
1、天风,唐海清,王奕红)L什么是ChatGPT ?ChatGPT近期获得较高的关注度,人们可以与其聊天对话,进行文本互动,那 么什么是ChatGPT呢? ChatGPT是美国人工智能研究实验室OpenAI开发的 一种全新聊天机器人模型,它能够通 过学习和理解人类的语言来进行对话,还 能根据聊天的上下文进行互动,并协助人类完成一系列任务。其中 GPT 指代的是一种模型,其是 “Generative Pre-trained Transformer 生成型预训练 变换模型的缩写,目的是为了使用深度学习生成人类可以理解的 自然语言。目前我们讨论的GPT 一般指的是GPT-3,显而易见,在之前还有 GP
2、T-2和GPTo GPT-3是由人工智能公司OPenAl训练与开发,该模型设计基 于谷歌开发的变换语言模型。GPT-3的神经网络包含1750亿个参数,为有史 以来参数最多的神经网络模型。OpenAI于2020年5月发表GPT-3的论文, 微软在2020年9月22日宣布取得了 GPT-3的独家授权。回顾GPT的发展,GPT家族与BERT模型都是知名的NLP模型,都基于 Transformer技术。GPT,是一种生成式的预训练模型,由OpenAI团队最早 发布于2018年,GPT-I只有12个TranSfOniler层,而到了 GPT-3,则增加 到96层。其中,GPT-I使用无监督预训练与有 监
3、督微调相结合的方式,GPT- 2与GPT-3则都是纯无监督预训练的方式,GPT-3相比GPT-2的进化主要是 数据量、参数量的数量级提升。而InstructGPTGPT3. 5 (ChatGPT的前身)与GPT-3的主要区别在于,新加 入了 RLHF (Reinforcement Learning from Human Feedback, 人类反馈强化学 习),其增强了人类对 模型输出结果的调节,并且对结果进行了更具理解性的 排序。应用Tamer框架,ChatGPT可以比GPT-3更好的理解和完成人类语言 或指令,模仿人类,提供连贯的有逻辑的文本信息的能力。ChatGPT算法成功 的原因:强大
4、的基座模型能力(InStrUetGPT)、大参数语言模型(GPT3. 5)、 高质量的真实数据(精标的多轮对话数据和比较排序数据),以及性能稳定的 强化学习算法(PPo算法)。图7:中国算力发展情况1400.01200.01000.0800.0600.0400.0200.031.70.0 201920202021202220232024百亿亿次浮点运算/秒(EFLOPS) -资料来源:城市大脑研究院微信公众号,IDC,天风证券研究所2. ChatGPT的运行机制OpenAI利用RLHF来训练模型(该方法在训练中使用人类反馈,以最小化无 益、失真或偏见的输出),使用与InStrUCtGPT相同的
5、方法,但数据收集设置 略有不同。通过使用supervised fine-tuning来训练初始模型,将这个新的 对话数据集与InStrUCtGPT数据集混合,并将其 转换为对话格式。方法总体上包括三个不同步骤:1、有监督的调优:预训练的语言模型在少量 已标注的数据上进行调优,以学习从给定的prompt列表生成输出的有监督的 策略(即SFT模型);2、模拟人类偏好:标注者们对相对大量的SFT模型 输出进行投票,这就创建了一个由比较数据组成的新数据集。在此数据集上训 练新模型,被称为训练回报模型(ReWard Model, RM) ; 3、近端策略优化(PPO) : RM模型用于进一步调优和改进S
6、FT模型,PPO输出结果是 的策略 模式。第一步是收集数据,以训练有监督的策略模型。为了创建像ChatGPT 这样的通用聊天机 器人,开发人员是在代码模型而不是纯文本模型之上进 行调优。第二步是训练回报模 型,这一步的目标是直接从数据中学习目标函 数。第三步是使用PPo模型微调SFT模型,这一步里强化学习被应用于通过 优化RM模型来调优SFT模型。3. ChatGPT会提升多少算力?中国算力发展持续快速增长。根据城市大脑研究院,IDC预测,中国智能算力 规模将持续 高速增长,预计到2026年中国智能算力规模将达到1271.4EFL0PS, 22-26年复合增长率 达52. 3%,同期通用算力规
7、模的复合增长 率为18. 5%oChatGPT将需要大量算力和计算资源。根据通信世界数据,ChatGPT的总算力 消耗约为3640PF-days (即假如每秒计算一千万亿次,需要计算3640天), 需要7-8个投资规模30亿、算力500P的数据中心才能支撑运行。ChatGPT 需要TB级的运算训练库,甚至是P-Flops级的算力。ChatGPT包括研发(训 练)和应用(推理),其都需要大量智能计算资源和数 据存储及传输资源。图8: GPT3到GPT4数据大幅增长资料来源:新疆师范大学学报微信公众号,ChatGPT的运行模式、关键技术及:现阶段的ChatGPT是在拥有3000亿个单词的语料基础上
8、预训练拥有1750亿 参数的模型,GPT-4将是一个拥有超过100万亿级别参数的大模型。根据学 术界的既有研究可知,深度神经网络的学习能力和模型的参数规模呈正相关。人类大脑皮层有140多亿个神经细胞,每个神经细胞有3万余个突触,因 此,大脑皮层的突触总数超过100万亿个,神 经细胞通过突触相互建立联 系。一旦GPT-4实现100万亿参数规模,就可以堪比人的大脑,意味着它将 达到与人类大脑神经触点规模的同等水平。下游应用场景有望持续拓展。目前ChatGPT的主要应用场景包括但不限于无代 码编程、小 说生成、对话类搜索引擎、语音陪伴、语音工作助手、对话虚拟 人、人工智能客服、机器 翻译、芯片设计等
9、随着算法技术和算力技术的不断 进步,ChatGPT也有望进一步走向更 先进功能更强的版本,在越来越多的领域 进行应用,为人类生成更多更美好的对话和内容。4.对数据中心的影响未来异构计算或成为主流。在CPU+GPU的异构计算架构中,GPU与CPU通过 PCle总线连接协同工作,CPU所在位置称为为主机端(host),而GPU所在 位置称为设备端(device)。基于CPU+GPU的异构计算平台可以优势互补,CPU 负责处理逻辑复杂的串行程序,而GPU重点处理数据密集型 的并行计算程 序,从而发挥最大功效。AlOO服务器系统功耗明显提升。以NVIDIA的DGX AlOO 640GB为例,其配置了
10、 8片AlOO GPU,系统功耗达到最大6.5千瓦, 未来随着AlOO服务器的应用增多,我们认为或将显著 提升数据中心机柜的功 耗。机柜功率或将迎来大幅提升。通常19英寸机柜和42U机柜是标准机柜,参考 高度1U=4. 445厘米,宽度19英寸约为48.26厘米,英伟达DGX AlOO 640GB宽度上基本约为19英寸,高度上大约为5. 94U,以标准机柜42U为 参考,最大限度可以放下约7台DGX AlOO 640GB服务器(实际需要预留散 热、挪动、走线等的空间),最大功率可达到约45. 5KWo ChatGPT训练将带来 较大的碳排放。ChatGPT是基于GPT-3的一个升级版本,在GP
11、T-3的模型架 构基础上进行了优化并在训练时期增加了强化学习。训练一个GPT-3约消耗 1287 MWh (兆瓦时)的电,相当于排放了 552吨碳,由于强化学习需要额外消 耗的电力,ChatGPT在模型训练阶段所产生的碳排放将大于552吨。图15:冷板冷却示意图CPU冷却剂通道资料来源:CDCC微信公众号,天风证券研究所东数西算下PUE指标严格。随着东数西算的实施,其推出针对上架率、能效指 标作出规范要求,同时如北京、上海等核心区域出台能耗管控指标,有望助力 行业有序发展,也突显出一线地区机柜资源的稀缺性。21年月,贯彻 落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发 展
12、实施方案提出,全国新建大型、超大型数据中心平均用电效率降至L3 以下,全国中心节点进一步降至1.25以下,绿色低碳水平达到4A以上。数 据中心基础设施根据冷却方式不同可分为风冷数据中心基础设施和液冷数据中 心基础 设施。风冷方式起步较早,技术相对成熟;液冷方式是近几年因数据中 心散热需求提升而出现的一种新方式,技术尚处于发展阶段。液冷方式分为冷 板液冷和浸没式液冷,浸没式液冷方式又可分为相变浸没式液冷和非相变浸没 式液冷。制冷散热主要方式:目前发展的散热冷却技术主要有风冷和液冷两大类,其中 风冷包括自然风冷和强制风冷,适用的机柜功率密度较低;液冷分为单相液冷 和相变液冷。散热冷却系统所采用的冷
13、却介质、冷却方式不同,移热速率差距 大。传统风冷最高可冷却30 kW/r的机柜,对于30 kW/r以上功率密度的机 柜无法做到产热与移热速率匹配,会使机柜温度 不断升高导致算力下降甚至损 害设备。可以看到,采用AlOO后服务器功率大幅提升,参考上文若采用英伟 达DGX AlOO 640GB服务器,单机柜的功率或将超过30kW,此时更适宜应用液 冷的冷却方案。液冷分为间接液冷、直接单相液冷和直接两相液冷,主要根据 液体与IT设备接触状态来区分。目前而言,普遍应用的是冷板冷却的方式,使用的是液冷和风冷相结合的方 法,对芯片采用液冷,对硬盘等其他电器元件采用风冷,并非严格意义上的单 纯液冷。属于间接
14、液冷的一种方式,冷板能冷却小于45 kW/r的机柜更节能 且噪音小,不需要昂贵的水冷机组,与 纯液冷对比也有一定优势。单相浸没式 液冷制冷效果更强,但难度较高。单相浸没式液冷需要对液冷材料进行筛选(满 足绝缘性强、黏度低、闪点高或不燃,腐蚀性小,热稳定性高,生物毒性 小等性能要求)和IT设备进行设计,但该方式可以实现冷却的传热系数范围 更广。25.0020.0015.0010.005.000.00201920202021营业收入(亿元)归母净利润营业收入增长率 归母净利润1资料来源:润泽科技2021年年报,润泽科技公司公告,天风证券研究所5.重点企业分析5. 1.润泽科技:国内领先的数据中心整
15、体解决方案提供商。润泽科技发展有限公司于2009年 9月在廊坊 经济技术开发区注册成立。自成立以来,公司始终专注于开发及运 营超大规模、高等级、高效高性能数据中心集群。目前润泽科技在廊坊建设运 营的润泽(廊坊)国际信息港数据中心集群,规模位居全国前列,2009年成 立以来陆续启动廊坊A区工程建设,布局长三角、大湾区、成渝经济圈、西 北地区数据中心建设,建设超大规模数据中心产业园区;并与中国电信、中国 联通等电信运营商通过长期合作建立了良好的业务关系,为其提供数据中心整 体解决方案。公司近年收入与利润增速较快,营收有望保持高速增长。营业收入来看,公司 营收全部为数据中心业务收入,2019-202
16、1年营收复合增长率达到43. 89%, 整体营业收入不断增长。2022年Q3实现营收7. 18亿元,同比增长35. 90%o我们认为,随着数据中心行业的快速 发展和公司品牌运营建设能力的 不断增强,公司收入有望持续快速增长。净利润来看,公司2022年Q3净利 润为3. 46亿元,同比增长103. 42%o营业利润为公司利润的主要来源,主营 业务突出,具有良好的盈利能力。我们认为,随着下游客户行业需求的不断增 长和公司数据中心产能的不断提高,公司盈利有望持续提升。具体来看,润泽科技盈利能力的持续提升主要驱动因素如下:1)数字化驱动下 游行业需求快速增长,市场规模不断扩大。一方面,互联网行业客户由
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据中心 行业 专题报告 数字 经济 AI 浪潮 IDC 投资 机遇 精选
