数据中心现状与趋势-201704
一、IDC 行业发展现状
ü2011年以前,全球IDC 增长迅速,2012-2013年受经济影响放慢了增长速度,但从2014年开始,技术创新驱动的智能终端、VR 、人工智能、可穿戴设备、物联网以及基因测序等领域快速发展,带动数据存储规模、计算能力以及网络流量的大幅增加,全球尤其是亚太地区云计算拉动的新一代基础设施建设进入加速期。ü2016 年全球IDC 市场规模达到451.9 亿美元,增速达17.5%。从市场总量来看,美国和欧洲地区占据了全球IDC 市场规模的50%以上。从增速来看,全球市场规模增速趋缓,亚太地区继续在各区域市场中保持领先,其中以中国、印度和新加坡增长最快。
2010-2016年全球IDC 市场规模
ü中国2012、2013年IDC 市场增速下滑,但仍高于全球平均增速。2014年以来,政府加强政策引导、开放IDC 牌照,同时移动互联网、视频、游戏等新兴行业发展迅速,推动IDC 行业发展重返快车道。
ü2016 年中国IDC 市场继续保持高速增长,市场总规模为714.5 亿元人民币,同比增长37.8%。电信运营商近年来加大了对带宽的投资力度,电信网、广电网和互联网的融合进一步加速,“互联网+”推动传统行业信息化发展,由此带动IDC 机房需求和网络需求持续增长。移动互联网和视频行业呈现爆发增长,游戏等行业增速稳定,这些领域客户需求的增长拉动了IDC 市场整体规模。
2010-2016年中国IDC 市场规模
ü2016 年互联网行业继续成为IDC 服务的主要客户群体,占比为55.9%。其中,移动互联网客户占比最大,比例为21.4%;另外,网络游戏与视频及直播客户贡献度较2015 年相比均有所提高,占比分别为6.9%和3.1%。
ü2016 年转型进入IDC 领域的传统企业数量进一步增长。首先,“三去一降一补”政策明确要求传统重资产型企业开拓新思路、寻找新方向、打造新产品,实现由劳动密集型产业向高新技术密集型产业转变。次,房地产业、纺织业、材料制造与加工业、机械制造业等传统重资产企业基础设施方面,具有一定的优势(厂房、水电)。
ü2016 年,IDC 服务商新建设的数据中心多数为大型、高等级数据中心,机柜数普遍在1000个以上。考虑到成本风险,IDC 服务商大都通过分期建设、分步投入的方式,降低数据中心的建设成本,充分提高基础设施的利用效率。
ü2016 年,国家进一步推动IDC 行业规范化,监管力度加大,监管制度逐渐完善。2016 年下半年,中国联通与中国电信分别开展了IDC 违规业务专项整治行动,整治内容主要包括三方面:一是互联网专线、IDC 带宽及BGP 业务自查和整改;二是IDC 外拉光纤及电路整改;三是历史工单、疑似违规IP 地址检查。
ü工信部节〔2017〕77号,《关于加强“十三五”信息通信业节能减排工作的指导意见》2017.4.24发布:ü到2020年,信息通信网络全面应用节能减排技术,高能耗老旧通信设备基本淘汰;电信基础设施共建共享全面推进;通信业能耗基本可比国际先进水平,实现单位电信业务总量综合能耗较2015年底下降10%;新建大型、超大型数据中心的能耗效率(PUE )值达到1.4以下;新能源和可再生能源应用比例大幅提升。ü坚持过程节能与产品节能相结合。强化新建工程的设计、建设、运维等全生命周期过程的节能管理,推广高效节能技术产品,提升信息通信业整体能效水平。
ü创新推广绿色数据中心技术。推广绿色智能服务器、自然冷源、余热利用、分布式供能等先进技术和产品的应用,以及现有老旧数据中心节能改造典型应用,加快绿色数据中心建设;认真执行绿色数据中心相关标准,优化机房的油机配备、冷热气流布局,从机房建设、主设备选型等方面进一步降低能耗。
ü创新推广能源高效利用和新能源技术。推进电力能源高效使用,推广高压直流供电和高效模块化不间断电源等节能技术和设备,提高风能、太阳能、新型蓄电池等新能源占比。
ü进一步完善信息通信设备节能分级标准及绿色数据中心相关标准,充分发挥标准的引导和约束作用,加快构建信息通信业绿色供应链,有效支撑行业节能减排工作。
ü未来三年,中国IDC 市场规模持续上升,预计2019 年,市场规模将接近1900 亿元。移动互联网、视频、网络游戏等垂直行业客户需求稳定增长,是拉动IDC 市场规模的核心驱动力。
ü从IDC 市场区域来看,中东部发达地区的新兴市场发展迅速,江苏、浙江、湖北等地的IDC 市场需求快速攀升,市场规模呈现规模化上升趋势。电信运营商占据先天优势,基础设施与带宽资源丰富、资质与牌照健全、央企品牌号召力强,客户稳定,是IDC 产业的主导者。大型IDC 服务商有较强资本实力、规模化运营且客户群稳定,未来,大型IDC 服务商的业绩仍将持续提升,市场份额继续扩大。
2017-2019年中国IDC 市场规模预测
环渤海区域以北京为中心。拥有得天独厚的地域优势、资源优势、经济优势。北京完善的云计算基础设施和软件业基础、天津制造业/物流业优势、山东
云计算基础设施制造与研发、河北面向京津的信息后台服务基地。以上海为龙头。丰富的资金、人才、技术和市场资源。经济基础好,应用潜力大,制造业和现代信息服务业发达,高科技产业密集,高等院校等科研单位较多。长三角地区
产业区域布局
珠三角地区商贸物流体系发达,信息基础设施完善,信息技术创新实力较强,且信息化应用需求较高。广州作为全国三大通信和互联网枢纽之一;深圳拥
有良好的互联网、软件、电子信息产品制造业基础,产业高端集聚。
p 未来IDC 的布局围绕“节能、效益、产业集群”等几个关键词,主要呈现基地化,核心集中,边缘分散的特点
p 节能:三大运营商在内蒙、东北布局p 效益:京津塘、珠三角、长三角均为人口密集,总部经济集中之地,效益最高
p 产业集群:贵州大数据、苏杭研发/视频/电商、四川动漫/音乐/物联网基地
新型IDC 功能定位
Ø网络云部署核心
Ø云计算/大数据的基础设施Ø作为视频内容的主要来源
,丰富视频内
容的引入
技术驱动,网络虚拟化重构:
SDN/NFV技术驱动下,网络逐步IT 化,网元部署区域DC 化。2020年网络云化比例超过
50%
二、IDC 技术发展
A
满足更高功耗机柜需求、追求更低PUE
几年前单机架平均功率为4至5kW ,现在每机架功率可能高达8到12kW ,这需要对数据中心整体进行更好的规划设计以尽量降低总能耗,避免电源制约和制冷问题。
B
制定开放标准
在规模和效率的双重驱动下,各大互联网公司均积极推动制定开放统一的机柜规范(如BAT 的天蝎计划和facebook 的OCP 项目等)、推动产业链规模化生产、降低营运成本、提高部署速度和运维效率。
C
自然冷源和液体冷却
充分利用自然环境的冷源,采用新风、热交换或热管等节能技术将显著降低能耗。新的液体冷却技术将在未来取得重要规模应用(如单架高达250kW 的高性能计算机)。
数据中心需要有巨大且持续的能源对其机房区域的通信设备和环境温湿度进行保证,相对于一般公共建筑约0.2kW/m2的单位功耗,数据中心的单位面积功耗可以达到2~10 kW/m2甚至更高,因此在绿色数据中心的建设中,节能成为最为重要的一环。
数据中心的能耗主要包括两大部分:一是IT 设备本身的能耗,另一部分是配套机房环境的基础设施能耗。因此必须通过降低包括建筑环境、空调系统和配电系统的能耗占总能耗的比例,即降低PUE 值来达到建设绿色数据中心的目
的。
早期建设的数据中心PUE 值多为2~3,即早期的基础设施用电超过甚至两倍于IT 设备耗电量;绿色数据中心基础设施建设的意义,就是要通过合理的选址、设计及设备选型,使得数据中心项目的PUE 值可以达到1.6、1.3甚至更低。
•在正常情况下,整流器将市电交流电源变换为大约240V/336V的直流电源停电时,由蓄电池放电为服务器等设备供电
•中国电信从2007年在江苏开始试点,目前已在全国运营商和BAT 中广泛推广,并已纳入运营商集团集采,积累了非常丰富的建设和维护经
验
缺点
•YD/T 2378-2011《通信用240V 直流供电系统》;
•GB 52125-2017《通信高压直流电源设备工程设计规范
》
中国通信和IT 行业对240V 直流(HVDC )的研究和应用广度和深度,已经走在其他国家的前列,处于全球领先水平,相关企标和行标早在2011年已逐步发布,设计国家标准已于2017年发布,电源产品和工程验收的国家标准正在制定中。
ØØ
中国电信2007年率先使用240V 直流供电,中国移动和中国联通也跟进使用腾讯已经大规模采用240V 直流;阿里巴巴、百度、江苏广电等也紧跟其后机架推广由百度、腾讯、阿里共同推动的“天蝎计划”已经明确规定机柜要采纳240V 直流供电绿色联盟等组织和更多知名IT 厂家也开始跟踪
已有艾默生、中恒电气、中达电通、伊顿、动力源等十余家电源厂商生产出成熟的商用
产品
ØØ
ØØ
•
由能完成UPS 基本功能的可拔插功能模块组成
•模块化可扩容的
结构
•采用IGBT 整流替代可控硅整流的技术
•系统一般不含输出隔离变压器
••••系统效率高输入谐波小体积较小重量较轻
缺点
•YD/T2165-2010《通信用模块化不间断电源》
•部分用户不接受无隔离变压器的系统
•与传统塔式UPS 标准相同
•YD/T 1095-2008 《通信用不间断电源-UPS 》
传统2N 不间断电源系统
üüüü
一路UPS/240V直流+
一路市电直供
现有市电可靠性高,重要负荷配置后备发电机组自启动,配电系统自动化程度高!采用一路市电直供代替一路不间断电源,可实现低成本、高效率。充分利用良好的外电条件,整个供电系统可用性高(2N 结构)。
市电直供系统简单可靠,设备故障率低,维护管理成本低,工程建设投资少,供电效率高。
传统配电方式:配电柜---PDU---电缆放射式配电---负载
智能小母线配电方式:配电柜---小母线---插接箱-电缆树干式配电---负载功能取代电源列头柜
快速部署,扩容方便
维护简单,方便
10kV 高压柴油发电机组
•采用10kV 发电机,铺设电缆单条线径只有传统380V 发电机的1/25,降低工程投资,缩短施工工期;降低配电线路损耗和运行费用;•可配套采用10kV 高压空调制冷主机,采用10kV 发电机节省了升压变压器的投资;
•有利于并列运行及负荷分配,及长距离供电;
•减少了配电级数,系统简洁,便于维护.
660V 电压供电
•采用660V 电压,功率相同时,其电压为380V 电压的1.732倍,电流为380V 的0.58倍,大量节省配电开关及配电导线的投资;•采用660V 电压供电损耗,仅为380V 电压供电0.33倍,节能效果明显;
•660V 供电元器件与380V 同价。采用660V 电压供电在技术上和经济上是可行的。
中央空调制
冷
10kV 高压冷水机
组
末端精密空调EC 风机下沉
房间级制冷气流组织—风管上送风空调系统气流
组织
u 通过上送风空调、风管、风量调节阀等设备把冷风输送至机柜附近,有少量气流混合,为准精确送风方式。适合改建项目,单机柜功率密度2.5KW
以下
u 通过上送风空调、风管、风量调节阀、门板式送风器等设备把冷风直接输送至机柜内,为严格意义的精确送风。适合改建项目,单机柜功率密度2-3KW
u 通过上送风空调、风管、封闭冷通道(冷池) 等设备把冷风输送至冷通道区域内,冷通道二次均压后,进入机柜冷却设备,属于严格意思的精确送风。适合改建项目,单机柜功率密度5KW
以下
房间级制冷气流组织—架空地板下送风空调系统气流组织
u 架空地板下送风,准精确送风,区分冷热通道。适用于单机架平均功耗≤3kW ,机柜严格背靠背排列
。
u 架
空地板下送风,精确送风,冷或热通道封闭。适用于单机架平均功耗4~6kW,机柜严格背靠背排列。
行级制冷气流组织
u 行级空调,水平送风,空调位于设备列内,区分冷热通道。适用于单机架平均功耗≥8kW ,最高可达20kW/机柜以上,机柜严格背靠背排列
。
①:行级空调
②:机房设备
u 行级空调,水平送风,空调位于设备列头或列尾,区分冷热通道。适用于单机架平均功耗≥8kW ,最高可达20kW/机柜以上,机柜严格背靠背排列。
u 行级空调,上送风,空调于设备列走道上方,区分冷热通道。适用于单机架平均功耗≥8kW ,最高可达30kW/机柜以上,机柜严格背靠背排列
。
为解决功耗越来越大的IT 机架热控制难题,一些科研单位或公司从服务器/芯片级散热入手,采用特定型号热超导材料工质对服务器芯片直接冷却,该工质绝缘、无腐蚀性、环境安全友好、冷却效率高。
液冷技术能够大幅度降低计算、存储、通讯设备的制冷能耗,实现机房环境40℃条件下无需空调制冷设备,PUE 值可大幅降低,甚至接近1.0
。
液冷系统主要构成:
Ø集中式液路供给和冷却系统,液路分配单元,机柜内淋液单元
液冷路径
机柜机架
PUE ≥1.5
/
能效
25℃
PUE=1.0
40℃
机房内温度
传统制冷技术液冷技术
耗电量大,PUE 值高冷热空气混合,制冷效率差
建设周期长
IT 设备安装密度低,数据中心占地面积大
不具备灵活性,无法移动
投资大,回报低
PUE 值可降至1.05-1.2
VS
采用更为先进的接触式液冷方式,冷却效率高供货周期短,模块化安装功率密度大,可达到10kW/柜运输方便,快速部署
降低TCO 30%以上,投资灵活
蒸发式冷凝器是以水和空气作冷却介质,利用水的蒸发带走汽态制冷剂的冷凝热。结构上将传统风冷和水冷空调的冷凝器和冷却塔合二为一,省略冷却水从冷凝器到冷却塔的传递阶段;充分利用水的蒸发潜热冷却工艺流体,用水量为水冷式冷凝器的45~50%
。
ü利用峰谷电价差,谷时蓄冷,峰时关闭制冷主机,利用蓄冷池供冷,从而减少空调年运行费。
ü可以作为中央空调系统的应急备份,保证中央空调系统的安全性。在中央空调主机停机时持续提供一段时间的冷量,对于对制冷系统要求的特别高的金融、电信领域,该作用显得更加重要。
POD (Point of Delivery): 作为数据中心的基本物理设计单元, 通常包含服务器机柜、接入网络机柜、汇聚网络柜、以及相应的空调、UPS 等弱电配套基础设施。v 易扩展,灵活的模块化设计方式,根据业务需求扩展,缩短规划部署周期v 提高投资利用率,避免一次性建设超过业务需求的情况,降低维护成本v 提高能源利用率
v v POD 容量取决于:1. 整体机房规模数量;2. 交换机端口密度;3. 业务可靠性要求
。
32
广义“微模块”—封闭冷或热通道
n 冷通道密封后,冷空气在冷通道内形成资源池,实现了冷气流的充分共享,可有效解决局部大功耗设备散热问题;
n 实现冷热气流高效隔离,提升冷气利用效率;
n 由于冷热气流高效隔离(无混合),可通过提升送风温度进一步节省制冷能耗
;n 热通道密封后,热空气在热通道内形成资源池,实现了热气流的充分共享,可有效解决局部大功耗设备散热问题;n 实现冷热气流高效隔离,提升热气回收处理效率;n 由于冷热气流高效隔离(无混合),可通过提升回风温度进一步节省制冷能耗
;
狭义“微模块”—封闭冷或热通道+行级空调+电
源n 设备微模提块供以“两宜排机居”柜环为境单。元,由机柜、电源柜、空调柜、配线柜等组成,为ICT