网络通信 频道

技术or艺术?教你设计一个数据中心

  【IT168专稿】艺术的唯美和技术的务实,似乎有着天然的距离。但当我们回顾很多技术的发展历程,就会发现,在那些取得了巅峰成就的地方,总是技术与艺术的完美结合。今天我们就一起深入了解最新的数据中心基础设施的设计和搭建——只要用心,技术离艺术并不遥远……

  历史回顾

  过去十年中,数据中心的规模多为300-500平米,一般设在办公楼内,其建设多以应用为中心,靠应用来拉动。

  现实需求和挑战

  数据中心建设发展到现在,为加强数据中心的管理,提高其效率,安全性和可靠性,大型、超大型数据中心的建设需求逐渐增多。而过去数据中心的设计、建设模式已经不再适应这种发展需求了。

  目前,大型数据中心建设面临的主要挑战有:

  1:设计标准落后,基础研究空白,缺乏统计数据。

  国内的相关设计,建设标准是93年的,和现实需求相比过于陈旧,最新的规范尚在推广当中。用于指导电信行业的TIA-942规范并不一定对所有用户适用。

  2:数据中心所要支持的业务系统的要求,企业IT架构设计与具体的基础设施设计严重脱节。

  3:设计、建造过多依靠经验,缺乏科学的方法和工具。

  现有机房工程公司已难以支持,而国内的专业建筑设计院过去很少接触数据中心设计。

  4:技术经济指标,节能措施缺乏计算和考虑,效率低下。

  5:缺乏专业的工程管理。

  6:设计、建设、运维各个阶段脱节。

  数据中心是专业性很强的工业建筑,运维方式直接对建筑设计提出要求,而运维方式又是由数据中心所承载的业务类型,模式所决定的,所以各个环节要全面规划。

  设计数据中心时需完全遵守现有国家标准,并广泛参考国际标准,非常好的实践经验以及Gartner Infrastructure Maturity Mode。

  现在企业做数据中心建设大部分都处于集中式阶段,部分企业由集中式向标准化走。长远上看,数据中心基本上要往基于服务,虚拟化方向发展。

财富500强企业数据中心目前处于的阶段(百分比) 

 

  设计数据中心时考虑的要点有:

  全生命周期设计。大型的独幢楼的数据中心与传统的办公楼改造数据中心不同,其建筑寿命在50-60年,因此所要满足的系统工艺要求要有明确的时间跨度,从数据中心的规划、设计、建设/改造、验收/移交到日常运行,整个过程需要考虑15年左右的工艺时间跨度规划。

  做数据中心设计时,需要分析数据中心所承载的业务规模(所要满足的应用、应用有多少种、应用覆盖的范围、人群、地域)、系统架构、网络结构、设备种类。一个数据中心投产时很少要求其满足未来十左右的发展需求,那样的话初始投资太高,但也不希望数据中心投产后由于漏洞而需要升级,甚至停机改造。因此需提出投产时1-2年、投产后5-6年、8-10年三个阶段的系统规模要求,由此反推工艺参数,并根据参数提出对建筑设计的要求,确定分阶段建设、升级的关键点,以及基础设施的配合升级计划。

  现在的数据中心纯装机空间的规模都可能会达到一、两万平米,为提高其效率,需采用模块化设计,根据应用级别的不同,在模块建造时有所区别,降低成本。就现在的数据中心设计建设来看,第一轮的模块设计大多是按消防的硬性指标来划分,而这种设计缺乏科学性,它没能深入分析企业的各种应用和经济技术指标。总体上来讲,数据中心的整个建筑需满足T4要求,内部不同的模块根据应用的不同、投资的差别要做一些不同的分析,各个模块做好T3-T4的升级转换。

  另外需对不同的设备、机柜做一些独立的空气热力学模型分析,并对未来5年设备的发展作耗能预测,并以此作为后面的工艺参数要求的基础。比如说对于2kw-4kw的机柜,用传统的机柜布置模式就可以实现。对于4kw-8kw的机柜,则可能需要采用一些特殊的机柜样式和机柜布置模式(如封闭冷走廊、封闭热走廊等)。而对于8kw-15kw的机柜则可能还需要一些更加特别的方式。所以对于不同的安装阶段,不同的装机要求,需做好升级的准备,包括平面布置、装修等。

  目前现有的数据中心基础设施技术难以支持超过500w/平方米的耗电、散热。电信行业已经有支持1000w/平方米的耗电要求。新的高密度刀片服务器推出的话,1000w/平方米的耗电将会是它的最基本的要求。目前做的技术验证型高密度数据中心已经接近5000w/平方米的耗电。因此规划新的数据中心时,应充分考虑未来5年的新产品的技术走向和对环境的要求。但对高密度需持谨慎态度,不是所有的地方都需要去追求高密度,而高密度对空调的挑战太大,为支持高密度在空调上的投入可能最终导致经济效益指标下降。

  传统的热量管理技术存在极限,企业应该根据自己的技术经济指标来选择合适的散热密度。 

 

  现在的数据中心建设大部分可能选择Tire 3起步,建设成本高。需要强调的是,数据中心建设的Tire 3、Tire 4指标都是对基础设施做的定义,数据中心还是应该作为一个整体来考量其中的计算架构、存储架构、网络架构和物理设施架构之间的关系。比如说如果基础设施的可靠度只有三个9,则没必要要求计算、存储等达到四个9的要求。目前国内还没有人在做整体的可靠性的研究,可靠性的模型、理论已应用在物理基础设施的建筑设计、结构设计上,而在IT设计上则很少用到。总的来说,在分级和荣誉度的设计选择上,需从整体上来考虑,因为这方面的投资可能非常惊人,也很可能带来一些浪费。

数据中心建设的起步模式

  在搭建数据中心的时候,科学的设备布局也非常重要。其中包括有冷走廊、热走廊、回风通路,冷热需分开,防止互相污染。

  大型数据中心中的空调设计已不再能够依靠经验来进行了,而需要准确的知道数据中心各点的温度和湿度,出风口的出风量和风压.采用计算流体力学软件(CFD)对各个模块整体进行模拟,不但可以精确分析、优化空调设计,对建筑布局、层高的设计也可以进行验证、优化。

  CFD验证设计效果图如下,其中可以看到任意一点的空气流动,温度和湿度。可以根据验证图来做新的数据中心的设计,也可以将其用于旧数据中心的改造参考。利用验证效果图进行精细化操作还可以指导具体的运维操作过程。

  现在,节能已经是数据中心设计建设中的一个重要内容,设计一个数据中心时,需确定各种经济技术指标要求和节能目标。就目前技术能力、工程可能性,建议UPS输出功率与精密空调HVAC功率之比达到1 : 0.5-0.6。采用先进的空调技术,建议考虑水冷却配有自然冷却系统的双冷源节能型机房专用空调机组。在春、秋、冬季在室外温度降低时,可以部分或全部停止压缩机制冷循环系统的运行,靠室外冷空调冷却干冷器内的乙二醇溶液,在通过水循环系统将冷却的乙二醇溶液送到室内机房专业空调内用于冷却室内空气。下图中绿色区域是可以采用该设备的区域。

  最后需要强调的是,数据中心应该全程设计,同步设计运维模式、管理流程,在建筑设计时充分考虑其要求,包括装机、撤机、搬迁、巡检、维修的流程。一个数据中心即使别的技术指标很高,但如果运维、管理流程设计不当将会导致数据中心出现很多的问题。

0
相关文章