在安装机架式服务器时,似乎在观念上存在很多分歧。有讨论螺纹臂和其他机架安装配件的话题,但我很好奇:

安装服务器时,是否在服务器之间留有空的机架单元?为什么或者为什么不?您是否有任何经验证据来支持您的想法?有谁知道一项研究能够最终证明一项研究是否更好?

#1 楼

如果您的服务器使用从前到后的直通式冷却,就像大多数机架式服务器一样,留有缝隙实际上会损害冷却。您不希望冷空气有任何途径到达热通道,除非通过服务器本身。如果您需要留出空隙(出于电源问题,地板重量问题等),则应使用盲板,以防止空气在服务器之间通过。

评论


是的,如果您留下空白,则需要在面板上填充以防止出现空白。

–托马斯
09年6月18日在11:25

= 1。机架安装服务器和机架专为确保所有面板和挡板都已打开且所有设备都已装满的气流而设计。就像个人电脑中的气流设计为具有所有盖板一样。通过留出缝隙和/或移除面板和盖子来规避设计可能弊大于利。

–joeqwerty
09年11月25日在22:17

#2 楼

我从未在机柜中的机架式设备之间跳过机架单元。如果制造商指示我跳过设备之间的U,但我从未见过这样的建议。

我希望任何设计用于机架安装的设备都会通过前部或后部散发热量。后面板。热量将通过导轨以及机箱的顶部和底部进行传导,但与前后的辐射相比,我希望热量会很小。

评论


实际上,如果要跳过机架单元,则需要在每台服务器之间使用保护罩,否则,高通道和冷通道之间会混有空气。

– Doug Luxem
09年6月18日在2:33

#3 楼

在我们的数据中心,我们不会留下空白。我们有凉气从地板上冒出来,缝隙会引起气流问题。如果由于某种原因确实有缝隙,我们将用一块空白板盖住它。立即添加空白板会使我们的冷通道的顶部变冷,而我们的热通道的温度变高。

我认为我已经没有数据或图表了,但是一旦我们开始进行更改,区别就非常明显。机架顶部的服务器停止了过热。我们停止了烹饪电源的供应(大约每周1次)。我知道更改是在我们的数据中心经理从Sun绿色数据中心博览会回来之后开始的,在那里他参加了一些有关冷却等的研讨会。在此之前,我们一直在机架前后的地板上使用间隙,部分填充的机架和打孔的瓷砖。

即使有适当的管理臂,也可以消除间隙,效果更好。现在,我们在房间中所有位置的所有服务器内部温度都在规格范围内。在我们标准化电缆管理并消除间隙并纠正地砖放置之前,情况并非如此。我们想做更多的工作,将热风引回CRAC部门,但还没有资金。

#4 楼

我不跳过我们。我们要租房,而我们要花钱。

这些天没有理由加热。所有的冷空气都在前面,然后从后面出来。顶部不再有通风孔。

评论


回复:“我们要花钱。”我曾经认为空间是数据中心定价的主要因素。然后,我在托管部门找到了一份工作,结果证明,在Colo环境中,大多数成本来自电源电路和交叉连接。

–JamesBarnett
2013年1月29日在3:36



#5 楼

Google不会在服务器之间留下U,我想他们对热量管理感到担忧。观看大型公司的工作情况总是很有趣。
以下是其数据中心之一的视频:
http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded
直接转到4:21查看其服务器。

#6 楼

如果地板上有凉爽的空气,请不要留空间,并在未使用的u空间中使用毛坯。如果您只是使用标准空调机的低技术冷却系统,则最好在热服务器聚集在一起时留出空隙以最大程度地减少热点。

评论


如果您的服务器使用前后风扇完全不明智地冷却以留出间隙,则会损害气流。

–pauska
09年6月18日在10:52

#7 楼

我们有3 1/2机架价值的集群节点及其在同一位置的存储。我们唯一需要跳过的地方就是将网络布线路由到核心集群交换机所在的中央机架。我们可以在空间上做到这一点,因为机架已经在功率方面达到了极限,因此不可能在其中填充更多节点:)

这些机器全天候运行24/7在100%CPU上,其中一些在1U机箱中最多可容纳16个内核(4个四核Xeon),我还没有看到在大多数之间不留空格的负面影响。

只要您的设备的通风道设计合理,我就不明白为什么会如此。

#8 楼

我的UPS上方(将来用于安装第二个电池)和磁带库(如果需要另外一个)上方有很大的空隙。除此之外,我没有空隙,我使用面板填充空白空间以保持气流。

#9 楼

每三分之二,但这是由于管理部门和需要围绕它们而不是热力进行工作。这些服务器各有6条Cat5电缆连接到它们的事实无济于事。我们确实大量使用了挡板和机架顶部的气坝,以防止热通道的再循环。

此外,我们在数据中心中不缺的一件事是空间。它是为在7-10U服务器为标准时向后扩展而设计的。现在我们已经使用了密集机架式ESX集群,那里就是一个鬼城。

评论


好了,有6根电缆,让我们看... 2个管理接口,2个iscsi接口和2 ....专用于集群管理器?

–马特·西蒙斯(Matt Simmons)
09年6月18日,0:50

不要使用管理臂,也不必跳过单位。 :)

– Doug Luxem
09年6月18日在1:09

6条电缆:1个HP iLO卡,1个ESX mgmt LUN,4个VM Luns。同样,用于SAN的光纤。我们还没有iSCSI。如果我们愿意在拉出服务器之前完全脱掉服务器的衣服,我们肯定会怀抱不满的。

– sysadmin1138♦
09年6月18日在1:54

看过您的数据中心后,我想知道您是否将其设置在传统的热通道冷通道设置中,而不是分散在巨型房间中,以获取更好的热性能。

–劳拉·托马斯(Laura Thomas)
09年6月18日在3:57

#10 楼

我不会在服务器之间留出空隙,但我会使用LAN交换机之类的东西-这使我可以在上下放置一些1U电缆管理条...但是,冷却绝对不是完成的。

#11 楼

除非我们已将服务器或其他东西取出来并且不费心去重新安排,否则没有任何差距。我认为我们比这里的许多人要小一些,只有2个机架,只有15台服务器,还有一些磁带机,交换机和UPS。

#12 楼

除了计划扩展圣诞老人系统或类似的事情时,别无其他。我们宁愿将新机柜放置在靠近实际控制器的地方。

如果散热良好,除非服务器的结构不良,否则留出空隙将无济于事。

#13 楼

我有一种印象(也许是错误的),这在一些热/冷通道没有得到广泛使用的电信环境中是一种更流行的做法。

它不适用于高密度和运行良好的数据中心但是。

#14 楼

我通常在大约5RU的服务器(即5x1ru或1x2ru + 1x3ru)之后留一个空白的RU,这取决于您所使用的数据中心中的冷却设置。如果您在机架前面进行过冷却(例如,想法是将冷空气从地板上推上来,而您的服务器通过它们吸收冷空气。在这种情况下,通常可以通过不留空插槽(即使用空白的RU盖)来获得更好的散热效果。但是根据我的经验,如果通过机架中的地板进行散热,则可以通过拆分服务器来提高散热效率在整个机架上彼此重叠

#15 楼

在我们拥有自己的数据中心且空间不成问题的情况下,我通常在逻辑区域之间跳过U(带有间隔以阻止气流):Web服务器具有一个区域,数据库,域控制器,电子邮件,文件服务器有另一个,防火墙和路由器有另一个。偏远台式机的开关和配线架都在各自的机架中。

我确实记得有一次出于冷却原因跳过U形的情况。这是一所高中的A / V有线电视循环解决方案,那里有三个单元,每个单元负责为建筑物的一部分提供有线电视系统。由于过热不得不在两年内第三次更换顶部单元后,我在机架上进行了一些“手术”以制造安装孔,这样我就可以在三个单元之间留出1 / 2U的空间(总共1 U的总空间。)

确实解决了问题。毋庸置疑,这是经过全面记录的,为了获得更好的效果,我在一张纸上用胶带将它们之间的缝隙贴了一下,以解释为什么东西以它们的方式出现。 />

只有在例外情况下才能进行散热。
请使用信誉良好的机箱或服务器供应商。请小心购买试图将2U热量包装到1U空间的设备。这将很诱人,因为1U系统可能看起来便宜得多。并且要小心购买未充分考虑气流的品牌外包装。


#16 楼

我把它们堆放在一个架子上。从来没有任何问题,所以我从来没有任何理由将它们隔开。我想人们将它们隔开的最大原因是热量。

#17 楼

服务器之间留有空隙会影响散热。许多数据中心都是在“热通道”和“冷通道”的基础上运行套件的。可能感兴趣:


冷通道和热通道交替提供为服务器场提供更可靠的冷却


#18 楼

我之前在两个开关之间留了RU的1/3,主要是因为它们每个都高1 1/3 RU。

如果我将它们拼凑在一起,那么档位会更高位置错位了U的1/3。

除此之外,我从来没有离开过纯粹用于散热的空间,只是用于未来的增长。