為超融合架構選擇合適的資料中心冷卻系統

2021-09-23 13:04:29 字數 2151 閱讀 6853

雖然超融合基礎架構會帶來很多好處,比如精簡的it管理方法,但從資料中心散熱的角度來看,它也同時帶來了一些特殊的挑戰。

當把超融合基礎架構的機器安裝到機櫃上的時候,會在密集的冷卻環境中製造出高熱量密度。保持散熱通道的暢通無阻非常重要,但是要保證正常的溫度下給予機器足夠的散熱風,還要讓熱量盡量遠離這些機器是比較困難的。

其實對於其他it硬體來說這個原則是一樣的,但是鑑於高度融合基礎架構(hci)的密集性以及安裝的簡易性,你會發現要在資料中心打造乙個有效率的散熱系統其實是很困難的。很多資料中心在建立之初並沒有考慮到這種高度融合的系統的散熱問題,但是只要你使用合適的技術,你還是可以讓你的資料中心盡可能地有效。

hci的電源通常來說可以達到1000瓦(w)以上,這會產生很多熱量。乙個2u高的hci機器可能會達到25-30kw的功耗,相對來說傳統的1u伺服器只會產生350-500瓦的功耗而已。即使你已經做了很多減少空氣混合的改造(例如分離熱通道和冷通道,使用空白面板和保持密閉度),可能理論上已經能夠達到冷卻的要求,但是實際上你可能還是達不到要求的溫度,

什麼冷卻系統對於hci系統來說是最好的呢?

美國採暖、製冷與空調工程師學會(ashrae)建議的入風溫度是80.6華氏度(或27度攝氏度),這不僅僅能節省能源,還能增加空調的製冷能力。更高的進風溫度會導致空調的回風溫度也會更高。一台典型的20噸機房空調(crac)執行在84 kw功率和75華氏度進風溫度的情況下會提供137kw的冷卻能力以及90華氏度的回風。這裡的差異還是蠻大的,但是這並不能保證這些冷卻的能力最終都能利用到計算機裝置上去。

有效的資料中心冷卻系統要考慮效能以及風道。如果環境中空氣不夠的話,伺服器風扇會嘗試從其他地方吸收空氣——這包括了機櫃的頂部、機櫃裝置之間沒有固定的空間、臨近的機櫃或者機櫃與地板的空隙。這會帶來兩個問題,第乙個問題是伺服器風扇會加速並且消耗額外的能源。

這樣的結果是,被伺服器風扇抽取的空氣的地方會比空調處的空氣熱很多。 如果你的入風溫度已經非常高了,那麼這些昂貴的裝置會比他們預想的更熱,從輕的層面上講,這會帶來一些資料錯誤。這還會減少這些裝置的壽命,並且也會一定程度損壞這些裝置。

對於hci我需要多少空氣呢?

有了以下這個公式,你就能快速決定你的資料中心內的空氣數量是否滿足你裝置的需求了。

cfm = btu/1.08 x td

cfm是每立方尺每分鐘的空氣流量

btu是每小時英熱量單位的熱負荷

(btu = watts x 3.414)

1.08是在正常情況下的空氣校正常數

td是溫差,或者叫做delta溫度或δt

進風的溫度和出風的溫度差異大概在25華氏度左右。

做乙個快速的計算,假設電源是在幾乎滿負載的情況下運作的,那麼1600瓦單元等效於5460 btu。假設溫差是25華氏度,那麼裝置需要202 cfm的空氣才不會出現問題。

如果你在乙個機櫃內裝滿了hci系統,那麼你需要4000 cfm的空氣。如果你的空調是普通的20噸機房空調的話,那麼它能提供12000 cfm,那麼結果是你只能冷卻3個機櫃的裝置。即使你假設伺服器的利用率平均有75%,那麼每個機櫃你還是需要3000 cfm的空氣。

如果我無法提供那麼多空氣怎麼辦?以下的公式可以幫你解決溫差的問題:

td = btu / 1.08 x cfm

4個利用率75%的機櫃會需要12000 cfm,但是如果附近的機櫃需要額外的6000w功率的話,那麼你就需要等效的6個hci機櫃的功耗,即至少18000 cfm。你的機房空調可能只能提供12000 cfm。假設你的伺服器群是在全速執行的,但是又不能從其他地方抽取更多的空氣,那麼你的溫差會變成53華氏度。這個時候計算裝置很可能無法忍受這個溫度,從而會導致機器被關閉,或者失效。

其他空氣氣流限制

如果我們有很多機房空調,那麼它們可以將空氣直接排放到每一列機櫃中去。如果你使用的是地板下的空調,格仔型的瓷磚也只能提供56%的開放空間,根據不同的地下壓力它可以提供900-1600 cfm,或者5-9 kw的製冷功率。如果你安裝了過多的這些瓷磚或者風扇助力的瓷磚,會導致地下的空氣壓力變小,從而會抽取其他排機櫃的空氣。風道的大小限制了空氣在空中的傳遞——也就是說即使你有足夠的空調來傳遞足夠的空氣,但是傳遞的過程中也會受到一定的限制,從而有一些空氣無法到達計算機硬體。

當每乙個機櫃達到7500 w~10000 w的功率的時候,你可能需要額外的資料中心冷卻系統。有很多冷卻系統是專門用來對付高密集型計算資料中心的。其中包括地面的和架空冷卻器,後門熱交換器,甚至液體冷卻系統。在未來我們可能會看到越來越多高效能系統設計成支援直接水冷。

超融合基礎設施產品為資料中心增添動力

私有雲棧 商,如swiftstack,也同樣在蠶食著市場,它們讓市場的競爭更加激烈。哦,別忘了amazon web services和microsoft azure公有雲,它們承載著大量的應用程式和資料。下面是我對這些趨勢的驅動因素的一些看法,以及關於如何對下一代資料中心作出一些基本決策的建議。乙個...

超融合 2023年資料中心的那些事

2018 年的資料中心新聞集中 在超融合基礎設施 hci,hyper converged infrastructure 雲 cloud 和 人工智慧 ai,artificial intelligence 上 這些開發可以幫助管理員擴充套件其用於軟體定義的資料中心管理 雲設定和共享資源分配的工具集。以...

聯想超融合架構 應運而生的新一代資料中心

在當今 網際網路 的大時代背景下,資料量呈現 式增長,企業對於高彈性的橫向擴充套件能力以及對業務快速響應的需求不斷提高。傳統的資料中心架構已經遠遠不能滿足當前的需求,主要體現在如下三個方面 痛點1 架構複雜 早期90 年代中後期資料中心形成的以大型機 小型機 大型資料庫 集中式儲存加上高可用軟體組成...