數(shù)據(jù)中心綠色節(jié)能刻不容緩
在數(shù)據(jù)中心市場成熟的國家中,平均2%-3%左右的全國電力被用于數(shù)據(jù)中心。雖然近年內(nèi)大型和超大型數(shù)據(jù)中心的建設(shè)規(guī)模持續(xù)增長,技術(shù)升級以及空間規(guī)模的增長提高了計算資源的利用效率,但仍然是電力資源的消耗大戶。數(shù)據(jù)中心的日常電力消耗占用了大部分的運維支出,降低運維成本和提高能耗的利用效率刻不容緩。
能效的提高體現(xiàn)在PUE值的進一步壓縮,即盡量減少用于IT設(shè)備工作之外的能耗,如熱管理、配電、照明等系統(tǒng),其中熱管理占了這部分能耗的絕大部分。在傳統(tǒng)數(shù)據(jù)中心中,用于熱量管理的電力占到了總電力消耗的25%-30%左右,也就是說,為了滿足數(shù)據(jù)中心的散熱需求,需要使用占一個國家總耗電量的0.5%-1%左右的能耗來進行熱管理。
然而隨著CPU與存儲等關(guān)鍵器件的快速演進,芯片技術(shù)與工藝的進步使市場上出現(xiàn)了更多高性能且高功耗的處理器。目前用于數(shù)據(jù)中心的CPU功耗在165W至275W,在未來將提升至400W以上。并且AI模型訓(xùn)練對高功率并行計算產(chǎn)生更大需求,單位面積發(fā)熱量更高的AI芯片數(shù)量增加,進一步推高了服務(wù)器的功耗。處理單元的數(shù)量增加與單一處理單元的功耗提升速度遠超過由摩爾定律所預(yù)測的單位瓦特算力提升,使服務(wù)器的單位發(fā)熱量迅速提升,芯片級熱管理的不足將成為限制服務(wù)器性能發(fā)揮的瓶頸。
除單一服務(wù)器的發(fā)熱量增加之外,每個機柜之內(nèi)的服務(wù)器數(shù)量也在增加。平均機架功率密度已經(jīng)從十年前的2-4KW/機架增加到了如今的7-10KW/機架,未來有望增加到25KW-50KW以上。對于希望提高空間利用效率而密集部署機架的數(shù)據(jù)中心而言,機房內(nèi)的熱管理狀況一定程度上決定了數(shù)據(jù)中心的算力上限。即使出現(xiàn)了應(yīng)用虛擬化、容器化等最大化利用物理服務(wù)器的新技術(shù),仍然將成為影響整個數(shù)據(jù)中心負(fù)載率的主要因素。
這些趨勢使得下一代高算力數(shù)據(jù)中心的散熱需求將遠高于當(dāng)前,尋找算力、PUE、成本三者的平衡點將更加困難,與追求的高能效目標(biāo)產(chǎn)生了矛盾,為了提高能源利用效率和改善生態(tài)環(huán)境質(zhì)量,各國都對未來一定時期內(nèi)數(shù)據(jù)中心的PUE提出了更低的目標(biāo)值。為了達到這一目標(biāo),需要在保證IT設(shè)備正常運轉(zhuǎn)的同時,盡量采用更加高效、低能耗的先進熱管理手段,降低IT設(shè)備之外的能耗以及運營成本,為未來更節(jié)能且低成本的無人值守數(shù)據(jù)中心打下基礎(chǔ)。
高效節(jié)能熱管理降低PUE:液冷技術(shù)
從熱管理角度上緩解算力與能耗的矛盾,需要將現(xiàn)有熱管理技術(shù)向節(jié)能高效方向進行升級。以目前機柜與服務(wù)器的冷卻方式而言,使用空調(diào)機組對IT設(shè)備風(fēng)冷是主流方案,技術(shù)成熟但功耗較高,節(jié)能升級的空間有限。隨著設(shè)備的集中化與功率密度的提升,為達到正常運行功率下的散熱效果,空調(diào)制冷機組的功率也要相應(yīng)大大提高。而為了保證數(shù)據(jù)中心的安全穩(wěn)定運行與合理的PUE區(qū)間,空調(diào)制冷機組的高功耗成為了限制高性能IT設(shè)備實現(xiàn)性能的主要因素,單機柜功率上限被限制在25KW,更高則受制于空調(diào)功率而無法運行。
在機柜與算力密度較低的傳統(tǒng)數(shù)據(jù)中心中,除空調(diào)風(fēng)冷方案外,也可以因地制宜,利用自然冷源設(shè)計更低能耗的風(fēng)冷方案,自然風(fēng)冷優(yōu)勢在于因地制宜,利用了天然冷源對IT設(shè)備進行散熱,減少制冷系統(tǒng)對電力的需求,具有非常高的能效比。整體而言,無論是空調(diào)風(fēng)冷還是自然風(fēng)冷,都以空氣流作為熱量的載體,為了達到較好的散熱風(fēng)路,對于機架設(shè)備的密度有一定要求,限制了單機柜密度的提升,已經(jīng)無法跟上IT設(shè)備的功耗與密度提高的步伐。
當(dāng)單位瓦特算力提升有限的情況下,為了使下一代數(shù)據(jù)中心的熱管理技術(shù)足以應(yīng)對高密度、高算力化的IT設(shè)備散熱挑戰(zhàn),需要針對高算力場景中傳統(tǒng)空調(diào)風(fēng)冷散熱的不足之處,加強對芯片等主發(fā)熱單元的重點冷卻,并且盡量減少導(dǎo)熱路徑中不必要的熱量散失??諝庾鳛檩d熱工質(zhì)已經(jīng)無法滿足這一散熱需求,多種以液體為載熱工質(zhì)的冷卻方案因而在近年來受到數(shù)據(jù)中心擁有者的青睞,成為高算力場景中取代空調(diào)風(fēng)冷的重要手段。在過去數(shù)十年中,液冷技術(shù)卻一直用于冷卻大型機、超級計算機,和高性能個人電腦。只有在過去五年中,它才被高算力數(shù)據(jù)中心用于冷卻功耗巨大的IT設(shè)備,取代空調(diào)機組來支持從AI算法到比特幣挖掘等高算力應(yīng)用。
在數(shù)據(jù)中心場景中,根據(jù)冷卻液與設(shè)備之間接觸方式的不同,可以分為以浸沒式液冷為代表的直接接觸型液冷技術(shù),和以冷板式液冷為代表的間接接觸型液冷技術(shù)。后者由于成本更低,且部署更加靈活,可以實現(xiàn)板級和柜級層面的制冷,且具備風(fēng)液混合、全冷板覆蓋等創(chuàng)新方案,根據(jù)實際情況取代空調(diào)風(fēng)冷和提升機柜的液冷占比,因此更加適用于熱密度較高的數(shù)據(jù)中心。以這類冷板式間接接觸液冷為例,主要具備以下優(yōu)勢:
導(dǎo)熱能力
特殊配比的液體的比熱容更大,導(dǎo)熱系數(shù)遠超空氣,與同體積空氣相比,可以帶走的熱量將近3000倍。考慮流速因素,液冷方案的散熱能力是風(fēng)冷方案的25倍左右。因此可以支持更高性能IT設(shè)備的正常運轉(zhuǎn)。
工作噪音
泵推動導(dǎo)熱液體在密閉管內(nèi)流動,與傳統(tǒng)空調(diào)的風(fēng)路風(fēng)扇相比,不會產(chǎn)生氣流噪音,因此工作噪音較風(fēng)冷相比降低20-35分貝。對運維工作和周邊環(huán)境更加友好。
空間利用率
液冷方案的實施帶來散熱水平的顯著提升,使機架和服務(wù)器的安裝布局可以更加密集緊湊,從而降低數(shù)據(jù)中心白空間的需求,提高了數(shù)據(jù)中心整體的空間利用率。
PUE與能耗支出
導(dǎo)熱液體管路密閉,與芯片等發(fā)熱單元直接接觸,熱量在流動路徑中散失更小,同等散熱量的耗電量比風(fēng)冷降低50%左右。更有利于PUE的進一步降低。相應(yīng)運營成本中電耗支出也相比風(fēng)冷方案減少。
免空調(diào)化
與傳統(tǒng)空調(diào)風(fēng)冷方式相比,液冷方案中液體在管路中將熱量帶至換熱設(shè)備中與外界冷源進行熱量的交換,降低對價格高昂的制冷機組與空調(diào)設(shè)備的使用程度和依賴,同時也省去了對空調(diào)和制冷機組的復(fù)雜維護投入,對環(huán)境更加友好。
高算力場景中采用液體冷卻方案在設(shè)計、操作和適用性方面的顯著優(yōu)勢,引起了數(shù)據(jù)中心行業(yè)的共鳴。同時液體作為導(dǎo)熱工質(zhì),與傳統(tǒng)空氣介質(zhì)相比存在特殊性,不能用風(fēng)冷的經(jīng)驗和思路來看待液冷。并且由于在數(shù)據(jù)中心領(lǐng)域落地時間不長,也需要針對IT設(shè)備散熱的特點進行調(diào)整。
如要在數(shù)據(jù)中心中成功通過實施液冷達到PUE目標(biāo),需要在系統(tǒng)的安全性、智能化程度、標(biāo)準(zhǔn)化以及可操作性等方面達到一些關(guān)鍵要求,包括管路的密封和可插拔性、液體的安全性和導(dǎo)熱性、與瞬時功耗的智能匹配以及更高程度的標(biāo)準(zhǔn)化等等。在節(jié)約熱管理能耗的同時,降低液冷方案在新建和升級數(shù)據(jù)中心中實施的門檻,提高長期使用的電氣安全性,并且從長遠角度,促進液冷升級流程方案和產(chǎn)品的標(biāo)準(zhǔn)化,有利于加速技術(shù)和市場的成熟。
液冷方案的市場展望
作為較新的冷卻技術(shù),液冷方案(芯片級直接接觸液冷散熱)市場整體規(guī)模不大但增速較快,2019年同比增長了11%。但作為一個年輕的市場,產(chǎn)品和供應(yīng)商體系建立時間不長,相對較為脆弱,因此受COVID-19疫情的影響較為嚴(yán)重,在2020年收縮了13%。同時疫情也讓最終用戶有更多時間和資源來了解液冷方案的優(yōu)勢、成功案例以及需要克服的挑戰(zhàn),因此液冷方案供應(yīng)商仍然對這一新市場抱有信心,并普遍認(rèn)為,當(dāng)2021年全球疫情開始緩解,液冷市場將迎來復(fù)蘇和顯著的增長。
圖1 芯片級液冷市場營收與增長趨勢
液冷方案市場營收將在2021年和2022年加速增長至21%和26%,從2019年到2024年,液冷方案市場的五年復(fù)合年增長率為13%,市場規(guī)模突破1億美元,在全球數(shù)據(jù)中心熱管理市場中的份額也將從2020年的1.4%提升至2024年的2.3%左右。
總結(jié)
能耗是當(dāng)前數(shù)據(jù)中心后期運營的最大成本項,要面向下一代提高數(shù)據(jù)中心的競爭力,就必須面對能耗成本這一關(guān)鍵痛點,通過技術(shù)手段提高能源在數(shù)據(jù)中心中的最大化利用,在提升算力的同時,降低大型數(shù)據(jù)中心的能源消耗。作為除IT設(shè)備外最大的耗電項,熱管理在數(shù)據(jù)中心整體節(jié)能中舉足輕重。如果成功將熱管理的能耗進行改善,數(shù)據(jù)中心就向節(jié)能增效的整體目標(biāo)前進了一大步。
當(dāng)前主流的空調(diào)風(fēng)冷方案在下一代大型數(shù)據(jù)中心的應(yīng)用中存在瓶頸,一方面限制了IT設(shè)備性能和機柜密度的提升,另一方面在能耗方面不占優(yōu)勢,達到制冷效果需要消耗大量能源。因此在未來數(shù)據(jù)中心升級的過程中,對于通用計算場景,可以部分采用自然風(fēng)冷的方案,利用冷空氣等自然冷源來對IT設(shè)備進行更低能耗的高效熱交換,在降低PUE的同時,也能帶來更加顯著的成本效益。對于高算力場景,則出現(xiàn)采用液冷方案來取代部分空調(diào)風(fēng)冷的趨勢。液冷方案通過導(dǎo)熱工質(zhì)的改變,能夠?qū)崿F(xiàn)更加精細(xì)化、智能化的熱管理,有效控制高算力、高密度設(shè)備的發(fā)熱量。也因為這些特點,液冷能夠降低制冷能耗的散失浪費,提高能源的利用效率,成為了數(shù)據(jù)中心實現(xiàn)PUE目標(biāo)的關(guān)鍵手段之一。
應(yīng)用于數(shù)據(jù)中心的液冷尚處于市場成長階段,實施方案偏向于定制化,一些實際部署仍與傳統(tǒng)的空調(diào)風(fēng)冷卻相結(jié)合,作為混合散熱解決方案的一部分在數(shù)據(jù)中心的一部分機架上應(yīng)用。也有整個數(shù)據(jù)中心都使用芯片/服務(wù)器級的完全液冷解決方案的實踐。數(shù)據(jù)中心市場需要對液冷等先進熱管理技術(shù)有更進一步的深入了解和實例佐證,當(dāng)市場更深體會到液冷方案對高算力場景下降低PUE的技術(shù)與成本優(yōu)勢,采用率還將有很大的提高空間。
本文標(biāo)題:液冷技術(shù)助力數(shù)據(jù)中心綠色節(jié)能降低PUE
本文鏈接:http://www.yangziriver.cn/faq3/254.html [版權(quán)聲明]除非特別標(biāo)注,否則均為本站原創(chuàng)文章,轉(zhuǎn)載時請以鏈接形式注明文章出處。