欧美不卡一区,二区,三区,麻花豆传媒剧a∨,亚洲成aⅴ人片久青草影院,日韩欧美亚洲综合久久影院ds,人妻天天摸日日碰夜夜爽,

 

攝圖網(wǎng)_400206061_wx_創(chuàng)意太極背景(企業(yè)商用)

近年來,液冷技術(shù)在數(shù)據(jù)中心領(lǐng)域的遭遇可以用一個詞形容:又冷又熱。

技術(shù)冷:作為冷卻介質(zhì),液體的冷卻效能遠遠高于空氣,所以在冷卻效果上比風冷更“冷”一籌。

關(guān)注熱: 隨著技術(shù)發(fā)展與產(chǎn)業(yè)環(huán)境、政策變化,液冷再度受到行業(yè)關(guān)注,且熱度持續(xù)增加。

產(chǎn)品熱:數(shù)據(jù)中心產(chǎn)業(yè)上游的設(shè)備廠商對液冷熱情高漲,相關(guān)產(chǎn)品與研發(fā)層出不窮,產(chǎn)業(yè)下游的云廠商們也開展了不同程度的技術(shù)探索。

應用冷:產(chǎn)業(yè)中游的數(shù)據(jù)中心對液冷態(tài)度謹慎,尚無數(shù)據(jù)中心企業(yè)宣布液冷規(guī)?;渴鹩媱潯?/p>

液冷為何突然在數(shù)據(jù)中心領(lǐng)域熱起來?產(chǎn)業(yè)“冷”“熱”差別的原因何在?液冷技術(shù)在數(shù)據(jù)中心的應用離爆發(fā)還有多久?筆者試為你梳理解析這些問題,并給出個人判斷。

液冷非一日之寒  計算愈來愈熱

展開討論前,先明確液冷的定義:液冷是使用液體作為熱量傳輸?shù)拿浇椋瑸榘l(fā)熱部件換熱帶走熱量,傳遞到遠處再進行冷卻,實現(xiàn)散熱的技術(shù)。

相較于風冷以空氣為冷卻媒介,通過風扇和壓縮制冷,液體的比熱容遠高于空氣,單位體積熱容量是風冷的1000倍以上,熱量傳導效率更高。

液冷風冷對比

液冷與風冷相關(guān)性能對比

這一原理很早就被發(fā)現(xiàn),并被最早應用于工業(yè)、航天領(lǐng)域的散熱,至今被使用的“冷板”一詞據(jù)說就來源于阿波羅登月計劃,將液冷用于宇航員體溫控制。

在數(shù)據(jù)中心領(lǐng)域,液冷始終與計算產(chǎn)生的熱量緊緊聯(lián)系在一起。

萌芽:

上世紀60~90年代,數(shù)據(jù)中心還被稱為“機房”,采用集成電路的大型主機進行高速數(shù)據(jù)處理時有過熱宕機的風險,以IBM為首的廠商研發(fā)了液冷系統(tǒng)應用在大型主機,并取得顯著效果,其中就包括著名的IBM360/91型計算機。

遇冷:

計算技術(shù)的迭代,使得液冷隨后“遇冷”。

上世紀末,隨著超大規(guī)模集成電路取代晶體管,在計算效率提升的同時,計算機和芯片產(chǎn)生的功耗、熱量斷崖式下跌,風冷的散熱效率足以滿足。在成本、安全顧慮、部署簡易性等因素影響下,風冷超越液冷成為數(shù)據(jù)中心的主流散熱技術(shù)。

興起:

高密度計算興起,液冷再受青睞。

后摩爾定律時代,芯片功耗與服務(wù)器功耗逐步上升,數(shù)據(jù)中心單機柜功率密度也不斷增大, 2020年數(shù)據(jù)中心平均機柜功率已增長至8.5KW,傳統(tǒng)風冷散熱在換熱性能及能耗上面臨瓶頸。業(yè)內(nèi)普遍認為,傳統(tǒng)風冷已經(jīng)無法滿足高密度計算的發(fā)展需求,正如中國信通院云大所所長何寶宏表示“再大的風也吹不冷滾燙的‘芯’了”。

因此,液冷于近年來再度進入數(shù)據(jù)中心視野,逐漸受到業(yè)界關(guān)注。

液冷數(shù)據(jù)中心:更好散熱 更低能耗

時移世易,面對當前計算技術(shù)與散熱需求,在數(shù)據(jù)中心應用液冷技術(shù)的優(yōu)勢正日漸顯現(xiàn)。

首先是散熱效率。據(jù)綠色網(wǎng)格研究,每機柜 15-25 kW 的功率密度是“未使用背板換熱器等其他制冷設(shè)備”的風冷解決方案上限,而液冷系統(tǒng)可以支持的機柜功率是兩倍以上,甚至可以擴展到單機架超100kw。液冷可以支持數(shù)據(jù)中心高功率的散熱,提高換熱效率,且能減少服務(wù)器散熱熱點,有效抑制元件內(nèi)部溫度的瞬間提升,延長芯片壽命。

傳統(tǒng)高耗能風冷數(shù)據(jù)中心各部分能耗占比

傳統(tǒng)高耗能風冷數(shù)據(jù)中心各部分能耗占比

其次節(jié)能降耗。與傳統(tǒng)風冷技術(shù)相比,液冷系統(tǒng)耗電量方面約比風冷系統(tǒng)節(jié)省電量30%-50%。要知道,在傳統(tǒng)數(shù)據(jù)中心,制冷系統(tǒng)占數(shù)據(jù)中心整體能耗的40%以上。數(shù)據(jù)中心使用液冷可有效降低能耗,提高能源利用效率,降低PUE值和電力成本。

第三,提高計算密度,減少風扇震動噪音。相較于傳統(tǒng)風冷,液冷數(shù)據(jù)中心去掉了空調(diào)系統(tǒng)和對應的風冷基礎(chǔ)設(shè)施,也不需要設(shè)置冷暖通道,節(jié)省了大量空間可以容納更多服務(wù)器,提高計算密度和可銷售空間。不同液冷方式可減少或避免風扇的使用,有效降低震動和機房噪音,而震動會直接影響IT系統(tǒng)的穩(wěn)定性和壽命。

綜合來看,數(shù)據(jù)中心液冷技術(shù),既契合了計算的未來高功率趨勢,滿足服務(wù)器芯片散熱需求,又能實現(xiàn)數(shù)據(jù)中心節(jié)能降耗,正愈發(fā)受到數(shù)據(jù)中心產(chǎn)業(yè)的廣泛關(guān)注。

產(chǎn)品與技術(shù)創(chuàng)新不斷  上游設(shè)備廠商踴躍

近些年,很多企業(yè)展開液冷在數(shù)據(jù)中心應用的研發(fā),形成了多種部署方式和產(chǎn)品。

部署最多、服務(wù)器不直接接觸液體,不需要對數(shù)據(jù)中心機房進行重新改造的冷板式液冷。

將發(fā)熱器件完全浸沒在冷卻液中,散熱效率更高,實施難度更大需要對機房其他系統(tǒng)改造的浸沒式液冷。

別具一格,將冷卻液直接噴淋到發(fā)熱器件表面進行熱交換的噴淋式液冷。

不同液冷方式、代表產(chǎn)品及廠商,筆者一年前曾撰文《泡澡、淋浴、冷氣片——數(shù)據(jù)中心液冷模式與應用一覽》。

阿里云液冷

阿里云在IDCC大會現(xiàn)場展示的浸沒式液冷模塊

時隔一年,液冷在數(shù)據(jù)中心的熱度更盛,各大設(shè)備廠商紛紛發(fā)力,有的首度推出液冷產(chǎn)品,有的將液冷上升為發(fā)展戰(zhàn)略,上游產(chǎn)品、解決方案頻出,各有側(cè)重:

去年12月的“第十六屆中國IDC產(chǎn)業(yè)年度大典”上,專注浸沒式液冷進行多年自主研發(fā)的阿里云正式向業(yè)界發(fā)布行業(yè)首款單相浸沒液冷解決方案——磐久液冷一體機系列Immersion DC 1000。據(jù)阿里云數(shù)據(jù),該解決方案可在全球任何氣象區(qū)域部署并可輕松實現(xiàn)極致PUE1.09。

2022年初,浪潮信息將“All in液冷”寫入公司戰(zhàn)略,全棧布局液冷,實現(xiàn)了全產(chǎn)品線支持冷板式液冷。浪潮信息表示,可以實現(xiàn)液冷從核心部件到整體解決方案全覆蓋,提供液冷數(shù)據(jù)中心從規(guī)劃咨詢到設(shè)計施工的全生命周期交付。

2022年初,寧暢推出了新系列液冷服務(wù)器,該系列包含高密度、通用機架等多品類產(chǎn)品,可適用于眾多IT應用場景。隨后在液冷服務(wù)器基礎(chǔ)上,推出全系統(tǒng)定制液冷方案,實現(xiàn)從需求梳理、架構(gòu)設(shè)計、機房部署到運維服務(wù)的全系統(tǒng)定制。

2022年4月,新華三發(fā)布新一代冷板式液冷系統(tǒng)解決方案。該液冷系統(tǒng)由H3C UniServer R4900LC G5 液冷服務(wù)器、42U通用機柜、分布式CDU等部件組成,通過了中國計量科學研究中心的能源計量認證,夏季模式PUE可達1.047,整機全年平均PUE1.042。

今年下半年,科華數(shù)據(jù)陸續(xù)發(fā)布多款數(shù)據(jù)中心液冷產(chǎn)品:科華數(shù)能S³液冷儲能系統(tǒng)、針對邊緣計算中心和中小型中心節(jié)能改造的抽屜式水-風液冷CDU、板式液冷微模塊數(shù)據(jù)中心。該微模塊數(shù)據(jù)中心冷循環(huán)系統(tǒng)采用機柜式CDU-300KW,散熱量可達300KW。

……

可以看出,過去一年中,數(shù)據(jù)中心液冷產(chǎn)品更加豐富,技術(shù)進一步加強,商業(yè)化進程加速。

顧慮幾重 數(shù)據(jù)中心觀望

如果只是一篇普通文章,寫到這里,得出“數(shù)據(jù)中心液冷形勢一片大好”的結(jié)論就足夠了。

然而,筆者梳理過近兩年來數(shù)據(jù)中心液冷領(lǐng)域的動作后發(fā)現(xiàn),大部分來自產(chǎn)業(yè)上游的設(shè)備廠商,服務(wù)器、CDU(數(shù)據(jù)中心液冷分配裝置)、TANK(機柜液冷柜)、CPU/GPU、冷卻液、整體解決方案,尤以服務(wù)器廠商為甚。產(chǎn)業(yè)下游,也僅有以阿里云為首的幾家云廠商,基于自身業(yè)務(wù)需求和技術(shù)先進性等因素,進行液冷研發(fā)與部署。

這其中,少了最不可或缺的產(chǎn)業(yè)中游——數(shù)據(jù)中心企業(yè)的身影。

據(jù)筆者了解,相較于上游廠商的踴躍態(tài)勢,僅個別企業(yè)按客戶需求提供了機房改造部署,大部分數(shù)據(jù)中心對液冷仍持觀望態(tài)度:認可液冷的散熱與節(jié)能優(yōu)勢,會主動了解液冷產(chǎn)品、技術(shù)細節(jié),在內(nèi)部做學習或小型探索,但無公開的大規(guī)模液冷部署行動和計劃。

筆者收集了數(shù)據(jù)中心對液冷技術(shù)的諸多顧慮:

可靠性。數(shù)據(jù)中心第一要務(wù)是保障業(yè)務(wù)連續(xù)性,浸沒和噴淋式會直接接觸電子器件,是否會出現(xiàn)器件腐蝕情況,包括冷板式在內(nèi),冷卻液泄露怎么辦,服務(wù)器功能和使用壽命是否會受影響,液冷技術(shù)的可靠性是數(shù)據(jù)中心、用戶的大擔憂。

部署難度。液冷不僅僅改變制冷系統(tǒng),數(shù)據(jù)中心的服務(wù)器、網(wǎng)絡(luò)設(shè)備、監(jiān)控系統(tǒng)等都要隨之改變,新建數(shù)據(jù)中心從設(shè)計到建設(shè)、調(diào)試運維都與此前不同,此前項目經(jīng)驗等無法復用,周期長難度大。存量數(shù)據(jù)中心的承重、管路等設(shè)計因循傳統(tǒng)機架,如果進行液冷部署改造,同樣會帶來新增成本、部署難度問題。

運維與售后。無論冷板、浸沒還是噴淋,液體進入到IT機柜內(nèi)部,給建設(shè)、測試和運維帶來新的挑戰(zhàn),目前缺乏成熟的運維經(jīng)驗和標準化要求。此外,有數(shù)據(jù)中心提出,液冷的服務(wù)器等產(chǎn)品售后維修政策也尚不成熟。

成本。雖然液冷能耗低所以數(shù)據(jù)中心OpEx降低,但前期CapEx明顯高于風冷數(shù)據(jù)中心。哪怕忽視液冷服務(wù)器、CDU等設(shè)備的價格,單冷卻液價格也并非小數(shù)目,阿里云就曾對外表示“使用的冷卻液價格堪比茅臺”。

除去上述疑慮,數(shù)據(jù)中心對液冷“謹慎”的最根本原因,在于液冷的市場接受度——數(shù)據(jù)中心的互聯(lián)網(wǎng)、電商、視頻、金融等用戶大多尚不接受液冷。

液冷主流成必然 爆發(fā)尚欠一陣風

提高新技術(shù)的接受度是一個漫長的過程,如今政策為液冷按下了快進鍵。

由于用電量大,社會普遍將數(shù)據(jù)中心定義為高耗能產(chǎn)業(yè),隨著“2030年碳達峰、2060年碳中和”戰(zhàn)略目標提出,數(shù)據(jù)中心面臨的能耗限制愈來愈嚴。

2021年7月,工信部印發(fā)的《新型數(shù)據(jù)中心發(fā)展三年行動計劃(2021-2023年)》要求:“到2023年底,新建大型及以上數(shù)據(jù)中心PUE降低到1.3以下,嚴寒和寒冷地區(qū)力爭降低到1.25以下。”

2021年12月,發(fā)改委等四部門發(fā)布的《貫徹落實碳達峰碳中和目標要求推動數(shù)據(jù)中心和 5G 等新型基礎(chǔ)設(shè)施綠色高質(zhì)量發(fā)展實施方案》表示“新建大型、超大型數(shù)據(jù)中心電能利用效率不高于 1.3,逐步對電能利用效率超過 1.5 的數(shù)據(jù)中心進行節(jié)能降碳改造。”

中央及各級主管部門政策對數(shù)據(jù)中心PUE考核提出更嚴要求,各地能評指標持續(xù)收緊,數(shù)據(jù)中心面臨前所未有的能耗和散熱挑戰(zhàn)。多位數(shù)據(jù)中心企業(yè)高管向筆者表示,上述政策的出臺,使得“液冷成為必然”,嚴格政策限制下“數(shù)據(jù)中心要想合規(guī),PUE值再繼續(xù)往下降,只能靠液冷了。”

過去一年以來,雙碳政策助推下,液冷技術(shù)的研發(fā)投入加大、產(chǎn)品和技術(shù)成熟度不斷提高,液冷在數(shù)據(jù)中心的發(fā)展前景毋庸置疑。

但要想實現(xiàn)液冷在數(shù)據(jù)中心的爆發(fā),不僅僅欠缺全產(chǎn)業(yè)的共同努力,欠缺更多行業(yè)標準的制定與完善,還差一場風,一場擁有強驅(qū)動力的風——市場需求。

從萌芽到如今再度興起,液冷的發(fā)展始終源于計算的散熱。

如今政策、技術(shù)條件都已經(jīng)具備,當下一波海量數(shù)據(jù)計算爆發(fā)式增長,帶動市場對數(shù)據(jù)中心的需求爆發(fā)時,液冷才將真正迎來在數(shù)據(jù)中心的爆發(fā)。

這個時間或許是兩年后、四年后,又或許,很快來臨。

關(guān)注中國IDC圈官方微信:idc-quan 我們將定期推送IDC產(chǎn)業(yè)最新資訊

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高興

  • 震驚

  • 憤怒

  • 無聊

  • 無奈

  • 謊言

  • 槍稿

  • 不解

  • 標題黨
2024-09-09 17:58:54
國內(nèi)資訊 珠海工廠篤行二十載 施耐德電氣引領(lǐng)數(shù)據(jù)中心制冷革新
目前,珠海工廠已成為施耐德電氣全國唯一、全球房級空調(diào)產(chǎn)量最大的精密空調(diào)生產(chǎn)基地,樹立起精密空調(diào)領(lǐng)域的行業(yè)標桿。 <詳情>
2024-08-06 13:28:50
數(shù)據(jù)中心液冷 首批數(shù)據(jù)中心液冷國標立項 2026年發(fā)布
兩項數(shù)據(jù)中心液冷領(lǐng)域國家標準為《數(shù)據(jù)中心冷板式液冷系統(tǒng)技術(shù)規(guī)范》與《數(shù)據(jù)中心冷板式液冷機柜通用規(guī)范》。 <詳情>
中興通訊發(fā)布第三代模塊化間接蒸發(fā)冷卻解決方案,樹立數(shù)據(jù)中心綠色制冷新標桿
2025-04-29 17:08:57
面向未來 Rambus CryptoManager如何重塑數(shù)據(jù)中心安全格局?
2025-04-29 13:22:16
1年5000P!算力“國家隊”京算公司樹行業(yè)新標桿
2025-04-28 11:01:06
萬國數(shù)據(jù)全國首單“數(shù)據(jù)中心持有型不動產(chǎn)ABS”在上交所 成功掛牌上市
2025-04-25 11:11:02
供需牽引,生態(tài)共筑:2025中國智算產(chǎn)業(yè)生態(tài)發(fā)展大會即將啟幕
2025-04-25 10:02:00
智算中心面臨“分水嶺”:施耐德電氣以四維創(chuàng)新驅(qū)動價值破局
2025-04-24 14:35:25
上海市啟動2024年度全市算力資源摸底工作通知
2025-04-24 13:44:00
聚焦投資、技術(shù)與可持續(xù)發(fā)展——中國—東南亞數(shù)字基礎(chǔ)設(shè)施合作論壇圓滿舉行
2025-04-23 17:54:00
從算力變革到AI生產(chǎn)力創(chuàng)新 首屆酒仙橋論壇丨AIDC創(chuàng)新驅(qū)動生產(chǎn)力新變革論壇成功舉辦
2025-04-22 10:19:00
Rambus 通過新一代CryptoManager安全IP解決方案增強數(shù)據(jù)中心與人工智能保護
2025-04-16 10:55:15
油城算力攀“新峰” 絲路云網(wǎng)架“金橋” ——克拉瑪依市算力產(chǎn)業(yè)發(fā)展紀實
2025-04-15 10:57:00
筑AI生產(chǎn)力底座 酒仙橋論壇丨AIDC創(chuàng)新驅(qū)動力新變革專場將于4月16日隆重舉行
2025-04-11 18:26:00
26億!普洛斯中國首支數(shù)據(jù)中心基金完成募集 AI驅(qū)動算力資產(chǎn)升溫
2025-04-07 16:10:47
科智咨詢:寒冬將盡,春山可望!AI引領(lǐng)中國IDC市場進入新一輪增長周期
2025-04-03 12:04:48
原創(chuàng)|中國智算中心建設(shè)“過剩論”的另一面
2025-04-02 11:38:00