自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

戴爾科技推出基于空氣冷卻和液體冷卻技術(shù)的高效數(shù)據(jù)中心冷卻解決方案

企業(yè)動態(tài)
戴爾易安信Fresh Air硬件冷卻解決方案可使硬件在更高的溫度和濕度水平下工作,通過使用清潔的外部空氣進行冷卻,客戶可以減少運行冷水機的時間,節(jié)省OpEx等管理成本,使PUE值維持在一個較低數(shù)值。

沉迷網(wǎng)上種樹

是一種什么樣的體驗?

每天一睜眼就要看看

有沒有可收的能量

你幫我澆水,我偷你能量

樂此不疲

甚至有人分手五年半

為了種樹

還在每天清晨偷前任的能量

平時能騎車、跑步

就盡量不打車、開車

一點一滴積攢能量球

其實,種樹不必如此辛苦

參與“戴爾植樹活動”

選擇樹種

戴爾科技將以你之名

在沙漠種下希望

除了種樹

為IT設(shè)備“降降溫”

同樣能夠減少碳排放

近年來,為了應(yīng)對氣候變化,通過植樹造林、節(jié)能減排等形式,減少溫室氣體排放總量已成為全球共識。2020年9月,我國在第75屆聯(lián)合國大會首次提出“二氧化碳排放力爭于2030年前達到頂峰,努力爭取到2060年實現(xiàn)碳中和”。今年兩會期間,政府工作報告也將“扎實做好碳達峰、碳中和各項工作”列為重點工作之一。

而伴隨著各種互聯(lián)網(wǎng)應(yīng)用在工作生活中的普及,以及數(shù)據(jù)量的指數(shù)級增長,電子設(shè)備產(chǎn)生熱量越來越多。研究顯示,IT/電信相關(guān)的碳排放已經(jīng)成為最大的溫室氣體排放源之一。

特別是越來越多企業(yè)和機構(gòu)組織的數(shù)據(jù)中心正在采用HPC,以獲得運行前沿工作負載所需的處理能力,而HPC通常采用強大的處理器和加速器、高性能存儲和內(nèi)存以及高速互連,這就增加了數(shù)據(jù)中心的密度。

[[387312]]

密集的基礎(chǔ)設(shè)施意味著更多電力的消耗,釋放出更多熱量。如果服務(wù)器和其他設(shè)備沒有及時散熱,就會出現(xiàn)性能降低、硬件壽命縮短,甚至出現(xiàn)故障。因此,數(shù)據(jù)中心面臨著如何保持最佳工作溫度的嚴(yán)峻挑戰(zhàn),亟需智能冷卻技術(shù)來維持IT設(shè)備的最佳環(huán)境條件。

在此大環(huán)境背景下,由傳統(tǒng)的IT堆棧過渡到HPC系統(tǒng)的過程中,為了有效保持?jǐn)?shù)據(jù)中心冷卻,戴爾科技推出了基于空氣冷卻和液體冷卻技術(shù)的高效數(shù)據(jù)中心冷卻解決方案,不僅能夠幫助用戶輕松采用HPC解決方案,還能應(yīng)對不斷上升的能源成本,降低總體擁有成本,同時達到節(jié)能減排、保護環(huán)境的目的。

降低PUE指標(biāo)

實用的“空氣冷卻術(shù)”

從數(shù)據(jù)中心誕生的那天起,高耗能就仿佛成為數(shù)據(jù)中心的“原罪”。因此談數(shù)據(jù)中心,就不能不談PUE。PUE即電源使用效率,是數(shù)據(jù)中心消耗的所有能源與IT負載消耗的能源的比值,也是評價數(shù)據(jù)中心能源效率的指標(biāo)。PUE越接近1表明非IT設(shè)備耗能越少,即能效水平越好。

典型的基于冷水機的數(shù)據(jù)中心PUE值約為1.5-2.5,其相當(dāng)一部分設(shè)施的總功率被用于冷卻。相比之下,戴爾科技采用Freash Air解決方案的數(shù)據(jù)中心報告的PUE值則低至1.05,這意味著幾乎所有的設(shè)施電力都用于IT設(shè)備。

[[387313]]

戴爾易安信Fresh Air硬件冷卻解決方案可使硬件在更高的溫度和濕度水平下工作,通過使用清潔的外部空氣進行冷卻,客戶可以減少運行冷水機的時間,節(jié)省OpEx等管理成本,使PUE值維持在一個較低數(shù)值。

具備Fresh Air功能的戴爾易安信硬件產(chǎn)品包括服務(wù)器、存儲、網(wǎng)絡(luò)和電源等,這些硬件能夠在高達45°C的溫度下運行,并使用符合ISA-71 G1標(biāo)準(zhǔn)的外部空氣進行冷卻。

同時,借助戴爾科技的Fresh Air系統(tǒng),客戶可以在用電量持平或下降的情況下實現(xiàn)數(shù)據(jù)中心容量的擴展。通過將數(shù)據(jù)中心的溫暖廢氣循環(huán)到主HVAC系統(tǒng)中,新風(fēng)系統(tǒng)在冬季為建筑設(shè)施提供“免費”的熱量;而在溫暖的月份,則將外部空氣吸入數(shù)據(jù)中心,并將熱排氣管與建筑物的HVAC系統(tǒng)隔離。

[[387314]]

長期以來,風(fēng)冷技術(shù)一直被用于處理器使用功率不超過150W的系統(tǒng)?,F(xiàn)如今,隨著數(shù)據(jù)量暴增,設(shè)備的功率、密度和發(fā)熱量都非昔日可比。當(dāng)數(shù)據(jù)中心的溫度高于傳統(tǒng)的空氣冷卻所能達到的水平時,液體冷卻技術(shù)為數(shù)據(jù)中心的冷卻提供了新的解決思路。

Triton和CoolIT

液體冷卻的“降溫秘訣”

當(dāng)今HPC系統(tǒng)通常運行功率250W或以上的處理器,此時液冷就被視為兼具高效與成本的選擇。液體散熱效率比空氣高25倍,傳導(dǎo)熱能效果更好。同時,由于液體的比熱容大,在吸收大量的熱量后自身溫度不會產(chǎn)生明顯的變化,因而能夠穩(wěn)定CPU溫度。

戴爾科技針對數(shù)據(jù)中心研發(fā)了一項創(chuàng)新性液體冷卻技術(shù)——Triton液體冷卻系統(tǒng)。Triton將水直接放入服務(wù)器sled冷卻CPU,這種方式不僅給CPU帶來最高冷卻效率,而且使用的水比任何其他可用液體冷卻方法用量都要少。該系統(tǒng)還使用100%無滴漏的耦合器來保護敏感的電子設(shè)備。

Triton還激發(fā)了開發(fā)200W英特爾®CPU的靈感,為工作負載隨CPU頻率和核心數(shù)量而擴展的客戶提供了成本優(yōu)勢。通過使用Triton冷卻,英特爾CPU能夠?qū)⒐?jié)省下的功率和冷卻空間用來獲取更高的性能和吞吐量。

液冷技術(shù)能夠有效提升服務(wù)器的使用效率和穩(wěn)定性,使數(shù)據(jù)中心能夠容納更多服務(wù)器,提高整體運營效率。戴爾易安信PowerEdge C6420就是一款典型的液冷服務(wù)器。它在一個2U機架中提供多達4臺雙路服務(wù)器和高容量存儲,為要求苛刻的HPC和橫向擴展工作負載提供動力。

[[387315]]

由于狹小的空間將導(dǎo)致散熱難題,所以PowerEdge C6420服務(wù)器提供了直接液冷選項,搭配了戴爾科技與CoolIT合作開發(fā)的液冷解決方案,利用Rack DCLC™以閉環(huán)水流取代典型的金屬散熱器,使服務(wù)器能夠支持高功率處理器和更高的機架密度,以低功耗獲得出色的性能。

[[387316]]

相對來說,PowerEdge C6420服務(wù)器更適合采購新設(shè)備的客戶,對于想對現(xiàn)有設(shè)備加強制冷功能的客戶,戴爾科技與Motivair公司合作推出的ChilledDoor的機柜式冷卻系統(tǒng)是務(wù)實之選。

ChilledDoor系統(tǒng)的運行原理就是將一個主動式后門熱交換器,直接安裝在任何標(biāo)準(zhǔn)服務(wù)器機架的背面,這樣就可以幫助傳統(tǒng)機架進行散熱,從而確保最佳的計算機性能和最長的正常運行時間。

通過在機架級(Rack-level)、行級(Row-level)以及房間級(Room-level)層面實現(xiàn)按需冷卻,ChilledDoor系統(tǒng)使數(shù)據(jù)中心效率最高可提高90%,升級CPU和加速器硬件無需額外的冷卻基礎(chǔ)設(shè)施,減少了設(shè)備所需的空間,并節(jié)約了對數(shù)據(jù)中心進行高架地板改造的費用。

同時,該系統(tǒng)可與現(xiàn)有的硬件風(fēng)扇配合使用,功耗和內(nèi)部工作溫度都會降低,從而更加節(jié)省能源,并延長IT設(shè)備的使用壽命。

戴爾科技在提供數(shù)據(jù)中心冷卻解決方案方面擁有豐富的實踐經(jīng)驗,可以根據(jù)客戶的實際情況和需求提供定制化解決方案。其冷卻技術(shù)隨著數(shù)據(jù)中心的發(fā)展不斷創(chuàng)新,讓高耗能的數(shù)據(jù)中心實現(xiàn)綠色運營。

尊敬的讀者

戴爾科技精品課堂開課啦

5G、人工智能、邊緣、

云架構(gòu)的風(fēng)生水起

不斷為服務(wù)器市場

注入“新鮮血液”

 

本期精品課

為你解鎖服務(wù)器的技術(shù)變革和發(fā)展趨勢

并分享戴爾科技的前瞻實踐

 

歡迎掃描下圖二維碼

或點擊“閱讀原文”

觀看精品課

相關(guān)內(nèi)容推薦:戴爾科技 HPC 解決方案|新冠疫苗接種熱潮來臨,技術(shù)抗“疫”在行動!

責(zé)任編輯:張燕妮 來源: 戴爾科技集團
相關(guān)推薦

2020-10-19 11:17:15

數(shù)據(jù)中心

2011-01-06 14:26:52

微軟數(shù)據(jù)中心

2022-09-08 10:38:25

數(shù)據(jù)中心數(shù)據(jù)中心冷卻

2023-03-29 10:54:22

數(shù)據(jù)中心液體冷卻

2018-08-03 13:02:03

數(shù)據(jù)中心液冷冷卻

2011-03-02 14:34:54

NVIDIA工作站

2015-10-26 09:30:26

數(shù)據(jù)中心冷卻技術(shù)

2024-02-27 17:38:13

數(shù)據(jù)中心冷卻

2010-10-21 11:02:39

思科DC2數(shù)據(jù)中心

2020-05-26 14:54:05

數(shù)據(jù)中心液體冷卻能源

2023-03-06 15:09:41

數(shù)據(jù)中心

2019-07-10 11:01:59

數(shù)據(jù)中心冷卻技術(shù)

2017-11-22 10:17:11

絕熱技術(shù)數(shù)據(jù)中心

2017-01-22 21:00:22

數(shù)據(jù)中心冷卻系統(tǒng)散熱

2015-11-23 10:20:10

數(shù)據(jù)中心冷卻方案

2023-07-31 11:33:47

數(shù)據(jù)中心服務(wù)器

2021-07-14 08:00:00

數(shù)據(jù)中心技術(shù)運營商

2022-08-19 15:09:50

數(shù)據(jù)中心冷卻技術(shù)工作原理

2018-07-18 10:07:51

數(shù)據(jù)中心機房維護

2020-09-28 09:51:52

數(shù)據(jù)中心
點贊
收藏

51CTO技術(shù)棧公眾號