本文由夏?良編輯,關鍵詞:裸金屬服務器,裸金屬,數據中心,標題:裸金屬服務器助力數字化轉型下的數據中心改造升級,主要內容講解的是:天下數據裸金屬服務器,融合了傳統物理機和云服務器的各自優勢,兼具了云服務器的“彈性”和物理機的“高性能”,具有“強悍的計算性能、安全物理隔離、兼容其他云產品、支持云硬盤熱
在“新基建”背景下,如何處理數據中心“一哄而上”的問題尤為重要,實際上早在幾年前,擔心數據中心過度發展的輿論已時有發生。各大核心城市嚴控數據中心建設,其實都有其現實根源。數據中心是一種高能耗、低收益的產業,特別是互聯網公司的數據中心,消耗著本地能源,卻服務著全世界的業務,最后的收益也難以轉化為當地稅收。
據統計,從2011年-2016年,數據中心耗電量快速增加,每年以超過10%的速度快速增長。2017年,國內數據中心總耗電量達到1300千瓦時, 2018年,全國數據中心總耗電量1500億千瓦時,達到了社會總用電量的2%。預計到2025年,占比將增加一倍,達到4.05%。
但是,單純以能耗來評定數據中心并不客觀,數據中心是一個綜合性產業,在能源消耗的背后是為整個數字經濟的基礎,支撐著互聯網、通信、智能交通、智慧城市等等一系列的重要產業。美國《科學》雜志刊出了一篇名為《全球數據中心能源使用在需求快速增長下仍然放緩》的論文,計算出了2010年至2018年間,全球數據中心需求增長了550%,而數據中心能源使用僅增長了6%。
與其擔心“一哄而上”的數據中心能耗問題,不如思考對現有數據中心的改造升級。工信部等三機關在2019年初發布的《關于加強綠色數據中心建設的指導意見》中明確提出,到2022年,數據中心平均能耗基本達到國際先進水平,高能耗老舊設備基本淘汰,水資源利用效率和清潔能源應用比例大幅提升,廢舊電器電子產品得到有效回收利用。
既有數據中心的高能耗問題如何解決?
降低數據中心能耗,無論是IT設備效率的提升,還是冷卻系統能耗的降低。最后都體現在PUE上。而新建數據中心往往采用最成熟的節能技術,在PUE的控制和冷卻水消耗等方面進行改善。而對于傳統既有數據中心而言,土建的特性決定了其改造的困難度。而這些老舊數據中心也是現在存量數據中心的主要組成部分,對其加以改造以降低能耗,任重道遠。
實際上,在數據中心能耗中,制冷系統的能耗占據了相當大的比例,采用何種服務器制冷方式在一定程度上關系著能耗的高低。而相關數據顯示,應用液冷技術,數據中心應用在冷卻系統的能耗可大幅降低,PUE值甚至能夠控制在1.1以下。
如今,液冷生態已初具雛形,而以冷板式液冷見長的裸金屬服務器一度被看好,或將成為傳統數據中心降低能耗的救命稻草。冷板式液冷是裸金屬服務器的躍遷式技術創新,具有高能效、高密度、高可用和高可靠等特性,突破了傳統制冷技術瓶頸,制冷故障率大幅降低,同時為社會節省大量能源。
傳統既有數據中心如何走上智能化之路?
數據中心運維工作主要包括配置管理和監控,涉及程序更新、配置修改、數據傳輸以及各種自定義的命令執行,如果采用人工運維,誤操作問題不可避免,而且效率低下。此外對于數據中心的監控方面,數據中心里運行著成千上萬臺設備、應用程序、組網等,十分復雜,如果單靠人去監控,不僅效率低而且還容易疏漏。
而裸金屬服務器自帶的云操作系統,面向租戶、以應用為核心,實現各云基礎資源和應用的動態實時調度扁平化,資源分配和應用調度高度統一融合,資源編排和應用編排不再分層,讓資源層和應用層相互融合,高度協同提供各類云計算服務。
通過智能化運維,實現事前預警、事中恢復、事后存檔所有流程智能化,甚至無人化。不僅將運維人員從繁瑣的工作中解放出來,而且還大大提升了運維工作的效率,是未來數據中心運維發展的重要方向。
傳統數據中心如何提升機柜空間利用率?
在數據中心層面,空間容量可按需求分為三類:機房電力容量、機房制冷量容量、機房物理空間容量。對于機房物理空間容量而言,根據各機房的實際面積、可容納機柜數,實際使用機柜位數,統計出各機房的物理空間使用量,可計算出相應的物理空間利用率。
但如何在同一環境同樣的物理面積下,提高數據中心的物理空間利用率呢?高密度服務器便是一種較好的解決方案。
目前,已有裸金屬服務器廠商推出超高密度裸金屬服務器,比如CDN高防的超高密度混合平臺,是全球已知范圍內獨家超高密度平臺架構,5U機箱內置60臺裸金屬服務器。相比傳統服務器而言,同一機柜可部署最多高達300臺服務器,而傳統模式最大僅能部署20-150臺服務器。
CDN高防
裸金屬服務器,融合了傳統物理機和云服務器的各自優勢,兼具了云服務器的“彈性”和物理機的“高性能”,具有“強悍的計算性能、安全物理隔離、兼容其他云產品、支持云硬盤熱添加”等特點,能夠實現“在線開通分鐘級交付”。詳詢CDN高防客服QQ:317197518。