(電子發(fā)燒友網(wǎng) 文/黃晶晶)無疑生成式AI的火熱帶動了互聯(lián)網(wǎng)廠商、運營商、云服務商以及各類應用方等對數(shù)據(jù)中心、AI服務器的大力投入。同時,像中國的“東數(shù)西算”工程正構(gòu)筑著堅實的算力基建。為了適應大數(shù)據(jù)、人工智能的發(fā)展,必須要解決如何增強算力、存力和運力的問題。那么高速的數(shù)據(jù)傳輸是不可缺少的核心環(huán)節(jié)。在此背景下,我們需要前瞻布局哪些數(shù)據(jù)傳輸?shù)?a target="_blank">接口技術(shù)來適應發(fā)展呢?最近,Rambus 解決方案營銷高級總監(jiān)Tim Messegee接受采訪,分享了他對于數(shù)據(jù)中心高速接口技術(shù)和市場的洞見。
圖:Rambus 解決方案營銷高級總監(jiān)Tim Messegee
Tim Messegee表示,總體上,新數(shù)據(jù)中心的架構(gòu)設計應考慮到性能、可擴展性、可靠性和安全性,滿足生成式AI和大數(shù)據(jù)應用的具體需求。新數(shù)據(jù)中心首先需要配備高性能計算(HPC)基礎設施來滿足生成式AI和大數(shù)據(jù)應用的密集計算需求,比如使用功能強大的處理器、GPU、內(nèi)存、網(wǎng)絡、專用硬件加速器等高效處理大量數(shù)據(jù)并執(zhí)行復雜計算。
新數(shù)據(jù)中心架構(gòu)的設計應該使內(nèi)存、存儲等易于擴展。例如,CXL技術(shù)可以幫助建立內(nèi)存池,從架構(gòu)上將CPU和內(nèi)存分離,不僅能夠共享內(nèi)存,還能在性能需求日益增加的情況下更加輕松地增加內(nèi)存。
突破數(shù)據(jù)傳輸?shù)钠款i
業(yè)界一直都存在“內(nèi)存墻”的問題,其根源還是數(shù)據(jù)傳輸?shù)乃俾市阅芷款i。Tim Messegee說道,與“木桶定律”中的例子一樣,限制數(shù)據(jù)中心數(shù)據(jù)傳輸速率的元素不止一個,而是所有相關元素的性能。顯然,解決這一問題需要強大的 CPU、高速內(nèi)存、高帶寬網(wǎng)絡以及許多其他方面的支持。
實際上大家都不希望自己是最短板的那一塊。而以Rambus來看,其擅長的是提供先進內(nèi)存接口芯片和接口IP解決方案幫助滿足數(shù)據(jù)中心對帶寬不斷增長的需求。對此,Tim Messegee進行了解析。
具體來看,DDR5 DIMM芯片組:Rambus DDR5內(nèi)存接口芯片組由 DDR5 RCD、SPD Hub 和溫度傳感器組成,專為滿足最新一代DDR5內(nèi)存系統(tǒng)的大容量、高帶寬性能要求而量身定制。這些芯片使服務器和客戶端計算系統(tǒng)能夠處理最苛刻的工作負載和應用。
CXL技術(shù):CXL可使數(shù)據(jù)中心從原來每臺服務器擁有專用的處理和內(nèi)存以及網(wǎng)絡和加速器等其他資源的模式,轉(zhuǎn)變?yōu)槭褂霉蚕碣Y源池的分解模式,共享資源池可根據(jù)特定工作負載的需求進行高效組合。
PCIe 6接口子系統(tǒng)IP:PCIe 接口是在 CPU、GPU、FPGA 和特定工作負載加速器等不同計算節(jié)點之間以高帶寬和低延遲傳輸數(shù)據(jù)的關鍵骨干。Rambus PCIe 6解決方案支持下一代數(shù)據(jù)中心的性能要求,具有延遲、功耗、面積和安全性方面的優(yōu)勢。
HBM內(nèi)存控制器:HBM是一種高性能內(nèi)存標準,具有功耗低、外形小的特點。Rambus HBM 3.0和2E/2控制器可為AI/ML、圖形和HPC應用提供高帶寬、低延遲的內(nèi)存性能。
新的接口技術(shù)何時落地
以上列舉了幾種應用于數(shù)據(jù)中心的先進的接口技術(shù),包括DDR5、PCIe 6.0、HBM、CXL等。然而它們有各自的應用進程。
首先是DDR5。Tim Messegee表示,DDR5內(nèi)存已于2021年進入市場。我們現(xiàn)在看到服務器和PC市場都在使用DDR5內(nèi)存。根據(jù)IDC的預測,DDR5的跨越點,即DDR5位出貨量超過DDR4位出貨量的時刻將在2023年底出現(xiàn)。隨著時間的推移,DDR5有望在數(shù)據(jù)中心和消費市場得到更廣泛的應用。
其次,PCIe在服務器和PC之外也得到了廣泛應用,其規(guī)模經(jīng)濟效益使其對物聯(lián)網(wǎng)、汽車等領域以數(shù)據(jù)為中心的應用極具吸引力。盡管如此,PCIe 6.0的初期部署將針對需要盡可能高帶寬的應用,這些應用都是數(shù)據(jù)中心的核心,如AI/ML、HPC、云計算、網(wǎng)絡等。Tim Messegee預計第一代PCIe 6.0系統(tǒng)將在2026年問世。
再者,HBM正在成為超級計算機的首選內(nèi)存。市場對AI/ML的需求推動了 HBM 在數(shù)據(jù)中心的廣泛應用。如今,英偉達推出的H200 GPU以及GH200超級芯片開始配備141GB HBM3E。HBM的發(fā)展大致以兩年為一個周期,技術(shù)還在不斷演進當中。
此外,隨著CXL標準從1.0發(fā)展到 3.0,行業(yè)頭部廠商正在積極支持CXL。Tim Messegee說,要真正在市場上得到廣泛應用,可能還需要一段時間??梢钥隙ǖ氖?,由于CXL的特性,最早采用這項技術(shù)的將是那些需要最高帶寬、最低延遲和多設備一致性的應用。目前,我們預計CXL將于2026年在數(shù)據(jù)中心得到廣泛應用。
誠然,特定技術(shù)的應用周期取決于多種因素,包括市場需求、軟硬件生態(tài)、成本和性能優(yōu)勢等。Tim Messegee指出,一般來說,內(nèi)存和總線技術(shù)升級通常需要更長的時間,這是因為它們需要與整個生態(tài)兼容,而且所有相互連接的軟硬件元素都需要時間來驗證和檢驗。因此,一項技術(shù)的采用情況會因技術(shù)特性、復雜程度和市場需求而異??傊S著數(shù)據(jù)中心建設的加速,DDR5、PCIe 6.0、HBM和CXL等高速連接技術(shù)將在未來幾年繼續(xù)發(fā)展和普及,但其采用率可能會因技術(shù)和細分市場的不同而有所差異。
觀察市場的反饋,Tim Messegee看到的趨勢是,許多為數(shù)據(jù)中心開發(fā)的技術(shù)正在向客戶端擴散。AI推理向邊緣以及AI賦能的客戶端和終端系統(tǒng)轉(zhuǎn)移,這一趨勢將繼續(xù)加速。我們的IP解決方案可以集成到客戶端系統(tǒng)的芯片中,我們的產(chǎn)品路線圖上有支持未來客戶端平臺的Rambus芯片解決方案。
小結(jié):
AI大模型的參數(shù)量越來越龐大,內(nèi)容形式也越來越豐富,隨著數(shù)據(jù)中心工作負載的增加,DDR、HBM、PCIe和CXL等內(nèi)存技術(shù)將繼續(xù)為數(shù)據(jù)中心提供更高容量、更低延遲和更高能效的數(shù)據(jù)傳輸速率以滿足不斷增長的算力需求。同時,Rambus也希望通過內(nèi)存解決方案的不斷改進總體上為提高數(shù)據(jù)中心的整體能效帶來真正的機會。
Tim Messegee表示,總體上,新數(shù)據(jù)中心的架構(gòu)設計應考慮到性能、可擴展性、可靠性和安全性,滿足生成式AI和大數(shù)據(jù)應用的具體需求。新數(shù)據(jù)中心首先需要配備高性能計算(HPC)基礎設施來滿足生成式AI和大數(shù)據(jù)應用的密集計算需求,比如使用功能強大的處理器、GPU、內(nèi)存、網(wǎng)絡、專用硬件加速器等高效處理大量數(shù)據(jù)并執(zhí)行復雜計算。
新數(shù)據(jù)中心架構(gòu)的設計應該使內(nèi)存、存儲等易于擴展。例如,CXL技術(shù)可以幫助建立內(nèi)存池,從架構(gòu)上將CPU和內(nèi)存分離,不僅能夠共享內(nèi)存,還能在性能需求日益增加的情況下更加輕松地增加內(nèi)存。
突破數(shù)據(jù)傳輸?shù)钠款i
業(yè)界一直都存在“內(nèi)存墻”的問題,其根源還是數(shù)據(jù)傳輸?shù)乃俾市阅芷款i。Tim Messegee說道,與“木桶定律”中的例子一樣,限制數(shù)據(jù)中心數(shù)據(jù)傳輸速率的元素不止一個,而是所有相關元素的性能。顯然,解決這一問題需要強大的 CPU、高速內(nèi)存、高帶寬網(wǎng)絡以及許多其他方面的支持。
實際上大家都不希望自己是最短板的那一塊。而以Rambus來看,其擅長的是提供先進內(nèi)存接口芯片和接口IP解決方案幫助滿足數(shù)據(jù)中心對帶寬不斷增長的需求。對此,Tim Messegee進行了解析。
具體來看,DDR5 DIMM芯片組:Rambus DDR5內(nèi)存接口芯片組由 DDR5 RCD、SPD Hub 和溫度傳感器組成,專為滿足最新一代DDR5內(nèi)存系統(tǒng)的大容量、高帶寬性能要求而量身定制。這些芯片使服務器和客戶端計算系統(tǒng)能夠處理最苛刻的工作負載和應用。
CXL技術(shù):CXL可使數(shù)據(jù)中心從原來每臺服務器擁有專用的處理和內(nèi)存以及網(wǎng)絡和加速器等其他資源的模式,轉(zhuǎn)變?yōu)槭褂霉蚕碣Y源池的分解模式,共享資源池可根據(jù)特定工作負載的需求進行高效組合。
PCIe 6接口子系統(tǒng)IP:PCIe 接口是在 CPU、GPU、FPGA 和特定工作負載加速器等不同計算節(jié)點之間以高帶寬和低延遲傳輸數(shù)據(jù)的關鍵骨干。Rambus PCIe 6解決方案支持下一代數(shù)據(jù)中心的性能要求,具有延遲、功耗、面積和安全性方面的優(yōu)勢。
HBM內(nèi)存控制器:HBM是一種高性能內(nèi)存標準,具有功耗低、外形小的特點。Rambus HBM 3.0和2E/2控制器可為AI/ML、圖形和HPC應用提供高帶寬、低延遲的內(nèi)存性能。
新的接口技術(shù)何時落地
以上列舉了幾種應用于數(shù)據(jù)中心的先進的接口技術(shù),包括DDR5、PCIe 6.0、HBM、CXL等。然而它們有各自的應用進程。
首先是DDR5。Tim Messegee表示,DDR5內(nèi)存已于2021年進入市場。我們現(xiàn)在看到服務器和PC市場都在使用DDR5內(nèi)存。根據(jù)IDC的預測,DDR5的跨越點,即DDR5位出貨量超過DDR4位出貨量的時刻將在2023年底出現(xiàn)。隨著時間的推移,DDR5有望在數(shù)據(jù)中心和消費市場得到更廣泛的應用。
其次,PCIe在服務器和PC之外也得到了廣泛應用,其規(guī)模經(jīng)濟效益使其對物聯(lián)網(wǎng)、汽車等領域以數(shù)據(jù)為中心的應用極具吸引力。盡管如此,PCIe 6.0的初期部署將針對需要盡可能高帶寬的應用,這些應用都是數(shù)據(jù)中心的核心,如AI/ML、HPC、云計算、網(wǎng)絡等。Tim Messegee預計第一代PCIe 6.0系統(tǒng)將在2026年問世。
再者,HBM正在成為超級計算機的首選內(nèi)存。市場對AI/ML的需求推動了 HBM 在數(shù)據(jù)中心的廣泛應用。如今,英偉達推出的H200 GPU以及GH200超級芯片開始配備141GB HBM3E。HBM的發(fā)展大致以兩年為一個周期,技術(shù)還在不斷演進當中。
此外,隨著CXL標準從1.0發(fā)展到 3.0,行業(yè)頭部廠商正在積極支持CXL。Tim Messegee說,要真正在市場上得到廣泛應用,可能還需要一段時間??梢钥隙ǖ氖?,由于CXL的特性,最早采用這項技術(shù)的將是那些需要最高帶寬、最低延遲和多設備一致性的應用。目前,我們預計CXL將于2026年在數(shù)據(jù)中心得到廣泛應用。
誠然,特定技術(shù)的應用周期取決于多種因素,包括市場需求、軟硬件生態(tài)、成本和性能優(yōu)勢等。Tim Messegee指出,一般來說,內(nèi)存和總線技術(shù)升級通常需要更長的時間,這是因為它們需要與整個生態(tài)兼容,而且所有相互連接的軟硬件元素都需要時間來驗證和檢驗。因此,一項技術(shù)的采用情況會因技術(shù)特性、復雜程度和市場需求而異??傊S著數(shù)據(jù)中心建設的加速,DDR5、PCIe 6.0、HBM和CXL等高速連接技術(shù)將在未來幾年繼續(xù)發(fā)展和普及,但其采用率可能會因技術(shù)和細分市場的不同而有所差異。
觀察市場的反饋,Tim Messegee看到的趨勢是,許多為數(shù)據(jù)中心開發(fā)的技術(shù)正在向客戶端擴散。AI推理向邊緣以及AI賦能的客戶端和終端系統(tǒng)轉(zhuǎn)移,這一趨勢將繼續(xù)加速。我們的IP解決方案可以集成到客戶端系統(tǒng)的芯片中,我們的產(chǎn)品路線圖上有支持未來客戶端平臺的Rambus芯片解決方案。
小結(jié):
AI大模型的參數(shù)量越來越龐大,內(nèi)容形式也越來越豐富,隨著數(shù)據(jù)中心工作負載的增加,DDR、HBM、PCIe和CXL等內(nèi)存技術(shù)將繼續(xù)為數(shù)據(jù)中心提供更高容量、更低延遲和更高能效的數(shù)據(jù)傳輸速率以滿足不斷增長的算力需求。同時,Rambus也希望通過內(nèi)存解決方案的不斷改進總體上為提高數(shù)據(jù)中心的整體能效帶來真正的機會。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
-
IP
+關注
關注
5文章
1580瀏覽量
149148 -
數(shù)據(jù)中心
+關注
關注
16文章
4584瀏覽量
71812 -
AI
+關注
關注
87文章
29401瀏覽量
267705 -
高速接口
+關注
關注
1文章
44瀏覽量
14744
發(fā)布評論請先 登錄
相關推薦
Credo新品發(fā)布!AEC高速互連如何賦能數(shù)據(jù)中心?
全球數(shù)據(jù)中心的井噴式發(fā)展下,何種線纜能高效傳輸龐大的數(shù)據(jù)?有源電纜AEC能否成為高速互連技術(shù)新突破口? 2024年,我國發(fā)布了一系列關于
數(shù)據(jù)中心產(chǎn)品通常包括哪些
應用在數(shù)據(jù)中心的分立器件產(chǎn)品而言,這是巨大的市場機遇。在信息時代下,數(shù)據(jù)中心價值會越來越高,可靠性能也需要進一步加強。好的分立器件才能更好支持數(shù)據(jù)中
怎樣保障數(shù)據(jù)中心不間斷電源不斷電 提供可靠安全的供配電#數(shù)據(jù)中心
數(shù)據(jù)中心配電系統(tǒng)
安科瑞王金晶
發(fā)布于 :2024年08月29日 14:51:36
數(shù)據(jù)中心的AI時代轉(zhuǎn)型:挑戰(zhàn)與機遇
隨著人工智能(AI)的迅速發(fā)展和廣泛應用,數(shù)據(jù)中心作為AI技術(shù)的基石,也面臨著前所未有的挑戰(zhàn)和機遇。為了滿足AI的高性能和低延遲要求,
AI時代,我們需要怎樣的數(shù)據(jù)中心?AI重新定義數(shù)據(jù)中心
超過60%的中國企業(yè)計劃在未來12至24個月內(nèi)部署生成式人工智能。AI、模型的構(gòu)建,將顛覆數(shù)據(jù)中心基礎設施的建設、運維和運營。一個全新的數(shù)據(jù)中心智能化時代已經(jīng)拉開序幕。
發(fā)表于 07-16 11:33
?529次閱讀
數(shù)據(jù)中心液冷需求、技術(shù)及實際應用
夏日炎炎,數(shù)據(jù)中心制冷技術(shù)全新升級,液冷散熱,讓服務器清涼一夏。本文將帶您一起探索數(shù)據(jù)中心液冷需求、技術(shù)及實際應用。 1 數(shù)據(jù)中心液冷需求
HNS 2024:星河AI數(shù)據(jù)中心網(wǎng)絡,賦AI時代新動能
華為數(shù)據(jù)通信創(chuàng)新峰會2024在巴庫隆重舉辦,在“星河AI數(shù)據(jù)中心網(wǎng)絡,賦AI時代新動能”主題論壇中,華為面向中東中亞地區(qū)發(fā)布星河AI
數(shù)據(jù)中心交換機高速率發(fā)展,需要哪些電感與電容元件?
電子發(fā)燒友網(wǎng)報道(文/李寧遠)在算力向更高水平發(fā)展的推動下,數(shù)據(jù)迎來了爆炸性增長。數(shù)據(jù)中心需要處理越來越多的數(shù)據(jù),并且這些
IDc數(shù)據(jù)中心需要哪些產(chǎn)品
IDC數(shù)據(jù)中心是一個專門提供服務器和網(wǎng)絡設備的租用、托管和管理服務的場所。它通常由大型的硬件設施和專業(yè)的技術(shù)團隊組成,可以為企業(yè)和機構(gòu)提供高效、安全和可靠的數(shù)據(jù)存儲和處理解決方案。這篇文章中將詳細
數(shù)據(jù)中心如何支持人工智能
隨著人工智能(AI)的迅速發(fā)展和廣泛應用,數(shù)據(jù)中心作為AI技術(shù)的基石,也面臨著前所未有的挑戰(zhàn)和機遇。為了滿足AI的高性能和低延遲要求,
《數(shù)據(jù)處理器:DPU編程入門》讀書筆記
。以DPU為技術(shù)代表的新算力架構(gòu),正在重新定義數(shù)據(jù)中心和云原生技術(shù)的基礎架構(gòu)。
DPU的出現(xiàn),是隨著數(shù)據(jù)中心的高速發(fā)展,通信能力和計算能力成
發(fā)表于 12-21 10:47
適用于數(shù)據(jù)中心和 AI 時代的網(wǎng)絡
十多年來,傳統(tǒng)的云數(shù)據(jù)中心一直是計算基礎設施的基石,滿足了各種用戶和應用程序的需求。然而,近年來,為了跟上技術(shù)的進步和對 AI 驅(qū)動的計算需求的激增,數(shù)據(jù)中心進行了發(fā)展。 本文探討了網(wǎng)
評論