0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

SmartNIC、DPU和IPU的定義和分類

jf_C6sANWk1 ? 來源:軟硬件融合 ? 作者:軟硬件融合 ? 2022-10-28 09:49 ? 次閱讀

關于SmartNIC、DPU、IPU的定義和分類,在上一篇發(fā)布了STH的NIC分類框架之后,覺得這個分類有很大的問題。每家的功能集合不同,即使同一個功能,定義也不完全相同。并且,具體的實現(xiàn)形態(tài)還有不同:有FPGA的實現(xiàn)、NP的實現(xiàn)以及芯片的實現(xiàn)。如果把把這些具體的因素都考慮進去以后,整個定義和分類邏輯會非常混亂。

本文透過現(xiàn)象看本質(zhì):忽略具體的實現(xiàn)形態(tài),只考慮實現(xiàn)的功能;并且,我們把具體功能抽象化,避免不同廠家具體產(chǎn)品功能集的不同以及功能定義的差異導致的劃分困難和混淆?;谏鲜鰞蓚€原則,站在軟硬件融合的視角,給出了SmartNIC、DPU和IPU的定義。

1 軟硬件融合基礎

eae10f00-5661-11ed-a3b6-dac502259ad0.png

按照單位計算(指令)的復雜度,處理器平臺大致分為CPU、協(xié)處理器、GPU、FPGA、DSA和ASIC。從左往右,單位計算越來越復雜,靈活性越來越低。

隨著軟件新技術(shù)不斷涌現(xiàn)以及技術(shù)的迭代越來越快,但硬件規(guī)模越來越大但更新?lián)Q代卻越來越慢。芯片開發(fā)高投入高風險等,嚴重制約著軟件的進一步發(fā)展空間。

軟硬件融合,強調(diào)要在更系統(tǒng)的層次理解軟件和硬件,以及兩者之間的關系和相互作用。在架構(gòu)上指的是CPU+協(xié)處理器+GPU+FPGA+DSA+ASIC的超異構(gòu)混合架構(gòu)。目標是讓硬件更加靈活、彈性、可擴展,彌補硬件和軟件之間的鴻溝,并且能夠兼顧軟件靈活性和硬件高性能,實現(xiàn)既要又要。

2 DPU/IPU的本質(zhì)

2.1 名稱解釋

SmartNIC,智能網(wǎng)卡;

DPU,Data Processing Unit,數(shù)據(jù)處理器;

IPU,Infrastructure Processing Unit,基礎設施處理器;

eIPU,elastic IPU,彈性的基礎設施處理器。

2.2 CPU性能瓶頸,必須卸載和加速

eaf1c228-5661-11ed-a3b6-dac502259ad0.png

上世紀80-90年代,每18個月,CPU性能提升一倍,這就是著名的摩爾定律。如今,CPU性能提升每年只有3%,要想性能翻倍,需要20年。CPU的性能提升已經(jīng)達到瓶頸。

eb08aa24-5661-11ed-a3b6-dac502259ad0.png

因此,隨著網(wǎng)絡、存儲等IO的處理帶寬增加,各種相關的IO處理對CPU的消耗呈現(xiàn)完全增長的局面。這樣,底層基礎設施Workload所占的CPU資源越來越多,留給用戶應用的CPU資源越來越少。

eb1a1d22-5661-11ed-a3b6-dac502259ad0.png

這樣,把基礎設施層的所有任務都從Host CPU轉(zhuǎn)移到DPU或IPU中,把CPU完整的交給業(yè)務應用,達到了業(yè)務和管理分離。

業(yè)務和管理分離是云運營商最看中的價值,其優(yōu)勢體現(xiàn)在:

CPU資源完全交付;

更高可擴展性,靈活主機配置;

傳統(tǒng)客戶方便上云(虛擬化嵌套);

主機側(cè)安全訪問;

物理機的性能 + 虛擬機的可擴展性及高可用;

統(tǒng)一公有云和私有云運維。

2.3 卸載和加速的區(qū)別

卸載不一定加速,加速不一定卸載。

一個Workload在CPU運行,則定義為軟件運行。一個任務在協(xié)處理器、GPU、FPGA、DSA或ASIC運行,則定義為硬件加速運行。

在CPU和DPU/IPU的場景下,卸載指的是把一個Workload從上面的CPU卸載到DPU/IPU。根據(jù)卸載的完整與否,卸載可以分為:

部分卸載,只卸載數(shù)據(jù)面,控制面依然在Host CPU;

完全卸載,數(shù)據(jù)面和控制面都卸載,控制面運行在DPU/IPU內(nèi)部的嵌入式CPU。

根據(jù)數(shù)據(jù)面卸載到的處理引擎不同,可以將卸載分為:

軟件卸載,即將Workload從Host CPU卸載到DPU/IPU內(nèi)部的嵌入式CPU;

硬件加速卸載,即將Workload的數(shù)據(jù)面完全由DPU/IPU內(nèi)部的其他類型(協(xié)處理器、GPU、FPGA、DSA、ASIC)硬件加速引擎來處理。

加速和卸載最大的區(qū)別在于,加速一般是一個系統(tǒng)內(nèi)的協(xié)作,基于CPU+xPU的架構(gòu),把系統(tǒng)內(nèi)可加速部分拆分到xPU去運行。而卸載更多強調(diào)的是兩個系統(tǒng)間的協(xié)作,把一個系統(tǒng)卸載到另一個運行實體,然后通過特定的接口交互。

2.4 DPU/IPU的核心功能和擴展功能

eb49ca22-5661-11ed-a3b6-dac502259ad0.png

DPU/IPU所做的事情,簡單來說,分為兩類:

第一類是處于應用之下的各種通用任務的卸載&加速,這類工作屬于DPU的“本職”工作。因此,DPU/IPU的核心功能是通用任務的卸載和加速。

另一類,是業(yè)務應用的加速。這一類工作通常是獨立GPU和AI等加速器要做的工作。但是,在一些輕量的場景,獨立的加速器有些浪費。在DPU內(nèi)部集成業(yè)務加速引擎,可以有效降低數(shù)據(jù)交互的代價,使得整個計算更加高效。因此,DPU/IPU的擴展功能是業(yè)務應用的彈性加速。

2.5 卸載是一個過程:系統(tǒng)從軟件向硬件逐步沉淀

eb5af0b8-5661-11ed-a3b6-dac502259ad0.png

CPU已經(jīng)達到性能瓶頸,隨著整個系統(tǒng)的算力需求依然不斷的上升。這樣,系統(tǒng)中的工作任務勢必不斷的從CPU軟件卸載到DPU/IPU中的 “硬件”進行加速。

但,從系統(tǒng)從軟件卸載到硬件,不是一個一蹴而就的事情,而是一個長期的過程。因此,我們需要有一個很好的平臺框架來支持任務持續(xù)不斷的卸載到硬件來加速。

3 BasicNIC - SmartNIC - DPU - IPU - eIPU

3.1 綜述

SmartNIC/DPU/IPU有各種不同形態(tài)的實現(xiàn),比如基于Network Processor的實現(xiàn)、基于FPGA+CPU的實現(xiàn),或者基于單芯片SOC的實現(xiàn)。如果要考慮各種不同形態(tài)的實現(xiàn)載體,也要考慮具體的功能分類,那勢必對SmartNIC/DPU/IPU的劃分會五花八門,這樣反而會混淆對整件事情的認知。

軟硬件融合對SmartNIC/DPU/IPU的定義:

透過現(xiàn)象看本質(zhì),忽略具體的實現(xiàn)形態(tài),只考慮實現(xiàn)的功能;

把功能抽象化,避免不同廠家具體產(chǎn)品功能集的不同以及功能定義的差異導致的劃分困難和混淆。

我們認為,從基礎的網(wǎng)絡設備,發(fā)展到后面的eIPU,是一個設計規(guī)模逐步增大,功能逐步增強的過程。具體如下表所示。

注意:需要強調(diào)的是,這里的每個階段的名稱和其他各個廠家命名的SmartNIC、DPU、IPU的概念并不一一對應。

eb65ce7a-5661-11ed-a3b6-dac502259ad0.png

3.2 基礎狀態(tài),標準NIC,無卸載

最開始的狀態(tài),嚴格來說,應該是IO設備,而不僅僅是網(wǎng)絡設備。至少還有一個需要考慮的高速IO設備:存儲控制器。

但考慮到,我們討論的這個處理設備,一端是要支持PCIe接口,另一端需要支持高速網(wǎng)絡接口,跟網(wǎng)絡NIC非常接近。因此,我們可以當做是在標準NIC上的擴展,不斷的疊加新的功能,包括疊加存儲控制器以及其他存儲相關功能。

標準NIC,不支持Workload的卸載,主要是接口卡的功能,內(nèi)部完成TCP/IP層以下PHY/MAC層的工作。幾乎所有現(xiàn)代NIC都有一些非?;镜男遁d,例如CRC校驗和大包的拆包/封包。案例如Intel經(jīng)典網(wǎng)卡82599系列,這里不做詳細介紹。

3.3 第一階段,SmartNIC,卸載單點的網(wǎng)絡

ebc29902-5661-11ed-a3b6-dac502259ad0.png

SmartNIC最經(jīng)典案例是NVIDIA Networking的CX5系列。CX5支持ASAP2加速,可以把網(wǎng)絡相關Workload卸載到eSwitch,即Fast path跑在硬件中,只有Slow path及控制面需要送到Host CPU。

在CX5中不具有獨立的CPU運行OS和軟件,因此所有的相關軟件部分依然運行在Host CPU。

3.4 第二階段,DPU,卸載IO底層處理,橫向擴展成線

云計算數(shù)據(jù)中心的每一臺服務器和交換機都運行獨立的堆棧,然后這些分布式的堆棧使得整個數(shù)據(jù)中心組成了一個完全池化的超級倉儲計算機。每臺服務器運行的復雜的、分層的系統(tǒng),CPU性能瓶頸已經(jīng)不堪重負。并且,數(shù)據(jù)中心的規(guī)模都日益龐大,一些主流的云運營商動輒百萬臺以上的服務器規(guī)模。

量變引起質(zhì)變,這些趨勢促使了一個效果:運行在每臺服務器的底層Workload變的越來越趨同,例如,虛擬網(wǎng)絡、分布式存儲、安全加解密、虛擬化和容器等任務幾乎存在于每臺服務器中。DPU/IPU最核心的功能,就是要進行這些規(guī)模龐大的、性能敏感的通用任務的加速,這樣才能產(chǎn)生顯著的性能的提升和成本的優(yōu)化。

ebd54462-5661-11ed-a3b6-dac502259ad0.png

NVIDIA BlueField-2是一個高度集成的DPU,集成ConnectX-6 DX網(wǎng)絡適配器與ARM處理器核陣列。BlueField-2 DPU:

通過ASAP2的網(wǎng)絡加速方案以及完整的數(shù)據(jù)面及控制面卸載,可以高效、高性能的支持虛擬化、裸金屬、邊緣計算場景的快速部署;

通過SNAP機制為存儲提供完整的端到端解決方案;

集成了各種安全加速,可以為數(shù)據(jù)中心提供隔離、安全性和加解密加速功能;

集成的ARM Core可以運行基礎設施層的虛擬化、管理監(jiān)控等功能。

除了NVIDIA Bluefield DPU之外,其他可以劃歸到DPU分類的產(chǎn)品有:

NITRO系統(tǒng)。Nitro系統(tǒng)用于為AWS EC2實例類型提供網(wǎng)絡硬件卸載、EBS存儲硬件卸載、NVMe本地存儲、遠程直接內(nèi)存訪問(RDMA)、裸金屬實例的硬件保護/固件驗證以及控制EC2實例所需的所有業(yè)務邏輯等。

Fungible DPU。Fungible DPU采用通用多線程處理器,結(jié)合標準以太網(wǎng)和PCIe接口。其他硬件組件包括高性能的片上Fabric、定制的內(nèi)存系統(tǒng)、一套完整的靈活數(shù)據(jù)加速器、可編程網(wǎng)絡硬件流水線、可編程PCIe硬件流水線。

Pensando DPU。包括網(wǎng)絡功能(交換和路由、L3 ECMP, L4負載均衡、Overlay網(wǎng)絡VXLAN等、IP-NAT等)、安全功能(微分段、DoS保護、IPsec終止、TLS/DTLS終止等)以及存儲功能(NVMe over TCP/RoCEv2、壓縮/解壓、加密/解密、SHA3重復數(shù)據(jù)刪除、CRC64/32校驗和等)。

Intel IPU。IPU使用專用協(xié)議加速器加速基礎設施功能,包括存儲虛擬化、網(wǎng)絡虛擬化和安全性。允許靈活的工作負載放置來提高數(shù)據(jù)中心利用率。

Marvell DPU。Marvell OCTEON 10集成ARM Neoverse N2內(nèi)核、1Tb的交換機,支持內(nèi)聯(lián)加密,基于VPP的硬件加速器可將數(shù)據(jù)包處理速度提高多達5倍,基于機器學習的硬件加速引擎比軟件處理性能提升100倍。

3.5 第三階段,IPU,卸載更多層次的工作任務,縱向擴展從線成面

IPU階段,最顯著的特點是把業(yè)務加速也集成進來,這是DPU/IPU的一個長期的目標。但業(yè)務加速跟底層的通用任務加速相比,具有一些新的挑戰(zhàn):

一方面,業(yè)務應用五花八門,遠比底層任務要數(shù)量眾多。具體到每臺服務器要運行什么任務,是完全未知的;

另一方面,業(yè)務系統(tǒng)和算法通常處于一個快速迭代持續(xù)更新的狀態(tài),這樣,勢必要求硬件加速引擎也能夠快速編程和快速更新。

基于上述挑戰(zhàn),業(yè)務加速需要的是一個足夠彈性的、可快速編程的,并且具有顯著加速效果的加速平臺。因為研發(fā)、運維和性能/成本等多方面考慮,這個平臺還需要規(guī)模足夠龐大,并且硬件完全一致性。

ebe05956-5661-11ed-a3b6-dac502259ad0.png

嚴格來說,目前還沒有符合IPU階段的產(chǎn)品面市。但有一些這方面的趨勢:

添加AI加速。NVIDIA在即將發(fā)布的Bluefield-3X板卡集成獨立DPU和獨立AI兩顆芯片,而Bluefield-4則是單芯片集成DPU+AI加速器。而Marvell先NVIDIA一步,率先發(fā)布了集成AI推理加速引擎的OCTEON 10 DPU。

添加FPGA彈性加速。Intel IPU和Xilinx SmartNIC當前都是FPGA+CPU的架構(gòu)的,理論上可以通過FPGA編程的方式快速實現(xiàn)。但“用戶要的是牛奶,而不是奶?!?,不是簡單的把一個完整的FPGA交給用戶就OK。而是要像FaaS那樣,把基礎的環(huán)境準備好,用戶只是開發(fā)主機的加速內(nèi)核和相應的控制面驅(qū)動而已。

3.6 第四階段,eIPU,任務引擎軟硬件均衡,擴展從面成體

ec513914-5661-11ed-a3b6-dac502259ad0.png

在eIPU階段,把每個Workload均細致的權(quán)衡,把它映射到最合適的處理引擎,CPU、ASIC、DSA或者GPU、FPGA。并且,處理引擎間能夠?qū)崿F(xiàn)完全靈活的任務間數(shù)據(jù)交互,包括對外部提供的接口,就如同軟件的IPC/RPC/Restful等交互接口一樣靈活。

eIPU是眾多Workload的集合體:

在內(nèi)部,每個Workload均運行在最合適的處理器引擎,可以達到最極致的性能;

在內(nèi)部,Workload之間的數(shù)據(jù)交互足夠高性能足夠靈活;

對外部,提供類似軟件的服務API接口。

微服務無處不在,把eIPU融入到微服務體系中去。eIPU既是微服務供其他微服務調(diào)用,同時,eIPU也可以調(diào)用其他微服務。

4 總結(jié),DPU/IPU成功的關鍵,平衡好性能和靈活性

ec5d1d7e-5661-11ed-a3b6-dac502259ad0.png

DPU/IPU本質(zhì)上是在做硬件加速。站在硬件加速的角度,數(shù)據(jù)中心的整個計算架構(gòu)跟手機端完全沒法比。如上圖所示,是高通在2014年發(fā)布的驍龍810處理器SOC的布局圖。手機端一直都是CPU+各種加速器的混合計算架構(gòu)。

在手機端已經(jīng)非常成熟的架構(gòu),在數(shù)據(jù)中心端為何如此姍姍來遲?原因在于,數(shù)據(jù)中心中業(yè)務應用的Workload,具有非常大的不確定性,因此需要提供足夠通用和靈活的計算平臺:

最開始,性能不是問題,CPU是最優(yōu)的選擇;

隨著人工智能興起后,對算力的需求越來越高。這才有了GPU平臺的興起;

即使對算力如此渴求,DSA類加速的AI處理器依然沒有形成大規(guī)模落地,支撐AI訓練和推理的還主要是GPU平臺。

這說明一個道理:在數(shù)據(jù)中心領域(或者說高速迭代的復雜場景),如果不能提供靈活性(或者說易用性、可編程性),提供再多的性能都是“無本之木”。

反過來,如果想提供盡可能好的靈活性,最極端的做法依然是采用CPU。但這個設計要么性能不夠,要么代價太高。

基于平衡靈活性和性能的考慮,最優(yōu)的設計應該是:在滿足一定的成本約束條件下,在提供一定靈活可編程能力的情況下,提供最極致的性能。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • DPU
    DPU
    +關注

    關注

    0

    文章

    353

    瀏覽量

    24080
  • 協(xié)處理器

    關注

    0

    文章

    74

    瀏覽量

    18136
  • IPU
    IPU
    +關注

    關注

    0

    文章

    34

    瀏覽量

    15533
  • SmartNIC
    +關注

    關注

    0

    文章

    19

    瀏覽量

    3193

原文標題:軟硬件融合視角的SmartNIC、DPU和IPU定義

文章出處:【微信號:阿寶1990,微信公眾號:阿寶1990】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    SmartNIC走向DPU,專用加速器的崛起

    的CPU、GPU、APU之外,按照處理對象的不同,在人工智能和深度學習的崛起下,NPU和TPU也紛紛出現(xiàn)。 ? DPU模糊的定義 ? 不過這些已經(jīng)定義明確的處理單元并不是我們今天的主角,而是找到了全新
    的頭像 發(fā)表于 06-25 01:17 ?4370次閱讀

    芯啟源首次公開"SmartNIC第四代架構(gòu)"如何賦能DPU藍海

    DPU廠商共同參與了智能網(wǎng)卡(SmartNIC)最佳架構(gòu)小組討論。 ? 芯啟源第四代智能網(wǎng)卡(SmartNIC) ? 智能網(wǎng)卡(SmartNIC)是具有自身處理能力和內(nèi)存的網(wǎng)絡
    的頭像 發(fā)表于 05-05 14:53 ?4043次閱讀
    芯啟源首次公開&quot;<b class='flag-5'>SmartNIC</b>第四代架構(gòu)&quot;如何賦能<b class='flag-5'>DPU</b>藍海

    DPU賽道火熱,初創(chuàng)公司贏面更大?

    上回我們提到了SmartNIC,以及這種智能網(wǎng)卡對于數(shù)據(jù)中心來說究竟起到了何種舉足輕重的作用。然而,在英偉達于2020年提出DPU(data processing units)數(shù)據(jù)處理單元這一概念后
    的頭像 發(fā)表于 03-04 07:25 ?3516次閱讀

    PCIe的SmartNIC如何改變方案加速規(guī)則

    神奇,能以 CXL 和 CCIX 兩種新協(xié)議的形式允諾在 CPU 與 SmartNIC 或協(xié)處理器等加速器之間實現(xiàn)高效的通信。  CXL  我們先談 CXL。它提供了定義清晰的主從模式。在這種模式下
    發(fā)表于 01-07 17:31

    SmartNIC與普通NIC的區(qū)別

    XtremeScale 則專注于 Linux 內(nèi)核旁路。這些控制器的功能非常出色,它們代表了業(yè)界最出色的控制器,但它們不能算是 SmartNIC?! ≡诒疚闹?,我們將 SmartNIC 定義為一個允許附加軟件的 NIC
    發(fā)表于 01-07 17:41

    專?數(shù)據(jù)處理器 (DPU) 技術(shù)??書

    705.1. NVIDIA BLUEFIELD 705.2. INTEL IPU(MOUNT EVANS) 735.3. MARVELL OCTEON 775.4. FUNGIBLE DPU 815.5. 中科馭數(shù) K2 DPU
    發(fā)表于 03-14 17:35

    什么是DPU

    安全的、裸性能的、原生云計算的下一代云上大規(guī)模計算至關重要。 DPU:集成到SmartNIC DPU可以用作獨立的嵌入式處理器,但通常是被集成到SmartNIC(一種作為下一代服務器中
    發(fā)表于 11-03 10:55

    我們的世界為什么需要DPU

    區(qū)別 SmartNICDPU (數(shù)據(jù)處理器) 的依據(jù)是它的功能,而不是形態(tài)。對稱為 SmartNICs 的一類數(shù)據(jù)中心智能網(wǎng)卡來說,它需要支持硬件傳輸和用于虛擬交換機加速的可編程數(shù)據(jù)路徑。這些
    的頭像 發(fā)表于 08-25 16:39 ?1836次閱讀

    關于DPU的那些事

    bluefield改名為DPU。 后來的事情,就超出了老黃的想象,各種DPU公司風起云涌,甚至壓過“AI”一頭,成為了VC眼中的“新貴”,成為了風口。 對于網(wǎng)卡芯片行業(yè),大家都在講smartnic(智能網(wǎng)卡
    的頭像 發(fā)表于 10-13 17:56 ?3178次閱讀

    Fungible和英偉達在?DPU賽道上的進展

    電子發(fā)燒友網(wǎng)報道(文/周凱揚)上回我們提到了SmartNIC,以及這種智能網(wǎng)卡對于數(shù)據(jù)中心來說究竟起到了何種舉足輕重的作用。然而,在英偉達于2020年提出DPU(data processing
    的頭像 發(fā)表于 03-08 13:15 ?2767次閱讀

    如何構(gòu)建基于DPUSmartNIC

      您應該如何構(gòu)建基于 DPUSmartNIC ,以及哪種 SmartNIC 對于每個工作負載來說是最好的……好吧,問題在于細節(jié)。深入了解哪些數(shù)據(jù)路徑和虛擬化加速可用以及如何使用它們非常重要。
    的頭像 發(fā)表于 04-19 15:51 ?1335次閱讀
    如何構(gòu)建基于<b class='flag-5'>DPU</b>的<b class='flag-5'>SmartNIC</b>

    如何使用多個DPU實現(xiàn)云級架構(gòu)

    為了在數(shù)據(jù)中心充分實現(xiàn)應用程序的效率,傳輸卸載、可編程的數(shù)據(jù)平面以及用于虛擬交換的硬件卸載都是至關重要的功能。根據(jù)定義,支持這些功能是 SmartNIC 的重要部分,。但只是 DPU 的最基本要求之一, 并不能將
    的頭像 發(fā)表于 04-19 15:58 ?1011次閱讀
    如何使用多個<b class='flag-5'>DPU</b>實現(xiàn)云級架構(gòu)

    關于SmartNICDPU之間的疑惑

    隨著云網(wǎng)絡、人工智能、大數(shù)據(jù)、5G邊緣計算的快速發(fā)展,數(shù)據(jù)流量呈指數(shù)級增長。CPU計算能力的增長趕不上網(wǎng)絡傳輸速率的提升,網(wǎng)絡側(cè)對專業(yè)計算的需求急劇增加,DPU應運而生。
    的頭像 發(fā)表于 07-07 09:42 ?853次閱讀

    IPU和CXL如何提高數(shù)據(jù)中心的電源效率?

    數(shù)據(jù)處理單元 (DPU)、基礎設施處理單元 (IPU) 和 Compute Express Link (CXL) 技術(shù)可從服務器 CPU 卸載交換和網(wǎng)絡任務,具有顯著提高數(shù)據(jù)中心能效的潛力。
    的頭像 發(fā)表于 04-17 10:07 ?1063次閱讀

    Napatech IPU解決方案助力優(yōu)化數(shù)據(jù)中心存儲工作負載

    Napatech是全球領先的智能網(wǎng)卡(SmartNIC)和IPU解決方案供 應商,業(yè)務范圍涵蓋云計算、企 業(yè)和電信數(shù)據(jù)中心應用等領域。
    的頭像 發(fā)表于 05-29 11:50 ?501次閱讀
    Napatech <b class='flag-5'>IPU</b>解決方案助力優(yōu)化數(shù)據(jù)中心存儲工作負載