0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于RDMA技術的Mayastor解決方案

DPU高性能云異構算力解決方案 ? 來源:DPU高性能云異構算力解決 ? 作者:DPU高性能云異構算 ? 2024-08-20 18:47 ? 次閱讀

1. 方案背景和挑戰(zhàn)

1.1. Mayastor簡介

OpenEBS是一個廣受歡迎的開源云原生存儲解決方案,托管于CNCF(云原生計算基金會)之下,旨在通過擴展Kubernetes的能力,為有狀態(tài)應用提供靈活的持久性存儲。Mayastor是OpenEBS項目中的關鍵存儲引擎,它以其高性能、耐久性和易于管理的特點,為云原生應用提供了理想的存儲解決方案。Mayastor的特點包括:

基于NVMe-oF:Mayastor利用NVMe-oF協(xié)議,這是一種基于網(wǎng)絡的NVMe訪問方法,允許NVMe設備通過以太網(wǎng)或其他網(wǎng)絡結構進行遠程訪問,這有助于提高存儲系統(tǒng)的性能和可擴展性。

支持多種設備類型:雖然Mayastor優(yōu)化了NVMe-oF的使用,但它并不要求必須使用NVMe設備或云卷,也可以與其他類型的存儲設備配合使用。

與Kubernetes集成:Mayastor作為OpenEBS的一部分,與Kubernetes緊密集成,允許開發(fā)人員和運維人員使用Kubernetes的原生工具(如kubectl)來管理和監(jiān)控存儲資源。

Mayastor適用于需要高性能和耐久性存儲解決方案的云原生應用場景,特別是在邊緣計算、大數(shù)據(jù)分析、流媒體處理等領域。它可以幫助開發(fā)人員構建高可用性和可擴展性的有狀態(tài)應用,同時降低存儲系統(tǒng)的復雜性和成本。通過利用NVMe-oF協(xié)議和最新一代固態(tài)存儲設備的性能能力,Mayastor能夠提供低開銷的存儲抽象,滿足有狀態(tài)應用對持久性存儲的需求。

1.2. 問題與挑戰(zhàn)

當前Mayastor只提供了NVMe over TCP技術實現(xiàn)數(shù)據(jù)存儲服務,不支持NVMe over RDMA技術,這就不能充分挖掘NVMe SSD盤的性能優(yōu)勢,主要問題和挑戰(zhàn)包括:

1、性能瓶頸:

Mayastor依賴于TCP來實現(xiàn)NVMe SSD的數(shù)據(jù)傳輸,這意味著它不可避免地繼承了TCP的性能瓶頸。TCP的頭部開銷和擁塞控制機制限制了數(shù)據(jù)傳輸?shù)挠行俾?,尤其是在處理大量小?shù)據(jù)包時更為明顯。對于需要高速訪問和處理的NVMe SSD來說,這種限制可能顯著影響Mayastor的整體性能。

2、延遲敏感應用的挑戰(zhàn):

對于那些對延遲要求極高的應用(如高頻交易、實時數(shù)據(jù)分析等),Mayastor當前的TCP實現(xiàn)可能無法提供足夠的低延遲保證。TCP的延遲增加和抖動問題可能導致這些應用的性能下降,從而影響業(yè)務決策的時效性和準確性。

3、資源消耗:

在高并發(fā)場景下,Mayastor處理TCP數(shù)據(jù)包時涉及的頻繁中斷和上下文切換會顯著增加CPU的負載。這不僅會降低系統(tǒng)整體的計算效率,還可能影響Mayastor處理其他存儲請求的能力,導致整體性能下降。

2. 方案介紹

2.1. 整體架構

本方案是基于馭云ycloud-csi架構,將Mayastor整合進來,通過Gateway提供數(shù)據(jù)通路的RDMA加速,提高IO性能。在Host側通過DPU卸載,可以進一步解放工作節(jié)點上的CPU負載,獲取更好的應用性能。整體架構如下所示(標綠和標藍部分是自研組件):

wKgZombEcn6AfgkaAAMK-s4QEW4107.png

本方案將不同的組件分別部署在不同的node,主要包含:

Master Node上,部署 csi的控制器csi-controller,用于創(chuàng)建volume和NVMe-oF target。

Worker Node上,部署csi-node-host,配合csi-node-dpu,通過volumeattachment發(fā)現(xiàn)DPU掛載的NVMe盤,然后執(zhí)行綁定或者格式化。

DPU上,部署csi-node-dpu和opi-bridge。opi-bridge是卡對opi-api存儲的實現(xiàn);csi-node-dpu 負責給host側掛盤。

Storage Node上,部署Mayastor和GATEWAY,GATEWAY是對SPDK封裝的一個服務,用于后端Mayastor存儲,對外提供NVMe target訪問。

2.2. 方案描述

本方案主要由ycloud-csi、RDMA Gateway和Mayastor后端存儲三個部分組成,下面將對這三個部分進行介紹。

2.2.1.ycloud-csi

通過ycloud-csi架構可以接入第三方的存儲,讓第三方存儲很方便的使用DPU的能力。其包括ycloud-csi-controller、ycloud-csi-node-host和ycloud-csi-node-dpu,主要職責是為K8s的負載提供不同的存儲能力。

2.2.1.1.Ycloud-csi-controller

Ycloud-csi-controller主要實現(xiàn)以下兩類功能:

針對pvc,調用第三方的controller,創(chuàng)建卷,創(chuàng)建快照和擴容等;

針對pod,提供存儲的兩種連接模式:AIO和NVMe-oF(因為opi目前只支持這兩種)。如果是NVMe-oF,則調用不同的plugin在GATEWAY上創(chuàng)建NVMe-oF target。

2.2.1.2.Ycloud-csi-node

Ycloud-csi-node使用插件系統(tǒng),對接不同的第三方存儲。 ycloud-csi-node按node角色分為ycloud-csi-node-dpu、ycloud-csi-node-host和ycloud-csi-node-default,不同角色的csi-node功能不同,下面分別加以說明:

Ycoud-csi-node-dpu需要處理host和DPU側的掛盤請求,根據(jù)不同的連接模式(AIO或者NVMe-oF),連接遠程存儲。

Ycloud-csi-node-host把DPU側導出的volume掛載到pod中。

Ycloud-csi-node-default 也就是默認的工作模式,工作于smartNic場景。完成掛載volume,導入pod中。

2.2.2.RDMA Gateway

RDMA Gateway是基于SPDK開發(fā)的存儲服務,可以部署在io-engine相同的節(jié)點上,負責連接本地Mayastor的target,對外提供NVMe oF存儲服務。

2.2.3. Mayastor storage

后端存儲采用Mayastor,管理不同節(jié)點上的硬盤存儲。

2.3. 工作流程

2.3.1.存儲卷創(chuàng)建流程

用戶的App運行在POD中。為了能存放持久的數(shù)據(jù),需要給POD掛載存儲卷。在啟動POD之前,可以先創(chuàng)建好PVC,以供后面使用。創(chuàng)建PVC的過程如下:

wKgaombEcpmAX-fcAAE3BZqMDw8948.png

圖中除了包含上一章節(jié)介紹的組件外,還有兩個k8s系統(tǒng)提供的用于方便對接csi的組件:

external-provisioner:用戶創(chuàng)建pvc時,該sidecar 會調用csi-controller的CreateVolume創(chuàng)建存儲并創(chuàng)建pv與之前的pvc綁定。

Pv-controller:當?shù)讓哟鎯蕚浜么鎯臻g后,該sidecar會更新PVC的狀態(tài)為bound。

2.3.2.存儲卷掛載流程

在POD的描述yaml文件里,會指定使用的存儲卷PVC。創(chuàng)建POD后,K8s的調度器會選擇一個合適的節(jié)點來啟動POD,然后attacher會把PVC連接到指定節(jié)點上,csi-node會把存儲卷掛載到POD中。

wKgZombEcqCAAqLnAAGHgky1edc954.png

圖中包含兩個k8s系統(tǒng)提供的用于對接csi的組件:

external-attacher:會 watch VolumeAttachment 對象。根據(jù) .spec.attacher 判斷是不是需要自己處理,如果是則調用ControllerPublishVolume 方法,將.spec.persistentVolumeName 這個 Volume attach 到 .spec.nodeName 這個節(jié)點上。

AD controller: 會 watch Pod 對象,利用Pod 的 Volume 列表計算出 該 Node 上的 PV 列表,然后和 node.Status.VolumesAttached 值進行對比,沒有attach 的話就執(zhí)行 attach 操作。

3. 方案測試結果

3.1. Pod掛盤

通過相應的 yaml 描述文件,可以完成創(chuàng)建PVC,刪除PVC,創(chuàng)建/刪除snapshot,在POD中掛載PVC,并驗證操作成功。經(jīng)驗證可知,Mayastor原生支持的操作,在添加Gateway之后,仍可以支持。

操作截圖如下:

wKgZombEcqyAC9yhAAJ7RsUaw7U655.png

運行kubectl describe pod snap-mayagate-1命令查看pod,結果如下:

wKgaombEcraAZ4J8AAMyPcNr-Yg970.png

可以連進pod進行簡單的寫操作測試:

wKgaombEcruAZ_DeAAOSwJtabYA785.png

3.2. 性能對比

本方案基于單節(jié)點Mayastor創(chuàng)建單副本存儲池,在以下測試場景與傳統(tǒng)Mayastor方案進行對比:

io-engine threads:設置io-engine的線程個數(shù)為2,4,6,8,分別測試;

Transport:Mayastor采用NVMe over TCP,Gateway采用NVMe over RDMA;

IO方式:隨機讀,隨機寫,順序讀,順序寫,30%寫的混合讀寫;

不同的測試采樣位置:

在Gateway/io-engine本地,目標是使用本地連接提供測試基準數(shù)據(jù)

在host通過nvme-cli的connect創(chuàng)建盤符來訪問,這是host側采用smartNic的場景

在host通過DPU直通來訪問存儲,是我們主要關注的測試case

考慮多個性能指標:測試的性能指標包括iops,吞吐,延遲和host cpu消耗。

(1) 隨機寫延遲分析

隨機寫延遲的測試結果,如下圖所示:

wKgZombEcsSAZCqZAAFPzsIy5TA502.png

對比TCP和RDMA在不同地方的采樣,可知,io-engine所在節(jié)點本地訪問延遲較小,在另外一個節(jié)點訪問,TCP延遲增加了一個數(shù)量級,而RDMA延遲增加較小。

(2)順序寫帶寬分析

順序寫帶寬的測試結果,如下圖所示:

wKgaombEcsuAR3JTAAEbjvf1xwA432.png

通過在本地直接對于NVMe SSD硬盤測試,發(fā)現(xiàn)SSD可支持帶寬大約2680MiB/s左右。從表中可以看到,使用nvme cli連接,無論是TCP還是RDMA,都可以接近后端存儲支持的最大帶寬。單獨看DPU直通的數(shù)據(jù),RDMA的性能遠遠超過TCP的性能。這是因為TCP由軟件棧處理,需要消耗大量CPU資源,DPU內僅有4core,CPU資源不足造成的。

(3) 隨機寫IOPS分析

隨機寫IOPS的測試結果,如下圖所示:

wKgaombEctSASftIAAEF60J9QYk206.png

可以看到:

1.RDMA的io-engine本地和host nvme-cli兩個測試位置曲線接近,說明RDMA是完全卸載到硬件處理,性能好;

2. TCP的兩種方式性能有差別,特別是TCP DPU直通方式的上限是200kiops,說明瓶頸是在DPU的CPU上。

另外把Host cli訪問的數(shù)據(jù)單獨拿出來,用這兩行單獨作圖,如下:

wKgaombEct2AI9_6AACJLFIK2TE456.png

可以看到,當io-engine thread個數(shù)為4時,RDMA Gateway已經(jīng)基本可以壓滿后端存儲;再增加threads個數(shù)影響不大。但TCP直連時,性能還是會隨著threads增加而增大。這說明RDMA在相對較低的資源條件下就可以達到較高的性能,其加速效果較好。

(4)隨機讀IOPS分析

隨機讀IOPS的測試結果,如下圖所示:

wKgaombEcueAQKKbAAGMTkpVmCg039.png

可以看到TCP DPU直通方式隨機讀的上限是150kiops,說明瓶頸是在DPU的CPU上。

另外把Host cli訪問的數(shù)據(jù)單獨拿出來,用這兩行單獨作圖,如下:

wKgZombEcu6AS_5KAADBYdr1bJk388.png

可以看到,當io-engine thread個數(shù)為2時,Mayastor TCP方式與RDMA Gateway相差不大,說明瓶頸在于存儲后端;當io-engine thread個數(shù)大于等于4時,RDMA Gateway的性能要比TCP方式大約提高20%左右。

對于30%寫的混合讀寫方式,由于讀操作占主體,跟上面讀操作的結果類似,在Host cli情形下,RDMA Gateway的性能要比TCP方式大約提高20%左右。

(5) Host側CPU使用分析

在fio測試過程中,通過腳本記錄Host上top命令的輸出信息,獲取CPU的使用信息。

下圖是用Host cli連接時使用CPU的截圖記錄, TCP協(xié)議與RDMA協(xié)議的對比。(測試中Mayastor io-engine 采用8 core。)

測試命令是:

fio -direct=1 -iodepth=64 -rw=randwrite -ioengine=libaio -size=100G -bs=4k -numjobs=16 -runtime=300 -group_reporting -filename=/dev/filename -name=Rand_Write_Testing

依次對于三個不同的掛接設備進行測試:/dev/nvme2n1是Host側TCP cli;/dev/nvme3n1是Host側RDMA cli;/dev/nvme0n26是DPU側RDMA直通。

wKgZombEcveATYYVAAIFWbngEPg431.pngwKgZombEcv2AQ-NHAAD0yPwl2fg023.png

在3個掛載盤上分別做fio測試的IOPS結果分別是:655k,684k,646k。可以看到測試出的性能結果相差不大。上圖是測試過程中通過腳本記錄的CPU使用情況??梢钥吹?,相對于TCP,使用RDMA協(xié)議可以節(jié)省大量的CPU。

4. 方案優(yōu)勢總結

1、顯著提升性能:

通過前面測試數(shù)據(jù)可以看到,在DPU直通連入的場景下,本方案比原生的Mayastor方案隨機寫IOPS性能提升40%左右,隨機讀IOPS性能提升20%左右。在DPU直通的場景下,TCP方式延約200毫秒,RDMA方式約80毫秒,本方案可以減少60%左右的時延。這是因為本方案充分利用了RDMA的超低延遲和高性能特性。RDMA的零拷貝和繞過CPU的傳輸方式極大地減少數(shù)據(jù)傳輸過程中的延遲和CPU消耗,使Mayastor能夠更高效地處理NVMe SSD的讀寫請求。

2、優(yōu)化資源利用:

通過前面測試數(shù)據(jù)可以看到,采用RDMA的方式連接后端存儲,相對于TCP方式可以節(jié)省50%左右的Host cpu。本方案通過NVMe over RDMA減少Mayastor對CPU和內存的占用,使系統(tǒng)資源能夠更多地用于其他計算任務,這有助于提升Mayastor的整體穩(wěn)定性和可靠性,同時降低運營成本。

3、增強可擴展性和靈活性:

RDMA技術還提供了更好的可擴展性和靈活性。隨著數(shù)據(jù)中心規(guī)模的擴大和存儲需求的增長,Mayastor可以通過支持NVMe over RDMA來更輕松地應對這些挑戰(zhàn)。RDMA的遠程直接內存訪問特性使得跨節(jié)點的數(shù)據(jù)傳輸更加高效和可靠,有助于構建更強大的分布式存儲系統(tǒng)。

4、支持更多應用場景:

有了NVMe over RDMA的支持,Mayastor將能夠更好地滿足那些對性能有極高要求的應用場景。無論是高頻交易、實時數(shù)據(jù)分析還是大規(guī)模數(shù)據(jù)庫事務處理,Mayastor都將能夠提供更加穩(wěn)定和高效的數(shù)據(jù)存儲服務。

綜上所述,從Mayastor影響的角度來看,NVMe over RDMA技術相較于TCP在性能、延遲和資源消耗方面均展現(xiàn)出顯著優(yōu)勢。對于追求極致性能的數(shù)據(jù)中心和應用場景來說,Mayastor未來能夠支持NVMe over RDMA將是一個重要的里程碑,有助于進一步提升其市場競爭力和用戶體驗。

本方案來自于中科馭數(shù)軟件研發(fā)團隊,團隊核心由一群在云計算、數(shù)據(jù)中心架構、高性能計算領域深耕多年的業(yè)界資深架構師和技術專家組成,不僅擁有豐富的實戰(zhàn)經(jīng)驗,還對行業(yè)趨勢具備敏銳的洞察力,該團隊致力于探索、設計、開發(fā)、推廣可落地的高性能云計算解決方案,幫助最終客戶加速數(shù)字化轉型,提升業(yè)務效能,同時降低運營成本。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 云計算
    +關注

    關注

    39

    文章

    7652

    瀏覽量

    137011
  • DPU
    DPU
    +關注

    關注

    0

    文章

    351

    瀏覽量

    24072
  • RDMA
    +關注

    關注

    0

    文章

    75

    瀏覽量

    8906
  • 云原生
    +關注

    關注

    0

    文章

    239

    瀏覽量

    7924
收藏 人收藏

    評論

    相關推薦

    深入了解RDMA技術

    Explorer,專注于高性能網(wǎng)絡、虛擬化網(wǎng)絡及網(wǎng)卡的測試方案研究。熟悉dpdk,rdma,sdn等技術的應用與解決方案。
    的頭像 發(fā)表于 12-26 09:23 ?1506次閱讀
    深入了解<b class='flag-5'>RDMA</b><b class='flag-5'>技術</b>

    RDMA RNIC虛擬化方案

    遠程直接內存訪問(Remote Direct Memory Access,RDMA技術允許應用程序繞過操作系統(tǒng)內核,以零拷貝的方式和遠程計算機進行網(wǎng)絡通信,具有低延遲和高帶寬的優(yōu)勢。RDMA協(xié)議
    的頭像 發(fā)表于 01-23 17:23 ?1568次閱讀
    <b class='flag-5'>RDMA</b> RNIC虛擬化<b class='flag-5'>方案</b>

    利用CXL技術重構基于RDMA的內存解耦合

    本文提出了一種基于RDMA和CXL的新型低延遲、高可擴展性的內存解耦合系統(tǒng)Rcmp。其顯著特點是通過CXL提高了基于RDMA系統(tǒng)的性能,并利用RDMA克服了CXL的距離限制。
    發(fā)表于 02-29 10:05 ?2235次閱讀
    利用CXL<b class='flag-5'>技術</b>重構基于<b class='flag-5'>RDMA</b>的內存解耦合

    立體智慧倉儲解決方案.#云計算

    解決方案智能設備
    學習電子知識
    發(fā)布于 :2022年10月06日 19:45:47

    采用Sun StorEdge技術創(chuàng)建存儲解決方案

    采用Sun StorEdge技術創(chuàng)建存儲解決方案用戶評價:Etagon公司開發(fā)經(jīng)理Ely Pinto說,“Sun StorEdge產(chǎn)品的高性能和低成本特性,使之成為我們幫助客戶實現(xiàn)快速投資回報
    發(fā)表于 11-13 21:21

    基于Zigbee技術的智能家居解決方案

    關于智能家居Zigbee技術解決方案,基于CC2530芯片
    發(fā)表于 03-26 17:59

    基于RDMA技術的Spark Shuffle性能提升

    一篇文章教你使用RDMA技術提升Spark的Shuffle性能
    發(fā)表于 10-28 16:46

    技術盛宴 | 淺析RDMA網(wǎng)絡下MMU水線設置

    了廣泛應用。為保障RDMA的穩(wěn)定運行,基礎網(wǎng)絡需要提供端到端無損零丟包及超低延時的能力,這也催生了PFC、ECN等網(wǎng)絡流控技術RDMA網(wǎng)絡中的部署。在RDMA網(wǎng)絡中,如何合理設置MM
    發(fā)表于 11-22 12:44 ?1090次閱讀

    RDMA是什么?RDMA網(wǎng)卡有什么作用?

    近幾年RDMA這個詞在行業(yè)內炒的如火如荼,但是很多人表示RDMA具體是什么?主要應用在哪些領域,有什么作用?RDMA都有哪幾種協(xié)議?今天小編就這幾個問題給大家科普一下。
    發(fā)表于 12-27 17:15 ?1.2w次閱讀

    RDMA技術簡介 RDMA的控制通路和數(shù)據(jù)通路方案

    RDMA 技術基于傳統(tǒng)以太網(wǎng)的網(wǎng)絡概念,但與以太網(wǎng)網(wǎng)絡中的同類技術存在差異。關鍵區(qū) 別在于,RDMA 提供了一種消息服務,應用程序可以使用該服務直接訪問遠程計算機上的虛擬內存。
    發(fā)表于 04-10 09:59 ?1641次閱讀

    RDMA技術簡介

    RDMA 指的是一種遠程直接存儲器訪問技術。具體到協(xié)議層面,它主要包含 InfiniBand、RoCE 和 iWARP 三種協(xié)議。三種協(xié)議都符合 RDMA 標準,共享相同的上層用戶接口(Verbs),只是在不同層次上有一些差別。
    的頭像 發(fā)表于 04-13 10:48 ?3451次閱讀

    RDMA技術簡介

    iWARP(Internet Wide Area RDMA Protocol)是 IETF 定義的基于 TCP 的 RDMA,它和RoCE v2 都可以路由。因為 TCP 是面向連接的可靠協(xié)議,這使
    的頭像 發(fā)表于 04-20 09:49 ?2905次閱讀
    <b class='flag-5'>RDMA</b><b class='flag-5'>技術</b>簡介

    Redis RDMA改造方案分析

    RDMA傳輸?shù)倪m配,從業(yè)務場景的使用角度來看,大致可分為如下幾種類型。
    的頭像 發(fā)表于 08-16 10:22 ?2147次閱讀
    Redis <b class='flag-5'>RDMA</b>改造<b class='flag-5'>方案</b>分析

    rdma網(wǎng)絡是什么?RDMA網(wǎng)絡有什么應用場景?

    RDMA(Remote Direct Memory Access)網(wǎng)絡是一種技術,它通過網(wǎng)絡直接在計算機之間傳輸數(shù)據(jù),而無需雙方操作系統(tǒng)的介入。這種技術可以允許高吞吐、低延遲的網(wǎng)絡通信,尤其適合在大規(guī)模并行計算機集群中使用。
    的頭像 發(fā)表于 12-22 09:30 ?1024次閱讀

    以太網(wǎng)RDMA RoCE的技術局限

    上期我們講到了RDMA的WHY,WHAT & HOW(AI網(wǎng)絡背景下RDMA的Why,What & How),這一期我們來談一談RDMA的不足。
    的頭像 發(fā)表于 10-22 10:02 ?52次閱讀
    以太網(wǎng)<b class='flag-5'>RDMA</b> RoCE的<b class='flag-5'>技術</b>局限