0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

采用GPU求解大幅提升性能的CFD模型

jf_0T4ID6SG ? 來源:Ansys ? 作者:Steve Defibaugh ? 2022-10-17 09:56 ? 次閱讀

你可以設(shè)想一下,如果每項任務(wù)都能節(jié)省幾分鐘、幾小時甚至幾天的時間,那一整年下來能節(jié)省多少時間啊。如果任務(wù)涉及計算流體動力學(xué)(CFD)仿真,且希望減少求解時間,那么Ansys Fluent GPU求解器正是您想要的解決方案。

無論是求解10萬個單元還是1億個單元的模型,傳統(tǒng)的減少仿真時間的方法都是使用大量CPU進(jìn)行求解。近年來,另一種方法開始受到行業(yè)的關(guān)注,那就是使用圖形處理單元,簡稱GPU。這種方法首先是將CPU求解的某些部分交給GPU來處理,從而加速整體求解時間,這種做法被稱為“轉(zhuǎn)移”到GPU。

早在2014年,Ansys Fluent就采用了這項“轉(zhuǎn)移”技術(shù),而今年我們則將GPU技術(shù)的使用發(fā)揮到全新的高度,在Fluent中推出了原生多GPU(multi-GPU)求解器。本地部署方案能提供GPU上的所有求解器特性,避免CPU和GPU之間因交換數(shù)據(jù)造成的開銷,從而相對于轉(zhuǎn)移技術(shù)能實現(xiàn)更好的提速。

釋放GPU對CFD的全部潛力需要將整個代碼運(yùn)行在GPU上。

在系列博客的上半部分中,我們重點(diǎn)介紹了大型汽車外氣動仿真的32倍提速案例,不過并非所有用戶的仿真模型能達(dá)到如此大的規(guī)模。本文作為系列內(nèi)容的下半部分,將重點(diǎn)介紹GPU針對包含更多物理功能的小規(guī)模模型的優(yōu)勢,如多孔介質(zhì)和共軛傳熱(CHT)。

各種不同規(guī)模的CFD仿真提速

從51.2萬個單元到700多萬個單元,本文介紹的模型采用GPU求解都能大幅提升性能。而且無需采用最昂貴的服務(wù)器級GPU就能大幅提升性能,因為Fluent GPU求解器可以使用您的筆記本或工作站GPU就能顯著縮短求解時間。口說無憑,請繼續(xù)往下看,了解原生多GPU求解器如何實現(xiàn)提速:

進(jìn)氣系統(tǒng)提速8.32倍

牽引逆變器提速8.6倍

兩種不同的換熱器設(shè)計分別提速15.47倍和11倍

通過多孔過濾器的氣流

汽車進(jìn)氣系統(tǒng)吸入的氣體通過過濾器清除雜物,讓清潔空氣進(jìn)入引擎。這個仿真涉及710萬個單元,過濾器模型為多孔介質(zhì),粘滯阻力為1e+8m-2,慣性阻力為2,500m-1??諝饬魅脒M(jìn)氣系統(tǒng)的質(zhì)量流率為0.08kg/s。

用一個NVIDIA A100 GPU求解后,優(yōu)化進(jìn)氣系統(tǒng)可實現(xiàn)8.32倍的提速。

我們采用四種不同的硬件配置求解該模型,三種配置采用Intel Xeon Gold 6242核心,一種配置采用一個NVIDIA A100 Tensor Core GPU。

使用單個NVIDIA A100 GPU相對于采用32個Intel Xeon Gold核心求解而言,能提速8.3倍。

73f90214-4d6d-11ed-a3b6-dac502259ad0.png

使用單個NVIDIA A100 GPU仿真通過多孔介質(zhì)的氣流相對于32個Intel Xeon Gold核心而言,能實現(xiàn)8.3倍的提速

使用共軛傳熱建模(CHT)進(jìn)行熱管理

在許多工業(yè)應(yīng)用中,考慮到流體流動時造成的熱效應(yīng)至關(guān)重要。為準(zhǔn)確捕獲系統(tǒng)的熱行為,流體的傳熱與相鄰金屬的熱傳導(dǎo)耦合往往非常重要。我們的原生GPU求解器針對這種耦合CHT問題展示出了強(qiáng)大的提速特性。

以下給出三種涉及CHT的不同熱仿真,一個為400萬個單元的水冷式牽引逆變器,一個為140萬個單元的百葉窗翅片換熱器,還有一個為512,000個單元的立式散熱器。

水冷式牽引逆變器

涉及CHT的牽引逆變器仿真采用一個NVIDIA A100 GPU求解,可實現(xiàn)8.6倍的提速。

牽引逆變器從高壓電池獲得直流電(DC),并將其轉(zhuǎn)為交流電(AC)發(fā)送給電機(jī)。熱管理對牽引逆變器確保安全性和長期使用壽命至關(guān)重要。

以上所示模型為400萬個單元的水冷式牽引逆變器,其具有4個絕緣柵雙極晶體管IGBT),熱負(fù)載為400 W。25℃的水以0.5 kg/s的速度流過外殼實現(xiàn)制冷,并使用對流邊界條件對周圍空氣的熱消耗進(jìn)行建模。

采用一個NVIDIA A100 GPU求解問題,相對于32個Intel Xeon Gold 6242核心而言,可提速8.6倍。

百葉窗翅片換熱器

換熱器模型通過百葉窗翅片換熱器實現(xiàn)強(qiáng)制對流。這個待求解的問題涉及20℃的空氣以4 m/s的速度通過鋁制百葉窗翅片,以實現(xiàn)銅管制冷。

為獲得基準(zhǔn),我們在8個Intel Xeon Gold 6242核心上運(yùn)行了140萬個單元的模型。在一個NVIDIA A100 GPU上運(yùn)行完全相同的模型,可實現(xiàn)15.5倍的提速。

百葉窗翅片換熱器的溫度分布在一個NVIDIA A100上求解速度快15.47倍。

77f60b28-4d6d-11ed-a3b6-dac502259ad0.png

對百葉窗翅片換熱器而言,單GPU求解可實現(xiàn)15.47倍的提速

立式散熱器

最后一個問題涉及一個自由對流五翅片鋁制散熱器,基座保持恒溫76.85℃,周邊空氣環(huán)境溫度為16.85℃。

使用安裝有一個NVIDIA Quadro RTX 5000 GPU的一臺筆記本電腦求解包含512,000個單元的外殼,相對于采用六核Intel Core i7-11850H的筆記本電腦而言,可實現(xiàn)11倍的提速。

即便只采用一個NVIDIA Quadro RTX 5000筆記本顯卡GPU,使用Fluent中的原生多GPU求解器也能大幅縮短求解時間。如果采用類似的工作站圖形卡,還能進(jìn)一步提高性能。

采用一個NVIDIA Quadro RTX 5000 GPU進(jìn)行求解,512,000個單元的散熱器仿真能實現(xiàn)11倍的提速。

通過GPU實現(xiàn)CFD仿真變革

Fluent用戶現(xiàn)在能在只有一個GPU的筆記本或工作站上獲得強(qiáng)大功能和靈活性,當(dāng)然也可以擴(kuò)展至多GPU服務(wù)器上。利用您已有的硬件加速CFD仿真,獲得的提速超過您的想象。

Fluent中的原生多GPU求解器能運(yùn)行在2016年之后推出的任何NVIDIA卡上,安裝的驅(qū)動程序版本不低于11.0或更新版本。

Ansys在GPU技術(shù)運(yùn)用于仿真領(lǐng)域一直是領(lǐng)軍者,憑借新型求解器技術(shù),將我們的技術(shù)水平提升到新的高度。原生GPU求解器中的所有特性都采用與Fluent CPU求解器相同的離散和數(shù)值方法,能在更短的時間內(nèi)為用戶提供他們所期待的準(zhǔn)確結(jié)果。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    27

    文章

    4635

    瀏覽量

    128449
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    12

    文章

    8859

    瀏覽量

    84957
  • CFD
    CFD
    +關(guān)注

    關(guān)注

    1

    文章

    101

    瀏覽量

    18330
  • 求解器
    +關(guān)注

    關(guān)注

    0

    文章

    77

    瀏覽量

    4495

原文標(biāo)題:Ansys Fluent:全力釋放GPU的無限潛力(下)

文章出處:【微信號:西莫電機(jī)論壇,微信公眾號:西莫電機(jī)論壇】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?56次閱讀

    GPU性能服務(wù)器配置

    GPU性能服務(wù)器作為提升計算速度和效率的關(guān)鍵設(shè)備,在各大應(yīng)用場景中發(fā)揮著越來越重要的作用。在此,petacloud.ai小編為你介紹GPU性能
    的頭像 發(fā)表于 10-21 10:42 ?73次閱讀

    模型發(fā)展下,國產(chǎn)GPU的機(jī)會和挑戰(zhàn)

    電子發(fā)燒友網(wǎng)站提供《大模型發(fā)展下,國產(chǎn)GPU的機(jī)會和挑戰(zhàn).pdf》資料免費(fèi)下載
    發(fā)表于 07-18 15:44 ?6次下載
    大<b class='flag-5'>模型</b>發(fā)展下,國產(chǎn)<b class='flag-5'>GPU</b>的機(jī)會和挑戰(zhàn)

    RaftKeeper v2.1.0版本發(fā)布,性能大幅提升!

    新特性,包括異步創(chuàng)建 snapshot。該版本的最大亮點(diǎn)在于性能優(yōu)化:寫請求性能提升 11%, 讀寫混合場景更是大幅提升了 118% 。本文
    的頭像 發(fā)表于 07-15 15:10 ?260次閱讀
    RaftKeeper v2.1.0版本發(fā)布,<b class='flag-5'>性能</b><b class='flag-5'>大幅</b><b class='flag-5'>提升</b>!

    摩爾線程與智譜AI完成大模型性能測試與適配

    近日,摩爾線程與智譜AI在人工智能領(lǐng)域開展了一輪深入的合作,共同對GPU模型進(jìn)行了適配及性能測試。此次測試不僅涵蓋了大模型的推理能力,還涉及了基于摩爾線程夸娥(KUAE)千卡智算集群
    的頭像 發(fā)表于 06-14 16:40 ?854次閱讀

    采用笛卡爾網(wǎng)格的積鼎Virtualflow,如何平衡CFD模擬的精度與效率?

    Virtualflow是一款專注于多相流仿真的國產(chǎn)自主CFD軟件,采用笛卡爾網(wǎng)格技術(shù),為用戶提供了一個高效、易用的一站式流體仿真平臺。 采用獨(dú)創(chuàng)的浸沒表面技術(shù)(IST),可實現(xiàn)導(dǎo)入CAD文件后,自動
    的頭像 發(fā)表于 05-22 13:58 ?423次閱讀
    <b class='flag-5'>采用</b>笛卡爾網(wǎng)格的積鼎Virtualflow,如何平衡<b class='flag-5'>CFD</b>模擬的精度與效率?

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    人工智能模型在規(guī)模和復(fù)雜性上呈指數(shù)級增長,對先進(jìn)計算能力和內(nèi)存容量的需求變得至關(guān)重要。Blackwell圖形處理器架構(gòu)通過在性能和效率方面實現(xiàn)大幅躍升,解決了這些需求。 HGX B200 訓(xùn)練
    發(fā)表于 05-13 17:16

    模型時代,國產(chǎn)GPU面臨哪些挑戰(zhàn)

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)隨著人工智能技術(shù)的快速發(fā)展,對GPU計算能力的需求也越來越高。國內(nèi)企業(yè)也正在不斷提升GPU性能,以滿足日益增長的應(yīng)用需求。然而,相較于國際巨頭,國內(nèi)
    的頭像 發(fā)表于 04-03 01:08 ?4509次閱讀
    大<b class='flag-5'>模型</b>時代,國產(chǎn)<b class='flag-5'>GPU</b>面臨哪些挑戰(zhàn)

    國產(chǎn)GPU在AI大模型領(lǐng)域的應(yīng)用案例一覽

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)近一年多時間,隨著大模型的發(fā)展,GPU在AI領(lǐng)域的重要性再次凸顯。雖然相比英偉達(dá)等國際大廠,國產(chǎn)GPU起步較晚、聲勢較小。不過近幾年,國內(nèi)不少GPU廠商成
    的頭像 發(fā)表于 04-01 09:28 ?3561次閱讀
    國產(chǎn)<b class='flag-5'>GPU</b>在AI大<b class='flag-5'>模型</b>領(lǐng)域的應(yīng)用案例一覽

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    現(xiàn)場可編程門陣列 (FPGA) 解決了 GPU 在運(yùn)行深度學(xué)習(xí)模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業(yè)受益匪淺。英偉達(dá) (Nvidia) 和 AMD 等公司的股價也大幅
    發(fā)表于 03-21 15:19

    英偉達(dá)發(fā)布性能大幅提升的新款B200 AI GPU

    英偉達(dá)宣稱,B200在性能上比以往最好的GPU快30倍不止。由它構(gòu)成的服務(wù)器集群相比上一代,運(yùn)算能力飛躍性提升,甚至能使大語言模型的訓(xùn)練速度翻番。
    的頭像 發(fā)表于 03-20 09:37 ?672次閱讀

    英偉達(dá)H200性能怎么樣

    英偉達(dá)H200性能卓越,集成了高性能CPU和GPU,通過高速NVLink連接,消除了傳統(tǒng)計算瓶頸。其配備了高達(dá)141GB的HBM3e高帶寬內(nèi)存,大幅
    的頭像 發(fā)表于 03-07 16:39 ?868次閱讀

    揭秘GPU: 高端GPU架構(gòu)設(shè)計的挑戰(zhàn)

    在計算領(lǐng)域,GPU(圖形處理單元)一直是性能飛躍的代表。眾所周知,高端GPU的設(shè)計充滿了挑戰(zhàn)。GPU的架構(gòu)創(chuàng)新,為軟件承接大模型訓(xùn)練和推理場
    的頭像 發(fā)表于 12-21 08:28 ?803次閱讀
    揭秘<b class='flag-5'>GPU</b>: 高端<b class='flag-5'>GPU</b>架構(gòu)設(shè)計的挑戰(zhàn)

    NVIDIA Merlin 助力陌陌推薦業(yè)務(wù)實現(xiàn)高性能訓(xùn)練優(yōu)化

    通過 Merlin 大幅提升大規(guī)模深度多目標(biāo)精排模型訓(xùn)練性能 本案例中,NVIDIA 團(tuán)隊與陌陌推薦系統(tǒng)團(tuán)隊深度合作,共同使用 NVIDIA GPU
    的頭像 發(fā)表于 11-09 10:45 ?296次閱讀
    NVIDIA Merlin 助力陌陌推薦業(yè)務(wù)實現(xiàn)高<b class='flag-5'>性能</b>訓(xùn)練優(yōu)化

    求解大型COMSOL模型需要多少內(nèi)存?

    求解大型COMSOL模型需要多少內(nèi)存? COMSOL是一種非常強(qiáng)大的跨學(xué)科有限元分析軟件,可以用于解決各種復(fù)雜的問題,包括流體力學(xué)、電磁學(xué)、熱傳遞、結(jié)構(gòu)力學(xué)等。但是,在處理大型模型時,COMSOL
    的頭像 發(fā)表于 10-29 11:35 ?1686次閱讀