0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PyTorch教程-13.7。參數(shù)服務(wù)器

jf_pJlTbmA9 ? 來(lái)源:PyTorch ? 作者:PyTorch ? 2023-06-05 15:44 ? 次閱讀

隨著我們從單個(gè) GPU 轉(zhuǎn)移到多個(gè) GPU,再轉(zhuǎn)移到包含多個(gè) GPU 的多臺(tái)服務(wù)器,可能都分布在多個(gè)機(jī)架和網(wǎng)絡(luò)交換機(jī)上,我們的分布式和并行訓(xùn)練算法需要變得更加復(fù)雜。細(xì)節(jié)很重要,因?yàn)椴煌幕ミB具有非常不同的帶寬(例如,NVLink 可以在適當(dāng)?shù)脑O(shè)置下跨 6 個(gè)鏈路提供高達(dá) 100 GB/s 的速度,PCIe 4.0(16 通道)提供 32 GB/s,而即使是高速 100GbE 以太網(wǎng)也只能達(dá)到到 10 GB/秒)。同時(shí),期望統(tǒng)計(jì)建模師成為網(wǎng)絡(luò)和系統(tǒng)方面的專家是不合理的。

Smola 和 Narayanamurthy ( 2010 )在分布式潛變量模型的背景下引入了參數(shù)服務(wù)器的核心思想 。隨后在Ahmed等人中描述了推拉語(yǔ)義。( 2012 )以及Li等人對(duì)系統(tǒng)和開(kāi)源庫(kù)的描述 。(2014 年)。在下文中,我們將激勵(lì)效率所需的組件。

13.7.1。數(shù)據(jù)并行訓(xùn)練

讓我們回顧一下分布式訓(xùn)練的數(shù)據(jù)并行訓(xùn)練方法。我們將使用它來(lái)排除本節(jié)中的所有其他內(nèi)容,因?yàn)樗趯?shí)踐中實(shí)施起來(lái)要簡(jiǎn)單得多。由于現(xiàn)在 GPU 有足夠的內(nèi)存,因此幾乎沒(méi)有任何用例(除了圖上的深度學(xué)習(xí))首選任何其他并行策略。圖 13.7.1描述了我們?cè)?3.5 節(jié)中實(shí)現(xiàn)的數(shù)據(jù)并行的變體 。其中的關(guān)鍵方面是在將更新的參數(shù)重新廣播到所有 GPU 之前,梯度的聚合發(fā)生在一個(gè) GPU (GPU 0) 上。

pYYBAGR9Ou6AfMAZAAUUQF_GMnw228.svg

圖 13.7.1左:?jiǎn)?GPU 訓(xùn)練。右圖:多 GPU 訓(xùn)練的一種變體:(1) 我們計(jì)算損失和梯度,(2) 所有梯度都聚集在一個(gè) GPU 上,(3) 發(fā)生參數(shù)更新并將參數(shù)重新分配給所有 GPU。

回想起來(lái),在 GPU 0 上聚合的決定似乎是臨時(shí)的。畢竟,我們還不如聚合在 CPU 上。事實(shí)上,我們甚至可以決定在一個(gè) GPU 上聚合一些參數(shù),在另一個(gè) GPU 上聚合一些其他參數(shù)。只要優(yōu)化算法支持這一點(diǎn),就沒(méi)有我們不能這樣做的真正原因。例如,如果我們有四個(gè)具有相關(guān)梯度的參數(shù)向量 g1,…,g4我們可以在一個(gè) GPU 上聚合梯度gi (i=1,…,4).

這種推理似乎是武斷和輕率的。畢竟,數(shù)學(xué)自始至終都是一樣的。然而,我們正在處理真實(shí)的物理硬件,其中不同的總線具有不同的帶寬,如第 13.4 節(jié)所述 ??紤]一個(gè)真實(shí)的 4 路 GPU 服務(wù)器,如圖13.7.2所示。如果連接特別好,它可能有 100 GbE 網(wǎng)卡。更典型的數(shù)字在 1–10 GbE 范圍內(nèi),有效帶寬為 100 MB/s 至 1 GB/s。由于 CPU 的 PCIe 通道太少而無(wú)法直接連接到所有 GPU(例如,消費(fèi)級(jí) Intel CPU 有 24 條通道),我們需要一個(gè) 多路復(fù)用器。CPU 在 16x Gen3 鏈路上的帶寬為 16 GB/s。這也是每個(gè)人的速度GPU 連接到交換機(jī)。這意味著設(shè)備之間的通信更加有效。

poYBAGR9OvCAKeVxAALSlKI-2UA368.svg

圖 13.7.2一個(gè) 4 路 GPU 服務(wù)器。

為了論證,我們假設(shè)梯度為 160 MB。在這種情況下,將梯度從所有剩余的 3 個(gè) GPU 發(fā)送到第四個(gè) GPU 需要 30 毫秒(每次傳輸需要 10 毫秒 = 160 MB / 16 GB/s)。再加上 30 毫秒來(lái)傳回權(quán)重向量,我們總共需要 60 毫秒。如果我們將所有數(shù)據(jù)發(fā)送到 CPU,我們會(huì)受到 40 毫秒的懲罰,因?yàn)樗膫€(gè) GPU 中的每一個(gè)都需要將數(shù)據(jù)發(fā)送到 CPU,總共需要 80 毫秒。最后假設(shè)我們能夠?qū)⑻荻确殖?4 個(gè)部分,每個(gè)部分 40 MB?,F(xiàn)在我們可以同時(shí)在不同的 GPU 上聚合每個(gè)部分因?yàn)?PCIe 交換機(jī)在所有鏈路之間提供全帶寬操作。這需要 7.5 毫秒而不是 30 毫秒,同步操作總共需要 15 毫秒。簡(jiǎn)而言之,根據(jù)我們同步參數(shù)的方式,同一操作可能需要 15 毫秒到 80 毫秒不等。 圖 13.7.3描述了交換參數(shù)的不同策略。

poYBAGR9OvaANmYjAAfEpJnJaso117.svg

圖 13.7.3參數(shù)同步策略。

請(qǐng)注意,在提高性能方面,我們還有另一種工具可供使用:在深度網(wǎng)絡(luò)中,需要一些時(shí)間來(lái)計(jì)算從頂部到底部的所有梯度。即使我們?nèi)栽诿τ跒槠渌麉?shù)組計(jì)算梯度,我們也可以開(kāi)始同步某些參數(shù)組的梯度。 有關(guān)如何在 Horovod中執(zhí)行此操作的詳細(xì)信息,請(qǐng)參見(jiàn)例如Sergeev 和 Del Balso ( 2018 )。

13.7.2。環(huán)同步

當(dāng)談到現(xiàn)代深度學(xué)習(xí)硬件上的同步時(shí),我們經(jīng)常會(huì)遇到大量定制的網(wǎng)絡(luò)連接。例如,AWS p3.16xlarge 和 NVIDIA DGX-2 實(shí)例共享圖 13.7.4的連接結(jié)構(gòu)。每個(gè) GPU 通過(guò) PCIe 鏈路連接到主機(jī) CPU,該鏈路最高運(yùn)行速度為 16 GB/s。此外,每個(gè) GPU 還有 6 個(gè) NVLink 連接,每個(gè)連接都能夠雙向傳輸 300 Gbit/s。這相當(dāng)于每個(gè)鏈接每個(gè)方向大約 18 GB/s。簡(jiǎn)而言之,總 NVLink 帶寬明顯高于 PCIe 帶寬。問(wèn)題是如何最有效地使用它。

pYYBAGR9OviAQtGGAALzHHWwL5k366.svg

圖 13.7.4 8 個(gè) V100 GPU 服務(wù)器上的 NVLink 連接(圖片由 NVIDIA 提供)。

事實(shí)證明,最佳同步策略是將網(wǎng)絡(luò)分解為兩個(gè)環(huán),并使用它們直接同步數(shù)據(jù) (Wang et al. , 2018)。圖 13.7.5 說(shuō)明網(wǎng)絡(luò)可以分解為具有雙 NVLink 帶寬的一個(gè)環(huán) (1-2-3-4-5-6-7-8-1) 和一個(gè) (1-4-6-3- 5-8-2-7-1) 具有常規(guī)帶寬。在這種情況下設(shè)計(jì)高效的同步協(xié)議并非易事。

poYBAGR9OvuAVHeVAAQettLYD7A393.svg

圖 13.7.5將 NVLink 網(wǎng)絡(luò)分解為兩個(gè)環(huán)。

考慮以下思想實(shí)驗(yàn):給定一環(huán)n 計(jì)算節(jié)點(diǎn)(或 GPU),我們可以將梯度從第一個(gè)節(jié)點(diǎn)發(fā)送到第二個(gè)節(jié)點(diǎn)。在那里它被添加到局部梯度并發(fā)送到第三個(gè)節(jié)點(diǎn),依此類推。后n?1步驟聚合梯度可以在最后訪問(wèn)的節(jié)點(diǎn)中找到。也就是說(shuō),聚合梯度的時(shí)間隨著節(jié)點(diǎn)的數(shù)量線性增長(zhǎng)。但如果我們這樣做,算法效率會(huì)很低。畢竟,任何時(shí)候都只有一個(gè)節(jié)點(diǎn)在通信。如果我們把梯度分解成 n塊并開(kāi)始同步塊i從節(jié)點(diǎn)開(kāi)始i?由于每個(gè)塊的大小1/n現(xiàn)在的總時(shí)間(n?1)/n≈1. 換句話說(shuō),隨著我們?cè)黾迎h(huán)的大小,聚合梯度所花費(fèi)的時(shí)間不會(huì)增加。這是一個(gè)相當(dāng)驚人的結(jié)果。圖 13.7.6 說(shuō)明了步驟的順序n=4節(jié)點(diǎn)。

poYBAGR9Ov2AMGOOAANP7bEnFT4734.svg

圖 13.7.6跨 4 個(gè)節(jié)點(diǎn)的環(huán)同步。每個(gè)節(jié)點(diǎn)開(kāi)始將部分梯度傳輸?shù)狡渥筻従樱钡娇梢栽谄溆亦従又姓业浇M裝的梯度。

如果我們使用跨 8 個(gè) V100 GPU 同步 160 MB 的相同示例,我們將得到大約 2?160MB/(3?18GB/s)≈6ms. 這比使用 PCIe 總線要好,即使我們現(xiàn)在使用 8 個(gè) GPU。請(qǐng)注意,在實(shí)踐中,這些數(shù)字會(huì)更糟一些,因?yàn)樯疃葘W(xué)習(xí)框架通常無(wú)法將通信組合成大量突發(fā)傳輸。

請(qǐng)注意,有一個(gè)常見(jiàn)的誤解,認(rèn)為環(huán)同步與其他同步算法根本不同。唯一的區(qū)別是與簡(jiǎn)單的樹(shù)相比,同步路徑稍微復(fù)雜一些。

13.7.3。多機(jī)訓(xùn)練

在多臺(tái)機(jī)器上進(jìn)行分布式訓(xùn)練增加了一個(gè)進(jìn)一步的挑戰(zhàn):我們需要與僅通過(guò)相對(duì)較低帶寬的結(jié)構(gòu)連接的服務(wù)器進(jìn)行通信,在某些情況下,這種結(jié)構(gòu)的速度可能會(huì)慢一個(gè)數(shù)量級(jí)以上。跨設(shè)備同步很棘手。畢竟,不同機(jī)器運(yùn)行訓(xùn)練代碼的速度會(huì)有細(xì)微差別。因此,如果我們想使用同步分布式優(yōu)化, 我們需要同步它們。圖 13.7.7說(shuō)明了分布式并行訓(xùn)練是如何發(fā)生的。

在每臺(tái)機(jī)器上讀?。ú煌模┮慌鷶?shù)據(jù),將其拆分到多個(gè) GPU 并傳輸?shù)?GPU 內(nèi)存。預(yù)測(cè)和梯度分別在每個(gè) GPU 批次上計(jì)算。

來(lái)自所有本地 GPU 的梯度聚合在一個(gè) GPU 上(或其中的一部分聚合在不同的 GPU 上)。

梯度被發(fā)送到 CPU。

CPU 將梯度發(fā)送到聚合所有梯度的中央?yún)?shù)服務(wù)器。

然后使用聚合梯度來(lái)更新參數(shù),并將更新后的參數(shù)廣播回各個(gè) CPU。

信息被發(fā)送到一個(gè)(或多個(gè))GPU。

更新后的參數(shù)分布在所有 GPU 上。

poYBAGR9OwKABsTYAAo4blsLnVE360.svg

圖13.7.7多機(jī)多GPU分布式并行訓(xùn)練。

這些操作中的每一個(gè)看起來(lái)都相當(dāng)簡(jiǎn)單。而且,事實(shí)上,它們可以在一臺(tái)機(jī)器上高效地執(zhí)行。但是,一旦我們查看多臺(tái)機(jī)器,我們就會(huì)發(fā)現(xiàn)中央?yún)?shù)服務(wù)器成為瓶頸。畢竟每臺(tái)服務(wù)器的帶寬是有限的,因此對(duì)于m工作人員將所有梯度發(fā)送到服務(wù)器所需的時(shí)間是O(m). 我們可以通過(guò)增加服務(wù)器數(shù)量來(lái)突破這個(gè)障礙n. 此時(shí)每臺(tái)服務(wù)器只需要存儲(chǔ)O(1/n)的參數(shù),因此更新和優(yōu)化的總時(shí)間變?yōu)?O(m/n). 無(wú)論我們正在處理多少工人,匹配這兩個(gè)數(shù)字都會(huì)產(chǎn)生恒定的縮放比例。在實(shí)踐中,我們使用同一臺(tái)機(jī)器作為工作人員和服務(wù)器。 圖 13.7.8說(shuō)明了該設(shè)計(jì)(詳見(jiàn) ( Li et al. , 2014 ))。特別是,確保多臺(tái)機(jī)器在沒(méi)有不合理延遲的情況下工作是非常重要的。

poYBAGR9OwSAP9_MAAPAcWuW3uo665.svg

圖 13.7.8頂部:?jiǎn)蝹€(gè)參數(shù)服務(wù)器是一個(gè)瓶頸,因?yàn)樗膸捠怯邢薜?。底部:多個(gè)參數(shù)服務(wù)器存儲(chǔ)部分具有聚合帶寬的參數(shù)。

13.7.4。鍵值存儲(chǔ)

在實(shí)踐中實(shí)施分布式多 GPU 訓(xùn)練所需的步驟并非易事。這就是為什么使用通用抽象是值得的,即具有重新定義的更新語(yǔ)義的鍵值存儲(chǔ)。

跨越許多工作人員和許多 GPU 的梯度計(jì)算i 可以定義為

(13.7.1)gi=∑k∈workers∑j∈GPUsgijk,

在哪里gijk是漸變的一部分i在 GPU 上拆分j工人的k. 此操作的關(guān)鍵方面是它是可交換歸約,也就是說(shuō),它將多個(gè)向量變成一個(gè)向量,并且應(yīng)用操作的順序無(wú)關(guān)緊要。這對(duì)我們的目的非常有用,因?yàn)槲覀儾恍枰ㄐ枰?duì)何時(shí)接收哪個(gè)梯度進(jìn)行細(xì)粒度控制。此外,請(qǐng)注意,此操作在不同的i.

這使我們能夠定義以下兩個(gè)操作:push和 pull,累積梯度,pull檢索聚合梯度。由于我們有很多不同的梯度集(畢竟我們有很多層),我們需要用一個(gè)鍵來(lái)索引梯度i. 這種與鍵值存儲(chǔ)的相似性,例如 Dynamo 中引入的鍵值存儲(chǔ) (DeCandia等人,2007 年)并非巧合。它們也滿足許多相似的特征,尤其是在涉及跨多個(gè)服務(wù)器分布參數(shù)時(shí)。

鍵值存儲(chǔ)的推拉操作描述如下:

push(key, value)將特定梯度(值)從工作人員發(fā)送到公共存儲(chǔ)。在那里該值被聚合,例如,通過(guò)將其相加。

pull(key, value)從公共存儲(chǔ)中檢索聚合值,例如,在組合所有 worker 的梯度之后。

通過(guò)將有關(guān)同步的所有復(fù)雜性隱藏在簡(jiǎn)單的推拉操作背后,我們可以將希望能夠用簡(jiǎn)單術(shù)語(yǔ)表達(dá)優(yōu)化的統(tǒng)計(jì)建模人員和需要處理分布式同步固有復(fù)雜性的系統(tǒng)工程師的關(guān)注分離開(kāi)來(lái)。

13.7.5。概括

同步需要高度適應(yīng)服務(wù)器內(nèi)的特定網(wǎng)絡(luò)基礎(chǔ)設(shè)施和連接。這會(huì)對(duì)同步所需的時(shí)間產(chǎn)生重大影響。

環(huán)同步對(duì)于 p3 和 DGX-2 服務(wù)器可能是最佳的。對(duì)于其他人可能不是那么多。

當(dāng)添加多個(gè)參數(shù)服務(wù)器以增加帶寬時(shí),分層同步策略效果很好。

13.7.6。練習(xí)

你能進(jìn)一步增加環(huán)同步嗎?提示:您可以雙向發(fā)送消息。

是否可以允許異步通信(同時(shí)計(jì)算仍在進(jìn)行中)?它如何影響性能?

如果我們?cè)陂L(zhǎng)時(shí)間運(yùn)行的計(jì)算過(guò)程中丟失了一臺(tái)服務(wù)器怎么辦?我們?nèi)绾卧O(shè)計(jì)容錯(cuò)機(jī)制來(lái)避免完全重新啟動(dòng)計(jì)算?

Discussions

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    12

    文章

    8874

    瀏覽量

    84984
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    795

    瀏覽量

    13088
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    什么是服務(wù)器虛擬化?私人云服務(wù)器

    什么是 服務(wù)器虛擬化 ? 服務(wù)器虛擬化是一種將物理服務(wù)器轉(zhuǎn)化為虛擬服務(wù)器的過(guò)程,使得多個(gè)虛擬服務(wù)器可以在同一臺(tái)物理
    的頭像 發(fā)表于 08-08 10:44 ?1223次閱讀

    【算能RADXA微服務(wù)器試用體驗(yàn)】Radxa Fogwise 1684X Mini 規(guī)格

    ChatGLM2-6B、AIGC、Llama2、SAM、Whisper等超大參數(shù)模型 還有一份詳細(xì)的英文的規(guī)格表: 另外,算能RADXA微服務(wù)器服務(wù)器,還是大學(xué)生集成電路創(chuàng)新創(chuàng)業(yè)大賽之# 第八屆集創(chuàng)賽杯賽題目
    發(fā)表于 02-28 11:21

    新手小白怎么學(xué)GPU云服務(wù)器跑深度學(xué)習(xí)?

    新手小白想用GPU云服務(wù)器跑深度學(xué)習(xí)應(yīng)該怎么做? 用個(gè)人主機(jī)通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不動(dòng),如何實(shí)現(xiàn)更經(jīng)濟(jì)便捷的實(shí)現(xiàn)GPU云服務(wù)器深度學(xué)習(xí)?
    發(fā)表于 06-11 17:09

    參數(shù)模塊和屬性約簡(jiǎn)的應(yīng)用服務(wù)器優(yōu)化方法

    【作者】:劉巖;王正方;朱云龍;董曉梅;申德榮;【來(lái)源】:《小型微型計(jì)算機(jī)系統(tǒng)》2010年03期【摘要】:現(xiàn)實(shí)的優(yōu)化方法與策略往往是優(yōu)化人員基于服務(wù)器廠商所提供的官方技術(shù)文檔來(lái)分析各種參數(shù)的實(shí)際意義
    發(fā)表于 04-24 09:43

    服務(wù)器處理參數(shù)面面觀

    服務(wù)器處理參數(shù)面面觀 1、服務(wù)器處理主頻   服務(wù)器處理
    發(fā)表于 01-27 13:32 ?399次閱讀

    服務(wù)器,服務(wù)器的作用是什么?

    服務(wù)器,服務(wù)器的作用是什么? 戴爾服務(wù)器服務(wù)器指一個(gè)管理資源并為用戶提供服務(wù)的計(jì)算機(jī)軟件,通常分為文件
    發(fā)表于 04-06 17:18 ?2.8w次閱讀

    如何辨別Web服務(wù)器,應(yīng)用程序服務(wù)器,HTTP服務(wù)器

    Apache是純粹的web服務(wù)器,而Tomcat和IIS因?yàn)榫哂辛私忉寛?zhí)行服務(wù)器端代碼的能力,可以稱作為輕量級(jí)應(yīng)用服務(wù)器或帶有服務(wù)器功能的Web服務(wù)
    發(fā)表于 11-10 14:28 ?1043次閱讀

    moxa串口服務(wù)器通訊設(shè)置參數(shù)

    本文詳細(xì)介紹了串口服務(wù)器的定義,其次介紹了MOXA串口服務(wù)器的工作方式,最后詳細(xì)介紹了moxa串口服務(wù)器通訊設(shè)置參數(shù)
    發(fā)表于 02-01 15:00 ?1.3w次閱讀

    服務(wù)器應(yīng)該是選擇物理服務(wù)器還是云服務(wù)器

    在如今的服務(wù)器市場(chǎng)中,物理服務(wù)器和云服務(wù)器各有千秋,那么物理服務(wù)器和云服務(wù)器具體的什么區(qū)別呢,我們?cè)谶x擇
    的頭像 發(fā)表于 02-17 17:09 ?4766次閱讀

    Merlin HugeCTR 分級(jí)參數(shù)服務(wù)器簡(jiǎn)介

      參數(shù)服務(wù)器是推薦系統(tǒng)的重要組成部分,但是目前的訓(xùn)練端參數(shù)服務(wù)器由于高延遲和同步問(wèn)題無(wú)法有效解決推理部署中模型過(guò)大的瓶頸。
    的頭像 發(fā)表于 03-31 15:44 ?1485次閱讀
    Merlin HugeCTR 分級(jí)<b class='flag-5'>參數(shù)</b><b class='flag-5'>服務(wù)器</b>簡(jiǎn)介

    本地服務(wù)器與云服務(wù)器哪個(gè)好?

    本地服務(wù)器和云服務(wù)器是企業(yè)可以使用的兩種不同的服務(wù)器設(shè)置。主要區(qū)別在于本地服務(wù)器托管,第三? 方提供商托管云服務(wù)器。那么,本地
    的頭像 發(fā)表于 05-17 16:56 ?1619次閱讀

    PyTorch教程13.7參數(shù)服務(wù)器

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程13.7參數(shù)服務(wù)器.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 14:22 ?0次下載
    <b class='flag-5'>PyTorch</b>教程<b class='flag-5'>13.7</b>之<b class='flag-5'>參數(shù)</b><b class='flag-5'>服務(wù)器</b>

    PyTorch教程23.5之選擇服務(wù)器和GPU

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程23.5之選擇服務(wù)器和GPU.pdf》資料免費(fèi)下載
    發(fā)表于 06-06 09:17 ?0次下載
    <b class='flag-5'>PyTorch</b>教程23.5之選擇<b class='flag-5'>服務(wù)器</b>和GPU

    獨(dú)立服務(wù)器和云服務(wù)器的區(qū)別

    獨(dú)立服務(wù)器和云服務(wù)器的區(qū)別是很多用戶在選擇服務(wù)器時(shí)要做的課程,那么獨(dú)立服務(wù)器和云服務(wù)器的區(qū)別有哪些呢?
    的頭像 發(fā)表于 01-17 10:58 ?771次閱讀

    新手小白怎么通過(guò)云服務(wù)器pytorch?

    安裝PyTorch的步驟可以根據(jù)不同的操作系統(tǒng)和需求有所差異,通過(guò)云服務(wù)器運(yùn)行PyTorch的過(guò)程主要包括選擇GPU云服務(wù)器平臺(tái)、配置服務(wù)器
    的頭像 發(fā)表于 09-25 11:35 ?161次閱讀