0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何優(yōu)化數(shù)據(jù)實(shí)現(xiàn)機(jī)器學(xué)習(xí)高數(shù)據(jù)吞吐量

要長(zhǎng)高 ? 來(lái)源:InfoWorld ? 作者:Bin Fan ? 2022-04-25 17:24 ? 次閱讀

譯者 | 李睿

作者:Bin Fan, InfoWorld

機(jī)器學(xué)習(xí)工作負(fù)載需要高效的基礎(chǔ)設(shè)施來(lái)快速產(chǎn)生結(jié)果,而模型訓(xùn)練非常依賴大型數(shù)據(jù)集。在所有機(jī)器學(xué)習(xí)工作流程中,第一步是將這些數(shù)據(jù)從存儲(chǔ)集中到訓(xùn)練集群,而這也會(huì)對(duì)模型訓(xùn)練效率產(chǎn)生顯著影響。

長(zhǎng)期以來(lái),數(shù)據(jù)和人工智能平臺(tái)工程師一直在考慮以下問(wèn)題來(lái)管理數(shù)據(jù):

數(shù)據(jù)可訪問(wèn)性:當(dāng)數(shù)據(jù)跨越多個(gè)來(lái)源并且數(shù)據(jù)被遠(yuǎn)程存儲(chǔ)時(shí),如何使訓(xùn)練數(shù)據(jù)可訪問(wèn)?

數(shù)據(jù)管道:如何將數(shù)據(jù)作為一條管道進(jìn)行管理,無(wú)需等待即可將數(shù)據(jù)持續(xù)輸入到訓(xùn)練工作流程中?

性能和GPU利用率:如何同時(shí)實(shí)現(xiàn)低元數(shù)據(jù)延遲和高數(shù)據(jù)吞吐量以保持GPU不會(huì)空閑?

本文將討論一種新的解決方案,它將用來(lái)協(xié)調(diào)端到端機(jī)器學(xué)習(xí)管道中的數(shù)據(jù)以解決上述問(wèn)題。本文將概述常見(jiàn)的挑戰(zhàn)和陷阱,并推出編排數(shù)據(jù)這種新技術(shù),以優(yōu)化機(jī)器學(xué)習(xí)的數(shù)據(jù)管道。

模型訓(xùn)練中常見(jiàn)數(shù)據(jù)挑戰(zhàn)

端到端機(jī)器學(xué)習(xí)管道是從數(shù)據(jù)預(yù)處理、清理、模型訓(xùn)練再到推理的一系列步驟,其中模型訓(xùn)練是整個(gè)工作流程中最關(guān)鍵和最耗費(fèi)資源的部分。

下圖是一個(gè)典型的機(jī)器學(xué)習(xí)管道。它從數(shù)據(jù)收集開始,然后是數(shù)據(jù)準(zhǔn)備,最后是模型訓(xùn)練。在數(shù)據(jù)收集階段,數(shù)據(jù)平臺(tái)工程師通常需要花費(fèi)大量時(shí)間讓數(shù)據(jù)工程師可以訪問(wèn)數(shù)據(jù),數(shù)據(jù)工程師則需要為數(shù)據(jù)科學(xué)家準(zhǔn)備數(shù)據(jù)以構(gòu)建和迭代模型。

訓(xùn)練階段需要處理大量數(shù)據(jù),以確保將數(shù)據(jù)持續(xù)提供給生成模型的GPU。你必須對(duì)數(shù)據(jù)予以管理,以支持機(jī)器學(xué)習(xí)及其可執(zhí)行架構(gòu)的復(fù)雜性。在數(shù)據(jù)管道中,每個(gè)步驟都會(huì)面臨相應(yīng)的技術(shù)挑戰(zhàn)。

(1)數(shù)據(jù)收集挑戰(zhàn)——數(shù)據(jù)無(wú)處不在

機(jī)器學(xué)習(xí)訓(xùn)練需要采用大型數(shù)據(jù)集,因此從所有相關(guān)來(lái)源收集數(shù)據(jù)至關(guān)重要。當(dāng)數(shù)據(jù)駐留在數(shù)據(jù)湖、數(shù)據(jù)倉(cāng)庫(kù)和對(duì)象存儲(chǔ)中時(shí),(無(wú)論是在內(nèi)部部署、在云中還是分布在多個(gè)地理位置)將所有數(shù)據(jù)組合到一個(gè)單一的源中不再可行。對(duì)于數(shù)據(jù)孤島,通過(guò)網(wǎng)絡(luò)進(jìn)行遠(yuǎn)程訪問(wèn)不可避免地會(huì)導(dǎo)致延遲。因此如何在保持所需性能的同時(shí)使數(shù)據(jù)可訪問(wèn)是一項(xiàng)重大挑戰(zhàn)。

(2)數(shù)據(jù)準(zhǔn)備挑戰(zhàn)——序列化數(shù)據(jù)準(zhǔn)備

數(shù)據(jù)準(zhǔn)備從采集階段的數(shù)據(jù)開始,包括清理、ETL和轉(zhuǎn)換,然后交付數(shù)據(jù)以訓(xùn)練模型。如果沒(méi)有對(duì)這個(gè)階段全面考慮,那么數(shù)據(jù)管道是序列化的,且在等待為訓(xùn)練集群準(zhǔn)備的數(shù)據(jù)時(shí)會(huì)浪費(fèi)額外的時(shí)間。因此,平臺(tái)工程師必須弄清楚如何創(chuàng)建并行化的數(shù)據(jù)管道,并實(shí)現(xiàn)高效的數(shù)據(jù)共享和中間結(jié)果的高效存儲(chǔ)。

(3)模型訓(xùn)練挑戰(zhàn)——I/O與GPU未充分利用

模型訓(xùn)練需要處理數(shù)百TB的數(shù)據(jù),這些數(shù)據(jù)通常是大量的小文件,例如圖像和音頻文件等等。訓(xùn)練涉及需要多次epoch的迭代,從而頻繁訪問(wèn)數(shù)據(jù)。通過(guò)不斷地向GPU提供數(shù)據(jù)來(lái)保持其忙碌是有必要的,同時(shí)優(yōu)化I/O并保持GPU所需的吞吐量也非易事。

傳統(tǒng)方法和常見(jiàn)陷阱

在討論不同的解決方案之前,先設(shè)定一個(gè)簡(jiǎn)化的場(chǎng)景,如下圖所示。這里使用一個(gè)GPU集群在云中訓(xùn)練,該集群具有多個(gè)運(yùn)行TensorFlow作為機(jī)器學(xué)習(xí)框架的節(jié)點(diǎn)。預(yù)處理數(shù)據(jù)存儲(chǔ)在Amazon S3中。通常,有兩種方法可以將此數(shù)據(jù)傳輸?shù)接?xùn)練集群,下文將予以討論。

方法一:在本地存儲(chǔ)中復(fù)制數(shù)據(jù)

在第一種方法中,整個(gè)數(shù)據(jù)集從遠(yuǎn)程存儲(chǔ)復(fù)制到每個(gè)服務(wù)器的本地存儲(chǔ)進(jìn)行訓(xùn)練,如下圖所示。因此,數(shù)據(jù)局部性得到保證,訓(xùn)練作業(yè)從本地讀取輸入,而不是從遠(yuǎn)程存儲(chǔ)中檢索。

從數(shù)據(jù)管道和I/O的角度來(lái)看,這種方法提供了最高的I/O吞吐量,因?yàn)樗袛?shù)據(jù)都是本地的。除了開始階段,GPU將保持忙碌,因?yàn)橛?xùn)練必須等待數(shù)據(jù)從對(duì)象存儲(chǔ)完全復(fù)制到訓(xùn)練集群。

但這種方法并不適用于所有情況。

首先,數(shù)據(jù)集必須適合聚合本地存儲(chǔ)。隨著輸入數(shù)據(jù)集大小的增長(zhǎng),數(shù)據(jù)復(fù)制過(guò)程變得更長(zhǎng)且更容易出錯(cuò),從而浪費(fèi)更多時(shí)間和GPU資源。

其次,將大量數(shù)據(jù)復(fù)制到每臺(tái)訓(xùn)練機(jī)上會(huì)對(duì)存儲(chǔ)系統(tǒng)和網(wǎng)絡(luò)造成巨大壓力。在輸入數(shù)據(jù)經(jīng)常變化的情況下,數(shù)據(jù)同步可能非常復(fù)雜。

最后,因?yàn)橐乖拼鎯?chǔ)上的數(shù)據(jù)與訓(xùn)練數(shù)據(jù)保持同步,人工復(fù)制數(shù)據(jù)既費(fèi)時(shí)又容易出錯(cuò)。

方法二:直接訪問(wèn)云存儲(chǔ)

另一種常見(jiàn)的方法是將訓(xùn)練與遠(yuǎn)程存儲(chǔ)上的目標(biāo)數(shù)據(jù)集直接連接起來(lái),如下圖所示。這種方法與之前的解決方案一樣,數(shù)據(jù)集的大小不是問(wèn)題,但也面臨著一些新的挑戰(zhàn)。

首先,從I/O和管道的角度來(lái)看,數(shù)據(jù)是串行處理的。所有的數(shù)據(jù)訪問(wèn)操作都必須經(jīng)過(guò)對(duì)象存儲(chǔ)和訓(xùn)練集群之間的網(wǎng)絡(luò),使得I/O成為瓶頸。因此,由于I/O吞吐量受到網(wǎng)絡(luò)限制,GPU會(huì)等待并會(huì)浪費(fèi)時(shí)間。

其次,當(dāng)訓(xùn)練規(guī)模較大時(shí),所有訓(xùn)練節(jié)點(diǎn)同時(shí)從同一個(gè)遠(yuǎn)程存儲(chǔ)訪問(wèn)同一個(gè)數(shù)據(jù)集,給存儲(chǔ)系統(tǒng)增加了巨大的壓力。由于高并發(fā)訪問(wèn),存儲(chǔ)可能會(huì)變得擁擠,從而導(dǎo)致GPU利用率低。

第三,如果數(shù)據(jù)集包含大量的小文件,元數(shù)據(jù)訪問(wèn)請(qǐng)求將占數(shù)據(jù)請(qǐng)求的很大一部分。因此,直接從對(duì)象存儲(chǔ)中獲取大量文件或目錄的元數(shù)據(jù)成為性能瓶頸,并增加了元數(shù)據(jù)的操作成本。

推薦的方法——編排數(shù)據(jù)

為了應(yīng)對(duì)這些挑戰(zhàn)和陷阱,在處理機(jī)器學(xué)習(xí)管道中的I/O時(shí),需要重新考慮數(shù)據(jù)平臺(tái)架構(gòu)。在這里推薦一種加速端到端機(jī)器學(xué)習(xí)管道的新方法:數(shù)據(jù)編排。數(shù)據(jù)編排技術(shù)將跨存儲(chǔ)系統(tǒng)的數(shù)據(jù)訪問(wèn)抽象化,同時(shí)將所有數(shù)據(jù)虛擬化,并通過(guò)標(biāo)準(zhǔn)化API和全局命名空間將數(shù)據(jù)呈現(xiàn)給數(shù)據(jù)驅(qū)動(dòng)的應(yīng)用程序。

(1)使用抽象統(tǒng)一數(shù)據(jù)孤島

與其復(fù)制和移動(dòng)數(shù)據(jù),留在原處也不失為上策,無(wú)論是在本地還是在云中。數(shù)據(jù)編排可以幫助抽象數(shù)據(jù)以創(chuàng)建統(tǒng)一的視圖。這將顯著降低數(shù)據(jù)收集階段的復(fù)雜性。

由于數(shù)據(jù)編排已經(jīng)可以與存儲(chǔ)系統(tǒng)集成,機(jī)器學(xué)習(xí)框架只需要與單個(gè)數(shù)據(jù)編排平臺(tái)交互即可訪問(wèn)來(lái)自任何連接存儲(chǔ)的數(shù)據(jù)。因此,來(lái)自任何來(lái)源的數(shù)據(jù)都可以用來(lái)訓(xùn)練,從而提高模型質(zhì)量。同時(shí),無(wú)需人工數(shù)據(jù)移動(dòng)到中央源。包括Spark、Presto、PyTorch和TensorFlow在內(nèi)的所有計(jì)算框架都可以訪問(wèn)數(shù)據(jù),而無(wú)需擔(dān)心數(shù)據(jù)的位置。

(2)在數(shù)據(jù)本地性方面使用分布式緩存

建議不要將整個(gè)數(shù)據(jù)集復(fù)制到每臺(tái)機(jī)器上,而是實(shí)施分布式緩存,其中數(shù)據(jù)可以均勻分布在集群中。當(dāng)訓(xùn)練數(shù)據(jù)集遠(yuǎn)大于單個(gè)節(jié)點(diǎn)的存儲(chǔ)容量時(shí),分布式緩存尤其有利。當(dāng)數(shù)據(jù)是來(lái)自遠(yuǎn)程時(shí),因?yàn)閿?shù)據(jù)是在本地緩存的,它也可以提供助益。因?yàn)樵谠L問(wèn)數(shù)據(jù)時(shí)沒(méi)有網(wǎng)絡(luò)I/O,機(jī)器學(xué)習(xí)訓(xùn)練會(huì)變得更快且更具成本效益。

上圖顯示了存儲(chǔ)所有訓(xùn)練數(shù)據(jù)的對(duì)象存儲(chǔ),以及表示數(shù)據(jù)集的兩個(gè)文件(/path1/file1和/path2/file2)。與其將所有文件塊存儲(chǔ)在每臺(tái)訓(xùn)練機(jī)器上,不如將塊分布在多臺(tái)機(jī)器上。為了防止數(shù)據(jù)丟失和提高讀取并發(fā)性,每個(gè)塊可以同時(shí)存儲(chǔ)在多個(gè)服務(wù)器上。

(3)優(yōu)化跨管道的數(shù)據(jù)共享

在機(jī)器學(xué)習(xí)(ML)訓(xùn)練作業(yè)中,作業(yè)內(nèi)部和作業(yè)之間執(zhí)行的數(shù)據(jù)讀取和寫入之間存在高度重疊。數(shù)據(jù)共享可以確保所有計(jì)算框架都可以訪問(wèn)先前緩存的數(shù)據(jù),用于下一步的讀寫工作負(fù)載。例如,如果在數(shù)據(jù)準(zhǔn)備步驟中使用Spark 進(jìn)行ETL,數(shù)據(jù)共享可以確保輸出數(shù)據(jù)被緩存并可供下一階段使用。通過(guò)數(shù)據(jù)共享,整個(gè)數(shù)據(jù)管道獲得了更好的端到端性能。

(4)通過(guò)并行化數(shù)據(jù)預(yù)加載、緩存和訓(xùn)練來(lái)編排數(shù)據(jù)管道

可以通過(guò)執(zhí)行預(yù)加載和按需緩存來(lái)編排數(shù)據(jù)管道。如下圖顯示,使用數(shù)據(jù)緩存從源加載數(shù)據(jù)可以與實(shí)際訓(xùn)練任務(wù)并行完成。因此,在訪問(wèn)數(shù)據(jù)時(shí),訓(xùn)練受益于高數(shù)據(jù)吞吐量,而無(wú)需在訓(xùn)練前等待緩存完整數(shù)據(jù)。

雖然一開始會(huì)有一些I/O延遲,但因?yàn)閿?shù)據(jù)已經(jīng)加載到緩存中,等待時(shí)間會(huì)有所減少。這種方法可以減少重復(fù)步驟,從對(duì)象存儲(chǔ)到訓(xùn)練集群的數(shù)據(jù)加載、緩存、訓(xùn)練要求的數(shù)據(jù)加載以及訓(xùn)練都可以并行完成,從而大大加快整個(gè)過(guò)程。

通過(guò)跨機(jī)器學(xué)習(xí)管道的步驟編排數(shù)據(jù),可消除數(shù)據(jù)從一個(gè)階段流向下一個(gè)階段時(shí)串行執(zhí)行和相關(guān)的低效問(wèn)題,同時(shí)也將具有較高的GPU利用率。下表將對(duì)這種新方法與兩種傳統(tǒng)方法進(jìn)行比較:

如何為機(jī)器學(xué)習(xí)工作負(fù)載編排數(shù)據(jù)

這里以Alluxio為例,展示如何使用數(shù)據(jù)編排。同樣,我們還將使用上面提到的簡(jiǎn)化場(chǎng)景。為了安排TensorFlow作業(yè),可使用Kubernetes或公共云服務(wù)。

使用Alluxio編排機(jī)器學(xué)習(xí)和深度學(xué)習(xí)訓(xùn)練通常包括三個(gè)步驟:

(1)在訓(xùn)練集群上部署Alluxio。

(2)掛載Alluxio作為本地文件夾來(lái)訓(xùn)練作業(yè)。

(3)使用訓(xùn)練腳本從本地文件夾(由Alluxio支持)加載數(shù)據(jù)。

不同存儲(chǔ)系統(tǒng)中的數(shù)據(jù)可以在掛載后通過(guò)Alluxio立即訪問(wèn),并且可以通過(guò)基準(zhǔn)腳本透明訪問(wèn),無(wú)需修改TensorFlow。這顯著簡(jiǎn)化了應(yīng)用程序開發(fā)過(guò)程,不然就需要集成每個(gè)特定的存儲(chǔ)系統(tǒng)以及憑證的配置。

可參照這里的方法使用Alluxio和TensorFlow運(yùn)行圖像識(shí)別。

數(shù)據(jù)編排優(yōu)秀實(shí)踐

因?yàn)闆](méi)有一勞永逸的方法,所以數(shù)據(jù)編排最好在以下場(chǎng)景中使用:

需要分布式訓(xùn)練。

有大量的訓(xùn)練數(shù)據(jù)(10TB或更多),尤其是在訓(xùn)練數(shù)據(jù)中有很多小文件和圖像的情況下。

GPU資源沒(méi)有被網(wǎng)絡(luò)I/O充分占用。

管道使用許多數(shù)據(jù)源和多個(gè)訓(xùn)練/計(jì)算框架。

當(dāng)處理額外的訓(xùn)練請(qǐng)求時(shí),底層存儲(chǔ)需要穩(wěn)定。

多個(gè)訓(xùn)練節(jié)點(diǎn)或任務(wù)使用相同的數(shù)據(jù)集。

隨著機(jī)器學(xué)習(xí)技術(shù)的不斷發(fā)展,框架執(zhí)行更復(fù)雜的任務(wù),管理數(shù)據(jù)管道的方法也將不斷改進(jìn)。通過(guò)將數(shù)據(jù)編排擴(kuò)展到數(shù)據(jù)管道,端到端訓(xùn)練管道的效率和資源利用率都可以得到提高。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46300

    瀏覽量

    236463
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8317

    瀏覽量

    132161
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    網(wǎng)卡吞吐量測(cè)試解決方案

    隨著互聯(lián)網(wǎng)的迅速發(fā)展,計(jì)算機(jī)日益成為人們生活中不可或缺的部分。伴隨著網(wǎng)絡(luò)業(yè)務(wù)的豐富,用戶對(duì)計(jì)算機(jī)網(wǎng)卡的要求也越來(lái)也。如何對(duì)計(jì)算機(jī)網(wǎng)卡吞吐量進(jìn)行合理的測(cè)試,已越來(lái)越成為眾多計(jì)算機(jī)網(wǎng)卡生產(chǎn)廠家日益關(guān)注
    發(fā)表于 12-23 11:07

    優(yōu)化FPGA利用率和自動(dòng)測(cè)試設(shè)備數(shù)據(jù)吞吐量參考設(shè)計(jì)

    也大大降低。主要特色兩個(gè) 20 位 SAR ADC 通道(最多可擴(kuò)展至 28 個(gè))三級(jí) MUX 樹(每個(gè) ADC 最多 64 個(gè)通道)利用串行 ADC 輸出數(shù)據(jù)突出顯示吞吐量提升情況適用于可重復(fù)的通道數(shù)系統(tǒng)的模塊化前端參考設(shè)計(jì)
    發(fā)表于 10-29 09:47

    淺析敏捷吞吐量衛(wèi)星通訊載荷

    對(duì)帶寬日益增加的需求大大提高了對(duì)數(shù)據(jù)網(wǎng)絡(luò)敏捷系統(tǒng)的要求。衛(wèi)星通訊也在經(jīng)歷著變革性的發(fā)展。由新的超寬帶(UWB)數(shù)據(jù)轉(zhuǎn)換器支持的創(chuàng)新架構(gòu),極大地提高了其經(jīng)濟(jì)效益和數(shù)據(jù)吞吐量。
    發(fā)表于 07-23 08:47

    如何通過(guò)UBFS獲得流式ADC數(shù)據(jù)的最高吞吐量

    )。似乎從ADC最終緩沖器中檢索值不能很快發(fā)生——當(dāng)獲取數(shù)據(jù)被注釋時(shí),USB總線上的吞吐量上升到800 kb/s。2?;贒MA——在這種情況下,我試圖通過(guò)設(shè)置EOC信號(hào)的DMA傳輸觸發(fā)來(lái)規(guī)避數(shù)據(jù)獲取
    發(fā)表于 10-11 10:46

    提高BLE吞吐量的可行辦法

    提高BLE吞吐量的可行辦法如何實(shí)現(xiàn)更快的BLE吞吐量
    發(fā)表于 01-18 06:26

    FF H1基于RDA的吞吐量優(yōu)化算法

    為了進(jìn)一步提高FF H1異步通信吞吐量,本文在原有優(yōu)化算法[1]的基礎(chǔ)上,提出了基于異步窗口碎片合理分布的RDA吞吐量優(yōu)化算法,并通過(guò)具體實(shí)例說(shuō)明了該
    發(fā)表于 09-03 09:17 ?9次下載

    防火墻術(shù)語(yǔ)-吞吐量

    防火墻術(shù)語(yǔ)-吞吐量  術(shù)語(yǔ)名稱:吞吐量 術(shù)語(yǔ)解釋:網(wǎng)絡(luò)中的數(shù)據(jù)是由一個(gè)個(gè)數(shù)據(jù)包組成,防火
    發(fā)表于 02-24 11:06 ?1517次閱讀

    DM6467的吞吐量性能信息和系統(tǒng)芯片(SoC)架構(gòu)的詳細(xì)概述

    本應(yīng)用報(bào)告提供了關(guān)于DM6467的吞吐量性能信息并介紹了片上系統(tǒng)(SoC)DM6467架構(gòu),數(shù)據(jù)路徑基礎(chǔ)設(shè)施和影響吞吐量和不同優(yōu)化的約束條件最佳系統(tǒng)性能的技術(shù)。該文件還提供信息關(guān)于SO
    發(fā)表于 04-18 14:49 ?11次下載
    DM6467的<b class='flag-5'>吞吐量</b>性能信息和系統(tǒng)芯片(SoC)架構(gòu)的詳細(xì)概述

    AD7739:8通道、吞吐量、24位Sigma-Delta ADC數(shù)據(jù)

    AD7739:8通道、吞吐量、24位Sigma-Delta ADC數(shù)據(jù)
    發(fā)表于 04-17 12:59 ?2次下載
    AD7739:8通道、<b class='flag-5'>高</b><b class='flag-5'>吞吐量</b>、24位Sigma-Delta ADC<b class='flag-5'>數(shù)據(jù)</b>表

    AD7731:低噪聲、吞吐量24位Sigma-Delta ADC數(shù)據(jù)

    AD7731:低噪聲、吞吐量24位Sigma-Delta ADC數(shù)據(jù)
    發(fā)表于 04-29 08:26 ?4次下載
    AD7731:低噪聲、<b class='flag-5'>高</b><b class='flag-5'>吞吐量</b>24位Sigma-Delta ADC<b class='flag-5'>數(shù)據(jù)</b>表

    SAR ADC是如何實(shí)現(xiàn)更高數(shù)據(jù)吞吐量

    當(dāng)需要SAR ADC的響應(yīng)時(shí)間為1μs時(shí) (tRESP-ADC = 1μs),很多工程師會(huì)尋找數(shù)據(jù)吞吐量為1Msps (tTHROUGHPUT = 1us) 的SAR ADC。事實(shí)上,這兩個(gè)參數(shù)是不一樣的。為了說(shuō)明他們之間的差異,我們來(lái)看看下面的類比:
    的頭像 發(fā)表于 02-06 09:07 ?1708次閱讀

    設(shè)計(jì)人員如何實(shí)現(xiàn) Wi-Fi 三頻段千兆網(wǎng)速和吞吐量

    設(shè)計(jì)人員如何實(shí)現(xiàn) Wi-Fi 三頻段千兆網(wǎng)速和吞吐量
    的頭像 發(fā)表于 12-26 10:16 ?673次閱讀
    設(shè)計(jì)人員如何<b class='flag-5'>實(shí)現(xiàn)</b> Wi-Fi 三頻段千兆網(wǎng)速和<b class='flag-5'>高</b><b class='flag-5'>吞吐量</b>

    GTC 2023主題直播:吞吐量可提高25%的Grace服務(wù)器

    數(shù)據(jù)中心管理員負(fù)責(zé)對(duì)整個(gè)數(shù)據(jù)中心的吞吐量和TCO進(jìn)行優(yōu)化為了在云數(shù)據(jù)中心規(guī)模下實(shí)現(xiàn)高能效我們?cè)O(shè)計(jì)
    的頭像 發(fā)表于 03-22 11:12 ?1433次閱讀
    GTC 2023主題直播:<b class='flag-5'>吞吐量</b>可提高25%的Grace服務(wù)器

    iperf吞吐量的測(cè)試流程

    iperf吞吐量測(cè)試指南
    發(fā)表于 04-03 15:40 ?2次下載

    TMS320VC5510 HPI吞吐量優(yōu)化

    電子發(fā)燒友網(wǎng)站提供《TMS320VC5510 HPI吞吐量優(yōu)化.pdf》資料免費(fèi)下載
    發(fā)表于 10-16 09:35 ?0次下載
    TMS320VC5510 HPI<b class='flag-5'>吞吐量</b>和<b class='flag-5'>優(yōu)化</b>