0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何去識(shí)別和跟蹤模型漂移

倩倩 ? 來(lái)源:IT168 ? 2020-03-20 14:06 ? 次閱讀

機(jī)器學(xué)習(xí)模型的訓(xùn)練,通常是通過(guò)學(xué)習(xí)某一組輸入特征與輸出目標(biāo)之間的映射來(lái)進(jìn)行的。一般來(lái)說(shuō),對(duì)于映射的學(xué)習(xí)是通過(guò)優(yōu)化某些成本函數(shù),來(lái)使預(yù)測(cè)的誤差最小化。在訓(xùn)練出最佳模型之后,將其正式發(fā)布上線,再根據(jù)未來(lái)生成的數(shù)據(jù)生成準(zhǔn)確的預(yù)測(cè)。這些新數(shù)據(jù)示例可能是用戶交互、應(yīng)用處理或其他軟件系統(tǒng)的請(qǐng)求生成的——這取決于模型需要解決的問(wèn)題。在理想情況下,我們會(huì)希望自己的模型在生產(chǎn)環(huán)境中進(jìn)行預(yù)測(cè)時(shí),能夠像使用訓(xùn)練過(guò)程中使用的數(shù)據(jù)一樣,準(zhǔn)確地預(yù)測(cè)未來(lái)情況。

當(dāng)我們將模型部署到生產(chǎn)中時(shí),往往會(huì)假設(shè)未來(lái)將使用到的數(shù)據(jù)會(huì)類似于過(guò)去模型評(píng)估期間所使用的數(shù)據(jù)。具體來(lái)說(shuō),我們可能會(huì)假設(shè),特征和目標(biāo)的分布將保持相當(dāng)?shù)暮愣ā5沁@種假設(shè)通常不成立。趨勢(shì)會(huì)隨著時(shí)間的推移而變化,人們的興趣會(huì)隨著季節(jié)的變化而變化,股票市場(chǎng)會(huì)起伏不定。因此,我們的模型必須適應(yīng)這些變化。

世界是持續(xù)變化的,因此模型部署應(yīng)視為一個(gè)連續(xù)的過(guò)程,而不是完成第一次部署之后就扭頭去開(kāi)展下一個(gè)項(xiàng)目。如果機(jī)器學(xué)習(xí)團(tuán)隊(duì)的工程師發(fā)現(xiàn)數(shù)據(jù)分布與原始訓(xùn)練集的數(shù)據(jù)分布有明顯出入,則需要重新訓(xùn)練模型。這個(gè)現(xiàn)象——通常被稱為模型漂移(model drift)——可以緩解,但是會(huì)帶來(lái)額外的開(kāi)銷,如監(jiān)視基礎(chǔ)設(shè)施、監(jiān)督和流程等等。

在本文中,筆者想對(duì)模型漂移下定義,并討論如何去識(shí)別和跟蹤模型漂移。然后,我將描述如何重新訓(xùn)練模型,來(lái)減輕漂移對(duì)預(yù)測(cè)性能的影響,并對(duì)應(yīng)多久重新訓(xùn)練一次模型做出建議。最后,我將介紹啟用模型重新訓(xùn)練的幾種方法。

什么是模型漂移?

模型漂移是指,由于環(huán)境的變化違反了模型假設(shè),而導(dǎo)致模型的預(yù)測(cè)性能隨時(shí)間而降低。模型漂移有點(diǎn)用詞不當(dāng),因?yàn)樽兓牟皇悄P?,而是模型運(yùn)行的環(huán)境。因此,概念漂移(concept drift)一詞實(shí)際上可能是一個(gè)更好的用詞,不過(guò)兩個(gè)術(shù)語(yǔ)都描述了相同的現(xiàn)象。

請(qǐng)注意,筆者對(duì)模型漂移的定義實(shí)際上包括幾個(gè)可以更改的變量。預(yù)測(cè)性能將下降,它將在一段時(shí)間內(nèi)以某種速率下降,并且這種下降會(huì)歸因于違反建模假設(shè)的環(huán)境變化。在確定如何診斷模型漂移以及如何通過(guò)模型再訓(xùn)練糾正模型漂移時(shí),應(yīng)考慮這些變量中的每一個(gè)。

如何跟蹤模型漂移?

目前業(yè)內(nèi)已有多種識(shí)別和跟蹤模型漂移的技術(shù)。在介紹這些技術(shù)之前,值得一提的是,并沒(méi)有一種萬(wàn)能的方法。不同的模型問(wèn)題需要不同的解決方案,您可能有、也可能沒(méi)有相應(yīng)的基礎(chǔ)架構(gòu)或資源來(lái)利用某些技術(shù)策略。

模型性能降級(jí)

識(shí)別模型漂移的最直接方法是明確預(yù)測(cè)性能是否已下降,同時(shí)量化這種下降。測(cè)量實(shí)時(shí)數(shù)據(jù)上已部署模型的準(zhǔn)確性是一個(gè)眾所周知的難題。之所以出現(xiàn)這種困難,部分原因是我們需要訪問(wèn)生成的模型的預(yù)測(cè)和基本事實(shí)信號(hào)。出于以下這些原因,這可能無(wú)法實(shí)現(xiàn):

·預(yù)測(cè)的數(shù)據(jù)在生成后沒(méi)有存儲(chǔ)——?jiǎng)e讓這種事發(fā)生在你身上。

·預(yù)測(cè)已存儲(chǔ),但是您無(wú)法訪問(wèn)基本事實(shí)標(biāo)簽。

·預(yù)測(cè)和標(biāo)簽均可用,但不能結(jié)合在一起。

即使預(yù)測(cè)和標(biāo)簽可以合并在一起,也可能需要一段時(shí)間才能使用標(biāo)簽。例如一個(gè)可以預(yù)測(cè)下一季度收入的財(cái)務(wù)預(yù)測(cè)模型。在這種情況下,只有在該季度過(guò)去之后才能觀察到實(shí)際收入,所以直到那個(gè)時(shí)候你才能夠量化模型的效果。在此類預(yù)測(cè)問(wèn)題中, 回填預(yù)測(cè)(即訓(xùn)練模型,并根據(jù)過(guò)去的歷史數(shù)據(jù)生成預(yù)測(cè))可以幫助您了解模型性能下降的速度。

正如Josh Wills 指出的那樣,在部署模型之前您可以做的最重要的事情之一就是試圖了解離線環(huán)境中的模型漂移。數(shù)據(jù)科學(xué)家應(yīng)想辦法回答以下問(wèn)題:“如果我使用六個(gè)月前的數(shù)據(jù)對(duì)這組特征進(jìn)行訓(xùn)練,并將其應(yīng)用于今天生成的數(shù)據(jù),那么這個(gè)模型比我一個(gè)月前未經(jīng)訓(xùn)練而創(chuàng)建并應(yīng)用到今天的模型差多少呢?”。離線執(zhí)行此分析,您可以估計(jì)模型性能下降的速度以及需要重新訓(xùn)練的頻率。當(dāng)然,這種方法的前提是要有一臺(tái)“時(shí)光機(jī)”來(lái)訪問(wèn)過(guò)去任何時(shí)候的實(shí)時(shí)數(shù)據(jù)。

檢查訓(xùn)練和實(shí)時(shí)數(shù)據(jù)的特征分布

由于隨著輸入特征的分布逐漸偏離訓(xùn)練數(shù)據(jù)的分布,模型性能會(huì)下降,因此比較這些分布是推斷模型漂移的好方法。請(qǐng)注意,這里說(shuō)的是推斷而不是檢測(cè)模型漂移,因?yàn)槲覀儧](méi)有觀察到預(yù)測(cè)性能的實(shí)際下降,而是“預(yù)計(jì)”會(huì)出現(xiàn)下降。在由于數(shù)據(jù)生成這一過(guò)程的性質(zhì),而無(wú)法觀察到實(shí)際基本事實(shí)的情況下,這會(huì)非常有用。

每個(gè)特征需要監(jiān)視許多不同的東西,包括:

·可能值的范圍

·值直方圖

·該功能是否接受NULL,如果是,則預(yù)期的NULL數(shù)量

能夠通過(guò)控制界面快速監(jiān)控這些分布,是朝正確方向邁出的一步。當(dāng)特征差異很大時(shí),可以通過(guò)自動(dòng)跟蹤訓(xùn)練服務(wù)偏差并在特性差異顯著時(shí)發(fā)出警告,進(jìn)一步實(shí)現(xiàn)這一點(diǎn)。

檢查特征之間的關(guān)聯(lián)

許多模型會(huì)假定特征之間的關(guān)系必須保持固定。因此,您還需要監(jiān)視各個(gè)輸入特征之間的成對(duì)關(guān)聯(lián)。如您的ML測(cè)試分?jǐn)?shù)是多少?ML生產(chǎn)系統(tǒng)的規(guī)范等等,可以通過(guò)以下方法實(shí)現(xiàn):

·監(jiān)視特征之間的相關(guān)系數(shù)

·訓(xùn)練具有一兩個(gè)特征的模型

·訓(xùn)練一組模型,每個(gè)模型都刪除其中一個(gè)特征

檢查目標(biāo)分布

如果目標(biāo)變量的分布發(fā)生顯著變化,那么模型的預(yù)測(cè)性能幾乎一定會(huì)變差?!稒C(jī)器學(xué)習(xí):技術(shù)債務(wù)高息信用卡》的作者指出,一種簡(jiǎn)單而有用的診斷方法是跟蹤目標(biāo)分布。與訓(xùn)練數(shù)據(jù)的偏差可能意味著需要重新評(píng)估部署模型的質(zhì)量,但請(qǐng)記住,“這絕不是一項(xiàng)全面的測(cè)試,因?yàn)樗梢酝ㄟ^(guò)空模型來(lái)滿足,該模型可以簡(jiǎn)單地預(yù)測(cè)標(biāo)簽出現(xiàn)的平均值,而無(wú)需考慮輸入特征。”

模型再訓(xùn)練到底是什么意思?

模型再訓(xùn)練似乎是一個(gè)超負(fù)荷的操作,它是否只涉及到尋找現(xiàn)有模型架構(gòu)的新參數(shù)?對(duì)于更改超參數(shù)搜索空間怎么樣?如何搜索不同的模型類型(RandomForest,SVM等)?我們可以包括新特征還是可以排除以前使用的特征?這些都是很好的問(wèn)題,因此盡可能明確這些問(wèn)題是非常重要的。要回答這些問(wèn)題,重要的是直接考慮我們要解決的問(wèn)題——也就是說(shuō),減少模型漂移對(duì)我們部署的模型的影響。

在將模型部署到生產(chǎn)數(shù)據(jù)之前,科學(xué)家需要經(jīng)過(guò)嚴(yán)格的模型驗(yàn)證過(guò)程,其中包括:

·匯編數(shù)據(jù)集–收集來(lái)自不同來(lái)源(例如不同數(shù)據(jù)庫(kù))的數(shù)據(jù)集。

·特征工程–從原始數(shù)據(jù)中提取列,提高預(yù)測(cè)性能。

·模型選擇–比較不同的學(xué)習(xí)算法

·錯(cuò)誤估計(jì)–在搜索空間上進(jìn)行優(yōu)化,找到最佳模型并估計(jì)其泛化誤差。

此過(guò)程會(huì)產(chǎn)生一些最佳的模型,然后將其部署到生產(chǎn)中。由于模型漂移具體是指所選模型的預(yù)測(cè)性能由于特征/目標(biāo)數(shù)據(jù)分布的變化而下降,因此模型再訓(xùn)練不應(yīng)該帶來(lái)不同的模型生成過(guò)程。確切地說(shuō),重新訓(xùn)練只是指在新的訓(xùn)練數(shù)據(jù)集上重新運(yùn)行生成先前選擇的模型的過(guò)程。功能、模型算法和超參數(shù)搜索空間都應(yīng)保持相同??梢赃@樣想,再訓(xùn)練不涉及任何代碼更改,只涉及改變訓(xùn)練數(shù)據(jù)集。

這并不是說(shuō)模型的未來(lái)迭代不應(yīng)包含新特征或不考慮其他算法類型/體系結(jié)構(gòu)。只是說(shuō),這些類型的更改會(huì)產(chǎn)生完全不同的模型——在部署到生產(chǎn)環(huán)境之前,應(yīng)該對(duì)它們進(jìn)行不同的測(cè)試。根據(jù)您的機(jī)器學(xué)習(xí)團(tuán)隊(duì)的成熟程度,理想情況下,此類更改將與A / B測(cè)試一起引入,以測(cè)量新模型對(duì)預(yù)先確定的興趣指標(biāo)(例如用戶參與度或保留率)的影響。

應(yīng)該多久重新訓(xùn)練一次模型

到目前為止,我們已經(jīng)討論了什么是模型漂移以及識(shí)別它的多種方法。于是問(wèn)題就變成了,我們?cè)撊绾窝a(bǔ)救?如果模型的預(yù)測(cè)性能由于環(huán)境變化而下降,解決方案是在反映當(dāng)前實(shí)際情況的新訓(xùn)練集上對(duì)模型進(jìn)行重新訓(xùn)練。那么,您應(yīng)該多久重新訓(xùn)練一次模型?如何確定新的訓(xùn)練集?對(duì)于最困難的問(wèn)題,答案是視情況而定。但如何視情況而定呢?

有時(shí)機(jī)器學(xué)習(xí)問(wèn)題本身會(huì)給出何時(shí)需要重新訓(xùn)練模型的建議。例如,假設(shè)您正在一家大學(xué)招生辦工作,并負(fù)責(zé)建立一個(gè)可以預(yù)測(cè)學(xué)生下學(xué)期是否會(huì)回來(lái)的學(xué)生流失模型。該模型將在期中后直接用于對(duì)當(dāng)前學(xué)生群體進(jìn)行預(yù)測(cè)。被確定有流失風(fēng)險(xiǎn)的學(xué)生將自動(dòng)被納入輔導(dǎo)課程或其他干預(yù)措施。

下面我們思考一下這種模型的時(shí)間范圍。由于我們每學(xué)期一次批量生成預(yù)測(cè),因此沒(méi)有必要再頻繁地重新訓(xùn)練模型,因?yàn)槲覀儗o(wú)法訪問(wèn)任何新的訓(xùn)練數(shù)據(jù)。因此,在觀察上學(xué)期的哪些學(xué)生退學(xué)后,我們可能選擇在每個(gè)學(xué)期開(kāi)始時(shí)重新訓(xùn)練我們的模型。這就是定期再訓(xùn)練計(jì)劃的一個(gè)示例。從這個(gè)簡(jiǎn)單的策略開(kāi)始,往往是一個(gè)好辦法,但是您需要確定重新訓(xùn)練的頻率??焖俑牡挠?xùn)練集可能需要您每天或每周進(jìn)行一次訓(xùn)練。較慢的發(fā)行版本可能需要每月或每年進(jìn)行重新訓(xùn)練。

如果您的團(tuán)隊(duì)已經(jīng)具備了監(jiān)控上一節(jié)中所討論的度量標(biāo)準(zhǔn)的基礎(chǔ)設(shè)施,那么將模型漂移的管理自動(dòng)化可能是有意義的。這個(gè)解決方案需要跟蹤診斷,然后在實(shí)時(shí)數(shù)據(jù)上的診斷與訓(xùn)練數(shù)據(jù)診斷不同時(shí)觸發(fā)模型再訓(xùn)練。但這種方法也有其自身的挑戰(zhàn)。首先,您需要確定一個(gè)發(fā)散的閾值,它將觸發(fā)模型再訓(xùn)練。如果閾值太低,則您可能會(huì)過(guò)于頻繁地進(jìn)行再訓(xùn)練,從而帶來(lái)高計(jì)算成本。如果閾值過(guò)高,則可能會(huì)因?yàn)椴唤?jīng)常進(jìn)行再訓(xùn)練,而導(dǎo)致生產(chǎn)中的模型偏劣質(zhì)。這比看起來(lái)要復(fù)雜得多,因?yàn)槟惚仨毴ゴ_定,要收集多少新的訓(xùn)練數(shù)據(jù),才能代表世界的新?tīng)顟B(tài)。在世界已經(jīng)發(fā)生改變時(shí),用一個(gè)訓(xùn)練集太小的模型來(lái)代替現(xiàn)有的模型也是沒(méi)有意義的。

如果您的模型已經(jīng)在對(duì)抗性環(huán)境中運(yùn)行,則需要特別考慮。在諸如欺詐檢測(cè)這樣的設(shè)置中,對(duì)抗方會(huì)改變數(shù)據(jù)分布以使自己獲利。這些問(wèn)題可以從在線學(xué)習(xí)中受益,在這之中,模型隨著新數(shù)據(jù)的出現(xiàn)而不斷更新。

如何重新訓(xùn)練模型?

最后,但并非最不重要的一點(diǎn),我們需要討論如何重新訓(xùn)練模型。您用于模型再訓(xùn)練的方法與您決定再訓(xùn)練的頻率直接相關(guān)。

如果您打算定期去重新訓(xùn)練模型,那么批量進(jìn)行重新訓(xùn)練就完全足夠了。這種方法涉及使用工作調(diào)度程序(例如Jenkins或Kubernetes CronJobs)定期地調(diào)度模型訓(xùn)練過(guò)程 。

如果您具有自動(dòng)模型漂移檢測(cè)功能,那么在識(shí)別出漂移時(shí)觸發(fā)模型重新訓(xùn)練就很有意義。例如,您可能有定期的工作,將實(shí)時(shí)數(shù)據(jù)集的特征分布與訓(xùn)練數(shù)據(jù)的特征分布進(jìn)行比較。當(dāng)識(shí)別出明顯的偏差時(shí),系統(tǒng)可以自動(dòng)安排模型再訓(xùn)練以自動(dòng)部署新模型。同樣,這可以通過(guò)諸如Jenkins的作業(yè)調(diào)度程序或使用 Kubernetes Jobs來(lái)執(zhí)行。

最后,利用在線學(xué)習(xí)技術(shù)更新當(dāng)前正在生產(chǎn)的模型可能也是有意義的。這種方法依賴于使用當(dāng)前部署的模型去“播種”一個(gè)新模型。隨著新數(shù)據(jù)的產(chǎn)生,模型參數(shù)將使用新的訓(xùn)練數(shù)據(jù)進(jìn)行更新。

結(jié)論

一般情況下,將模型部署到生產(chǎn)環(huán)境時(shí),機(jī)器學(xué)習(xí)模型的預(yù)測(cè)性能往往都會(huì)下降。因此,工程師必須通過(guò)設(shè)置特定于ML的監(jiān)視解決方案和工作流來(lái)啟用模型重新訓(xùn)練,從而為性能下降做好準(zhǔn)備。雖然重新訓(xùn)練的頻率因具體問(wèn)題而異,但ML工程師可以從簡(jiǎn)單的策略開(kāi)始,隨著新數(shù)據(jù)的到來(lái),該策略會(huì)定期對(duì)模型進(jìn)行重新訓(xùn)練,并發(fā)展為對(duì)模型漂移進(jìn)行量化和做出反應(yīng)的更復(fù)雜的過(guò)程。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4262

    瀏覽量

    62241
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3073

    瀏覽量

    48582
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8325

    瀏覽量

    132196
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI大模型在圖像識(shí)別中的優(yōu)勢(shì)

    AI大模型在圖像識(shí)別中展現(xiàn)出了顯著的優(yōu)勢(shì),這些優(yōu)勢(shì)主要源于其強(qiáng)大的計(jì)算能力、深度學(xué)習(xí)算法以及大規(guī)模的數(shù)據(jù)處理能力。以下是對(duì)AI大模型在圖像識(shí)別中優(yōu)勢(shì)的介紹: 一、高效性與準(zhǔn)確性 處理速
    的頭像 發(fā)表于 10-23 15:01 ?145次閱讀

    高抗噪性 電壓跟蹤

    電壓跟蹤
    jf_30741036
    發(fā)布于 :2024年09月29日 19:26:44

    TLV9002-Q1仿真模型是否包含參數(shù)的溫度漂移特性?

    從TI官網(wǎng)下載的TLV9002-Q1仿真模型(TLV9002 PSpice Model (Rev. D))是否包含參數(shù)的溫度漂移特性? 如果模型里面沒(méi)有包含溫漂特性的話,我司想對(duì)TLV9002仿真-40~125度溫度范圍內(nèi)對(duì)整
    發(fā)表于 07-31 07:25

    人臉識(shí)別模型訓(xùn)練流程

    人臉識(shí)別模型訓(xùn)練流程是計(jì)算機(jī)視覺(jué)領(lǐng)域中的一項(xiàng)重要技術(shù)。本文將詳細(xì)介紹人臉識(shí)別模型的訓(xùn)練流程,包括數(shù)據(jù)準(zhǔn)備、模型選擇、
    的頭像 發(fā)表于 07-04 09:19 ?681次閱讀

    人臉識(shí)別模型訓(xùn)練失敗原因有哪些

    人臉識(shí)別模型訓(xùn)練失敗的原因有很多,以下是一些常見(jiàn)的原因及其解決方案: 數(shù)據(jù)集質(zhì)量問(wèn)題 數(shù)據(jù)集是訓(xùn)練人臉識(shí)別模型的基礎(chǔ)。如果數(shù)據(jù)集存在質(zhì)量問(wèn)題,將直接影響
    的頭像 發(fā)表于 07-04 09:17 ?450次閱讀

    人臉識(shí)別模型訓(xùn)練是什么意思

    人臉識(shí)別模型訓(xùn)練是指通過(guò)大量的人臉數(shù)據(jù),使用機(jī)器學(xué)習(xí)或深度學(xué)習(xí)算法,訓(xùn)練出一個(gè)能夠識(shí)別和分類人臉的模型。這個(gè)模型可以應(yīng)用于各種場(chǎng)景,如安防監(jiān)
    的頭像 發(fā)表于 07-04 09:16 ?398次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的預(yù)訓(xùn)練

    大語(yǔ)言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無(wú)需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對(duì)預(yù)訓(xùn)練數(shù)據(jù)的需求也相應(yīng)
    發(fā)表于 05-07 17:10

    蘋果ReALM模型在實(shí)體識(shí)別測(cè)試中超越OpenAI GPT-4.0

    “我們的模型識(shí)別各種類型實(shí)體方面都有顯著提升,即使是小尺寸模型,在屏幕實(shí)體識(shí)別準(zhǔn)確性上也已超過(guò)原有的系統(tǒng)5%以上。在與GPT-3.5和GPT-4.0的比較中,小型
    的頭像 發(fā)表于 04-02 11:23 ?384次閱讀

    什么是零點(diǎn)漂移?零點(diǎn)漂移產(chǎn)生的原因及解決辦法

    零點(diǎn)漂移,也被稱為DC漂移、溫度漂移或基線漂移,是指當(dāng)放大電路輸入信號(hào)為零(即沒(méi)有交流電輸入)時(shí)
    的頭像 發(fā)表于 02-05 16:00 ?2.4w次閱讀
    什么是零點(diǎn)<b class='flag-5'>漂移</b>?零點(diǎn)<b class='flag-5'>漂移</b>產(chǎn)生的原因及解決辦法

    輸出電壓的漂移現(xiàn)象 輸出電壓漂移的原因 輸出電壓漂移的解決方法

    輸出電壓的漂移現(xiàn)象 輸出電壓漂移的原因 輸出電壓漂移的解決方法 電壓漂移是指系統(tǒng)輸出的電壓在一段時(shí)間內(nèi)發(fā)生變化的現(xiàn)象。在實(shí)際電路中,電壓漂移
    的頭像 發(fā)表于 02-05 10:29 ?2107次閱讀

    重塑翻譯與識(shí)別技術(shù):開(kāi)源語(yǔ)音識(shí)別模型Whisper的編譯優(yōu)化與部署

    模型介紹Whisper模型是一個(gè)由OpenAI團(tuán)隊(duì)開(kāi)發(fā)的通用語(yǔ)音識(shí)別模型。它的訓(xùn)練基于大量不同的音頻數(shù)據(jù)集,是一個(gè)多任務(wù)模型,可以執(zhí)行語(yǔ)音
    的頭像 發(fā)表于 01-06 08:33 ?3227次閱讀
    重塑翻譯與<b class='flag-5'>識(shí)別</b>技術(shù):開(kāi)源語(yǔ)音<b class='flag-5'>識(shí)別</b><b class='flag-5'>模型</b>Whisper的編譯優(yōu)化與部署

    一個(gè)用于6D姿態(tài)估計(jì)和跟蹤的統(tǒng)一基礎(chǔ)模型

    今天筆者將為大家分享NVIDIA的最新開(kāi)源方案FoundationPose,是一個(gè)用于 6D 姿態(tài)估計(jì)和跟蹤的統(tǒng)一基礎(chǔ)模型。只要給出CAD模型或少量參考圖像,F(xiàn)oundationPose就可以在測(cè)試時(shí)立即應(yīng)用于新物體,無(wú)需任何微
    的頭像 發(fā)表于 12-19 09:58 ?748次閱讀
    一個(gè)用于6D姿態(tài)估計(jì)和<b class='flag-5'>跟蹤</b>的統(tǒng)一基礎(chǔ)<b class='flag-5'>模型</b>

    IROS&apos;23開(kāi)源,nuScenes跟蹤第一!無(wú)需學(xué)習(xí)的超強(qiáng)多目標(biāo)跟蹤!

    Poly-MOT跟蹤效果的直接對(duì)比,也體現(xiàn)了文章的核心思想,就是為不同類別建立不同的運(yùn)動(dòng)模型。汽車使用他們?cè)O(shè)計(jì)的CTRA模型,摩托車使用他們?cè)O(shè)計(jì)的Bicycle模型,CA表示勻速
    的頭像 發(fā)表于 11-20 16:46 ?1322次閱讀
    IROS&apos;23開(kāi)源,nuScenes<b class='flag-5'>跟蹤</b>第一!無(wú)需學(xué)習(xí)的超強(qiáng)多目標(biāo)<b class='flag-5'>跟蹤</b>!

    基于自行車模型的路徑跟蹤控制算法

    2.1 基于自行車模型的路徑跟蹤控制算法 2.1.1 純跟蹤控制(Pure Pursuit)算法 純追蹤控制是最早提出的路徑跟蹤策略之一。由于其易于實(shí)現(xiàn)和令人滿意的性能,已被證明是車輛
    的頭像 發(fā)表于 11-10 17:36 ?727次閱讀
    基于自行車<b class='flag-5'>模型</b>的路徑<b class='flag-5'>跟蹤</b>控制算法

    基于深度學(xué)習(xí)的情感語(yǔ)音識(shí)別模型優(yōu)化策略

    基于深度學(xué)習(xí)的情感語(yǔ)音識(shí)別模型的優(yōu)化策略,包括數(shù)據(jù)預(yù)處理、模型結(jié)構(gòu)優(yōu)化、損失函數(shù)改進(jìn)、訓(xùn)練策略調(diào)整以及集成學(xué)習(xí)等方面的內(nèi)容。
    的頭像 發(fā)表于 11-09 16:34 ?601次閱讀