0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于主動(dòng)學(xué)習(xí)的半監(jiān)督圖神經(jīng)網(wǎng)絡(luò)模型來對(duì)分子性質(zhì)進(jìn)行預(yù)測(cè)方法

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2020-11-24 09:59 ? 次閱讀

1 引言

最近,越來越多的研究開始將深度學(xué)習(xí)方法應(yīng)用到圖數(shù)據(jù)領(lǐng)域。圖神經(jīng)網(wǎng)絡(luò)在數(shù)據(jù)具有明確關(guān)系的結(jié)構(gòu)場景,如物理系統(tǒng),分子結(jié)構(gòu)和知識(shí)圖譜中有著廣泛的研究價(jià)值和應(yīng)用前景,本文將介紹在KDD 2020上發(fā)表的兩個(gè)在這一場景下的最新工作。

第一個(gè)工作是Research Track的《ASGN: An Active Semi-supervised Graph Neural Network for Molecular Property Prediction》,提出了一種基于主動(dòng)學(xué)習(xí)的半監(jiān)督圖神經(jīng)網(wǎng)絡(luò)模型來對(duì)分子性質(zhì)進(jìn)行預(yù)測(cè)方法。

第二個(gè)工作是Research Track的《Hierarchical Attention Propagation for Healthcare Representation Learning》,基于注意力機(jī)制,提出了一種利用的層次信息表示醫(yī)學(xué)本體的表示學(xué)習(xí)模型。

2 ASGN: An Active Semi-supervised Graph Neural Network for Molecular Property Prediction

2.1 動(dòng)機(jī)與貢獻(xiàn)

分子性質(zhì)(如能量)預(yù)測(cè)是化學(xué)和生物學(xué)中的一個(gè)重要問題。遺憾的是,許多監(jiān)督學(xué)習(xí)方法都存在著標(biāo)記分子在化學(xué)空間中稀缺的問題,而這類屬性標(biāo)記通常是通過密度泛函理論(DFT)計(jì)算得到的,計(jì)算量非常大。一個(gè)有效的解決方案是使用半監(jiān)督方法使未標(biāo)記的分子也能參與訓(xùn)練。然而,學(xué)習(xí)大量分子的半監(jiān)督表示具有挑戰(zhàn)性,存在包括分子本質(zhì)和結(jié)構(gòu)的聯(lián)合表征,表征與屬性學(xué)習(xí)的沖突等問題。本文作者提出了一個(gè)新的框架,結(jié)合了標(biāo)記和未標(biāo)記的分子來預(yù)測(cè)分子性質(zhì),稱為主動(dòng)半監(jiān)督圖神經(jīng)網(wǎng)絡(luò)(ASGN)。

2.2 模型

本文提出了一種新的主動(dòng)半監(jiān)督圖神經(jīng)網(wǎng)絡(luò)(ASGN)框架,通過在化學(xué)空間中合并標(biāo)記和未標(biāo)記的分子來預(yù)測(cè)分子的性質(zhì)??傮w框架如圖2所示。

總體來講,本文使用教師模型和學(xué)生模型來迭代訓(xùn)練。每個(gè)模型都是一個(gè)圖神經(jīng)網(wǎng)絡(luò)。在教師模型中,使用半監(jiān)督的方式來獲得分子圖的一般表示。我們聯(lián)合訓(xùn)練分子的無監(jiān)督表示和基于屬性預(yù)測(cè)的embedding。在學(xué)生模型中,通過微調(diào)教師模型中的參數(shù)來處理損失沖突。之后,再使用學(xué)生模型為未標(biāo)記的數(shù)據(jù)集分配偽標(biāo)簽。作為對(duì)教師模型的反饋,教師模型可以從這些偽標(biāo)簽中學(xué)習(xí)學(xué)生模型學(xué)到的知識(shí)。同時(shí),為了提高標(biāo)記效率,作者使用了主動(dòng)學(xué)習(xí)來選擇新的有代表性的未標(biāo)記分子進(jìn)行標(biāo)記。然后再將它們添加到標(biāo)記的集合中,并反復(fù)fine-tune兩個(gè)模型,直到達(dá)到預(yù)設(shè)精度。整個(gè)模型的核心思想是利用教師模型輸出的embedding來尋找整個(gè)未標(biāo)記集合中最具有多樣化性質(zhì)的子集,然后再使用DFT等方法給這些分子分配基本的真值標(biāo)簽。之后,將它們添加到標(biāo)簽集中,并重復(fù)迭代以提高性能。

2.2.1 教師模型

在教師模型中,本文采用了半監(jiān)督學(xué)習(xí)方式。教師模型的損失函數(shù)由三部分組成,一個(gè)具有標(biāo)記的分子的性質(zhì)損失函數(shù)和兩個(gè)無監(jiān)督損失函數(shù)(分別從節(jié)點(diǎn)和圖層面)。

(1) 本文使用了一種消息傳遞圖神經(jīng)網(wǎng)絡(luò)(MPGNN),先將分子圖轉(zhuǎn)化為基于消息傳遞圖神經(jīng)網(wǎng)絡(luò)的表示向量,之后在預(yù)測(cè)和標(biāo)記(即中的標(biāo)記屬性)之間使用均方損失(MSE)來指導(dǎo)模型參數(shù)的優(yōu)化

(2)在節(jié)點(diǎn)級(jí)表示學(xué)習(xí)中,模型主要學(xué)習(xí)從分子圖的幾何信息中獲取領(lǐng)域知識(shí)。其主要思想是使用node embedding從表示中重建節(jié)點(diǎn)類型和拓?fù)洌ü?jié)點(diǎn)之間的距離)。具體地說,我們首先從圖2所示的圖中對(duì)一些節(jié)點(diǎn)和邊進(jìn)行隨機(jī)采樣,然后將這些節(jié)點(diǎn)的表示傳遞給MLP,并用它們重建節(jié)點(diǎn)類型和節(jié)點(diǎn)間的距離。從數(shù)學(xué)上講,本文最小化了以下交叉熵:

(3)雖然能夠重構(gòu)分子拓?fù)浣Y(jié)構(gòu)的節(jié)點(diǎn)嵌入可以有效地表示分子的結(jié)構(gòu),然而結(jié)合圖級(jí)表示學(xué)習(xí)對(duì)屬性預(yù)測(cè)等下游任務(wù)也是有益的。為了學(xué)習(xí)圖級(jí)表示,關(guān)鍵是利用化學(xué)空間中分子之間的相互關(guān)系,即相似的分子具有相似的性質(zhì)。本文提出了一種基于學(xué)習(xí)聚類的圖級(jí)表示方法。首先,計(jì)算網(wǎng)絡(luò)的圖級(jí)embedding。然后,我們使用一種基于隱式聚類的方法來為每個(gè)分子分配一個(gè)由隱式聚類過程生成的聚類ID,然后利用一個(gè)懲罰損失函數(shù)對(duì)模型進(jìn)行優(yōu)化,該過程迭代進(jìn)行直到達(dá)到局部最小值。

(4)總LOSS:

2.2.2 學(xué)生模型

在實(shí)際應(yīng)用中,直接優(yōu)化教師模型中的公式(10)對(duì)屬性預(yù)測(cè)的結(jié)果并不理想。由于教師模型中的優(yōu)化目標(biāo)之間存在沖突,每個(gè)聯(lián)合優(yōu)化目標(biāo)的性能都比單獨(dú)優(yōu)化的性能要差。尤其是當(dāng)帶標(biāo)記分子遠(yuǎn)少于無標(biāo)記分子時(shí),模型很少關(guān)注一個(gè)epoch內(nèi)對(duì)的優(yōu)化,但對(duì)于分子性質(zhì)的預(yù)測(cè)是本文最關(guān)心的問題。因此,與只需學(xué)習(xí)分子性質(zhì)的模型相比,教師模型對(duì)于分子預(yù)測(cè)的損失要高得多。為了緩解這個(gè)問題,本文引入了一個(gè)學(xué)生模型。具體過程為:使用教師模型,通過共同優(yōu)化上述對(duì)象函數(shù)來學(xué)習(xí)分子表示,當(dāng)教師模型的學(xué)習(xí)過程結(jié)束時(shí),我們將教師模型的權(quán)重轉(zhuǎn)移到學(xué)生模型上,并使用學(xué)生模型僅對(duì)標(biāo)記的數(shù)據(jù)集進(jìn)行fine-tuning,以學(xué)習(xí)與圖2所示公式(4)相同的分子性質(zhì):

在fine-tuning之后,我們使用學(xué)生模型來推斷整個(gè)未標(biāo)記的數(shù)據(jù)集,并為每個(gè)未標(biāo)記的數(shù)據(jù)分配一個(gè)偽標(biāo)簽,表示學(xué)生對(duì)其性質(zhì)的預(yù)測(cè),未標(biāo)記的數(shù)據(jù)集為

,其中為學(xué)生模型的參數(shù)。在下一次迭代中,教師模型還需要學(xué)習(xí)這樣的偽標(biāo)簽,公式(10)變成:

2.2.3 使用主動(dòng)學(xué)習(xí)進(jìn)行數(shù)據(jù)選擇

在模型中本文已經(jīng)把這些信息包括在有標(biāo)記和未標(biāo)記的分子中。然而,由于可用標(biāo)簽數(shù)量有限,準(zhǔn)確度仍可能不盡如人意,所以需要尋找新的標(biāo)簽數(shù)據(jù)來提高其性能。因此,在每一次迭代中,我們使用教師模型輸出的embedding迭代地選擇一個(gè)分子子集,并通過DFT計(jì)算其性質(zhì)(真值標(biāo)簽)。然后我們將這些通過主動(dòng)學(xué)習(xí)輸出的分子加入到標(biāo)記集中,以迭代的方式微調(diào)兩個(gè)模型。主動(dòng)學(xué)習(xí)的關(guān)鍵策略是在化學(xué)空間中中找到一小批最多樣化的分子來進(jìn)行標(biāo)記。一個(gè)經(jīng)過充分研究的測(cè)量多樣性的方法是從k-DPP中取樣。然而,由于子集選擇是NP難的,因此本文采用了貪婪近似,即k-中心法。用表示未標(biāo)記的數(shù)據(jù)集,用表示有標(biāo)記的數(shù)據(jù)集,我們采用一種貪婪的方法,在每次迭代中選擇一個(gè)子集,使標(biāo)記集和未標(biāo)記集之間的距離最大化。具體來說,對(duì)于第k批中的每個(gè)0

是兩個(gè)分子之間的距離。

2.3 實(shí)驗(yàn)

2.3.1 實(shí)驗(yàn)設(shè)置

? Datasets:

(1) QM9: 130,000 molecules, <9 heavy atoms

(2) OPV: 100,000 medium sized molecules

? Properties (All calculated by DFT)

(1) QM9:

(2) OPV:

2.3.2 實(shí)驗(yàn)結(jié)果

Results on QM9

Results on OPV

3 Hierarchical Attention Propagation for Healthcare Representation Learning

3.1 動(dòng)機(jī)與貢獻(xiàn)

醫(yī)學(xué)本體論被廣泛用于表示和組織醫(yī)學(xué)術(shù)語。例如ICD-9、ICD-10、UMLS等。本體論通常以層次結(jié)構(gòu)構(gòu)建,編碼不同醫(yī)學(xué)概念之間的多層次子類關(guān)系,允許概念之間有非常細(xì)微的區(qū)別。醫(yī)學(xué)本體論為將領(lǐng)域知識(shí)整合到醫(yī)療預(yù)測(cè)系統(tǒng)中提供了一個(gè)很好的途徑,并可以緩解數(shù)據(jù)不足的問題,提高稀有類別的預(yù)測(cè)性能。為了整合這些領(lǐng)域知識(shí),Gram是一種最新的圖形注意力模型,它通過一種注意機(jī)制將醫(yī)學(xué)概念表示為其祖先embedding到本體中的加權(quán)和。盡管表現(xiàn)出了不錯(cuò)的性能,但Gram只考慮了概念的無序祖先,沒有充分地利用層次結(jié)構(gòu),因此表達(dá)能力有限。在本文中,我們提出了一種新的醫(yī)學(xué)本體嵌入模型HAP,該模型將注意力分層地傳播到整個(gè)本體結(jié)構(gòu)中,醫(yī)學(xué)概念自適應(yīng)地從層次結(jié)構(gòu)中的所有其他概念學(xué)習(xí)其embedding,而不僅僅是它的祖先。本文證明了HAP能夠?qū)W習(xí)到更具表現(xiàn)力的醫(yī)學(xué)概念embedding——從任意醫(yī)學(xué)概念embedding中能夠完全還原整個(gè)本體結(jié)構(gòu)。在兩個(gè)序列程序/診斷預(yù)測(cè)任務(wù)上的實(shí)驗(yàn)結(jié)果表明,HAP的embedding質(zhì)量優(yōu)于Gram和其他baseline。此外,本文發(fā)現(xiàn)使用完整的本體并不總是最好的。有時(shí)只使用較低層次的概念比使用所有層次的效果要好。

3.2 模型

本文提出了一種新的醫(yī)學(xué)本體嵌入方法:

1)充分層次化知識(shí)的DAG(有向無環(huán)圖)

2)尊重層次內(nèi)節(jié)點(diǎn)的有序性。

HAP對(duì)模型進(jìn)行兩輪信息傳播,更新每一級(jí)節(jié)點(diǎn)的嵌入:第一次是自下而上的傳播,第二次是自上而下的傳播。

假設(shè)本體節(jié)點(diǎn)有L層,其中第一層只包括單個(gè)根節(jié)點(diǎn),第L層只有葉子醫(yī)療代碼。第2,3,……L ?1層可以包含中間類別節(jié)點(diǎn)或葉醫(yī)療代碼(因?yàn)槟承┽t(yī)療代碼沒有完整的L層)。一開始,每個(gè)節(jié)點(diǎn)的embedding是由一個(gè)基本embedding 初始化的。在自底向上的信息傳播中,我們從第L-1層開始依次更新節(jié)點(diǎn)的embedding,直到第一層。對(duì)于第層的某一節(jié)點(diǎn),本文通過使用注意力機(jī)制自適應(yīng)地將當(dāng)前embedding與第層的其子級(jí)embedding相結(jié)合來更新其embedding :

其中表示開始更新-1層節(jié)點(diǎn)前節(jié)點(diǎn)的embedding,表示embedding大小。注意力權(quán)重的計(jì)算公式為:

其中是一個(gè)用于計(jì)算和之間標(biāo)量原始注意力的MLP。

自下而上的傳播從第二層直到根節(jié)點(diǎn)為止。同一級(jí)別的節(jié)點(diǎn)更新可以并行執(zhí)行,而上層節(jié)點(diǎn)的更新必須等到其所有較低級(jí)別都已更新為止。給定由自下而上傳播計(jì)算的embedding,HAP以自頂向下的方式執(zhí)行第二輪傳播。具體地說,我們從第二層,第三層……直到第L層順序更新節(jié)點(diǎn)的embedding。對(duì)于來自第-1層的節(jié)點(diǎn),使用一個(gè)使用一個(gè)類似的注意力機(jī)制自適應(yīng)地將當(dāng)前節(jié)點(diǎn)的embedding與來自第層的其父級(jí)embedding相結(jié)合來更新其embedding :

其中表示開始更新+1層節(jié)點(diǎn)前節(jié)點(diǎn)的embedding。注意力權(quán)重的計(jì)算公式為:

最后,在兩輪傳播之后,每個(gè)節(jié)點(diǎn)都將其注意力傳播到整個(gè)知識(shí)DAG中。因此,每個(gè)節(jié)點(diǎn)的最終嵌入不僅有效地吸收了其祖先的知識(shí),還吸收了其后代、兄弟姐妹,甚至一些遙遠(yuǎn)節(jié)點(diǎn)的知識(shí)。此外,由于傳播順序與層次結(jié)構(gòu)嚴(yán)格一致,因此保留了節(jié)點(diǎn)排序信息。例如,在自頂向下的傳播階段,節(jié)點(diǎn)的祖先按順序逐級(jí)向下傳遞信息,而不是像(1)中那樣一次性傳遞信息。這使得HAP能夠從不同層次上區(qū)分祖先/后代,并對(duì)排序信息進(jìn)行編碼。

最終的醫(yī)學(xué)代碼嵌入用于順序程序/診斷預(yù)測(cè)任務(wù)。在之后,本文采用了端到端的RNN框架。將最終得到的embedding , ,…… 以列的形式進(jìn)行拼接得到embedding矩陣 ,注意一個(gè)訪問記錄可以被表示為multi-hot向量。為了對(duì)于每一個(gè)屬于的醫(yī)學(xué)代碼都得到一個(gè)embedding向量,本文用與相乘并使用一個(gè)非線性變換:

之后我們依次將,,……,輸入RNN中,并對(duì)每一個(gè)訪問輸出一個(gè)中間隱藏態(tài),隱藏狀態(tài)是通過過去所有的時(shí)間戳直到到t的訪問給出的:

之后,對(duì)于下一時(shí)間戳的預(yù)測(cè)由下式給出:

我們使用分批梯度下降來最小化所有時(shí)間戳(除了時(shí)間戳1)的預(yù)測(cè)損失。單個(gè)患者的預(yù)測(cè)損失由下式得出:

3.3 實(shí)驗(yàn)

數(shù)據(jù)集設(shè)置:

結(jié)果:

?HAP (lv3): 所提出的HAP模型只使用最低的3個(gè)層次。也就是說,自下而上的傳播在L-2層停止,自頂向下的傳播也從L-2層開始。可以發(fā)現(xiàn)有時(shí)只使用較低層次的層次,就可以提供足夠的領(lǐng)域知識(shí),同時(shí)降低了計(jì)算復(fù)雜度。

? HAP (lv2): HAP模型只使用最低的2個(gè)層次.

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4726

    瀏覽量

    100315
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4260

    瀏覽量

    62232
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3062

    瀏覽量

    48575

原文標(biāo)題:【KDD20】圖神經(jīng)網(wǎng)絡(luò)在生物醫(yī)藥領(lǐng)域的應(yīng)用

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機(jī)器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)和強(qiáng)化
    發(fā)表于 07-25 14:33

    BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型的建模步驟

    BP(Backpropagation)神經(jīng)網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),其核心思想是通過反向傳播算法調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,從而實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的預(yù)測(cè)
    的頭像 發(fā)表于 07-11 16:57 ?1026次閱讀

    神經(jīng)網(wǎng)絡(luò)辨識(shí)模型具有什么特點(diǎn)

    神經(jīng)網(wǎng)絡(luò)辨識(shí)模型是一種基于人工神經(jīng)網(wǎng)絡(luò)的系統(tǒng)辨識(shí)方法,它具有以下特點(diǎn): 非線性映射能力 :神經(jīng)網(wǎng)絡(luò)能夠處理非線性問題,可以很好地?cái)M合復(fù)雜的非
    的頭像 發(fā)表于 07-11 11:12 ?330次閱讀

    bp神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型建模步驟

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種多層前饋神經(jīng)網(wǎng)絡(luò),其核心思想是通過反向傳播算法調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,從而實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的
    的頭像 發(fā)表于 07-11 10:52 ?357次閱讀

    PyTorch神經(jīng)網(wǎng)絡(luò)模型構(gòu)建過程

    PyTorch,作為一個(gè)廣泛使用的開源深度學(xué)習(xí)庫,提供了豐富的工具和模塊,幫助開發(fā)者構(gòu)建、訓(xùn)練和部署神經(jīng)網(wǎng)絡(luò)模型。在神經(jīng)網(wǎng)絡(luò)模型中,輸出層是
    的頭像 發(fā)表于 07-10 14:57 ?371次閱讀

    基于神經(jīng)網(wǎng)絡(luò)的語言模型有哪些

    文本或預(yù)測(cè)文本中的下一個(gè)詞。隨著深度學(xué)習(xí)技術(shù)的飛速發(fā)展,涌現(xiàn)出了多種不同類型的神經(jīng)網(wǎng)絡(luò)語言模型。以下將詳細(xì)介紹幾種主流的基于神經(jīng)網(wǎng)絡(luò)的語言
    的頭像 發(fā)表于 07-10 11:15 ?373次閱讀

    神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型的構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)模型作為一種強(qiáng)大的預(yù)測(cè)工具,廣泛應(yīng)用于各種領(lǐng)域,如金融、醫(yī)療、交通等。本文將詳細(xì)介紹神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)
    的頭像 發(fā)表于 07-05 17:41 ?505次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)模型

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,它能夠處理序列數(shù)據(jù),并對(duì)序列中的元素進(jìn)行建模。RNN在自然語言處理、語音識(shí)別、
    的頭像 發(fā)表于 07-05 09:50 ?459次閱讀

    如何使用神經(jīng)網(wǎng)絡(luò)進(jìn)行建模和預(yù)測(cè)

    神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)技術(shù),可以用于建模和預(yù)測(cè)變量之間的關(guān)系。 神經(jīng)網(wǎng)絡(luò)的基本概念 神經(jīng)網(wǎng)絡(luò)是一種受人腦啟發(fā)的計(jì)算
    的頭像 發(fā)表于 07-03 10:23 ?523次閱讀

    bp神經(jīng)網(wǎng)絡(luò)模型怎么算預(yù)測(cè)

    BP神經(jīng)網(wǎng)絡(luò)的基本原理、結(jié)構(gòu)、學(xué)習(xí)算法以及預(yù)測(cè)值的計(jì)算方法。 BP神經(jīng)網(wǎng)絡(luò)的基本原理 BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 09:59 ?528次閱讀

    數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)模型的優(yōu)缺點(diǎn)有哪些

    數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)模型是一種基于人工神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)建模方法,它通過模擬人腦神經(jīng)元的連接和信息傳遞機(jī)制,對(duì)復(fù)雜系統(tǒng)
    的頭像 發(fā)表于 07-02 11:36 ?686次閱讀

    基于神經(jīng)網(wǎng)絡(luò)算法的模型構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)算法,廣泛應(yīng)用于各種領(lǐng)域,如圖像識(shí)別、自然語言處理、語音識(shí)別等。本文詳細(xì)介紹了基于神經(jīng)網(wǎng)絡(luò)算法的模型構(gòu)建方法,包
    的頭像 發(fā)表于 07-02 11:21 ?382次閱讀

    構(gòu)建神經(jīng)網(wǎng)絡(luò)模型方法有幾種

    構(gòu)建神經(jīng)網(wǎng)絡(luò)模型是深度學(xué)習(xí)領(lǐng)域的核心任務(wù)之一。本文將詳細(xì)介紹構(gòu)建神經(jīng)網(wǎng)絡(luò)模型的幾種方法,包括前饗
    的頭像 發(fā)表于 07-02 10:15 ?269次閱讀

    利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)心電降噪

    具體的軟硬件實(shí)現(xiàn)點(diǎn)擊 http://mcu-ai.com/ MCU-AI技術(shù)網(wǎng)頁_MCU-AI 我們提出了一種利用由長短期記憶 (LSTM) 單元構(gòu)建的深度循環(huán)神經(jīng)網(wǎng)絡(luò)降 噪心電信號(hào) (ECG
    發(fā)表于 05-15 14:42

    助聽器降噪神經(jīng)網(wǎng)絡(luò)模型

    抑制任務(wù)是語音增強(qiáng)領(lǐng)域的一個(gè)重要學(xué)科, 隨著深度神經(jīng)網(wǎng)絡(luò)的興起,提出了幾種基于深度模型的音頻處理新方法[1,2,3,4]。然而,這些通常是為離線處理而開發(fā)的,不需要考慮實(shí)時(shí)性。當(dāng)使用神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 05-11 17:15