您好,歡迎來電子發(fā)燒友網(wǎng)! ,新用戶?[免費(fèi)注冊(cè)]

您的位置:電子發(fā)燒友網(wǎng)>源碼下載>數(shù)值算法/人工智能>

基于GPU的RBM并行加速方法

大?。?/span>0.94 MB 人氣: 2017-11-07 需要積分:0

  為針對(duì)受限玻爾茲曼機(jī)處理大數(shù)據(jù)時(shí)存在的訓(xùn)練緩慢、難以得到模型最優(yōu)的問題,提出了基于CJPU的RBM模型訓(xùn)練并行加速方法。首先重新規(guī)劃了對(duì)比散度算法在C‘JPU的實(shí)現(xiàn)步驟;其次結(jié)合以往C’JPU并行方案,提出采用CUBLAS執(zhí)行訓(xùn)練的矩陣乘加運(yùn)算,設(shè)計(jì)周期更長、代碼更為簡(jiǎn)潔的Tausworthe113和CLCC4的組合隨機(jī)數(shù)生成器,利用CUDA拾取紋理內(nèi)存的讀取模式實(shí)現(xiàn)了Sigmoid函數(shù)值計(jì)算;最后對(duì)訓(xùn)練時(shí)間和效果進(jìn)行檢驗(yàn)。通過MNIST手寫數(shù)字識(shí)別集實(shí)驗(yàn)證明,相較于以往RBM并行代碼,新設(shè)計(jì)的CJPU并行方案在處理大規(guī)模數(shù)據(jù)集訓(xùn)練上優(yōu)勢(shì)較為明顯,加速比達(dá)到25以上。

基于GPU的RBM并行加速方法

非常好我支持^.^

(0) 0%

不好我反對(duì)

(0) 0%

      發(fā)表評(píng)論

      用戶評(píng)論
      評(píng)價(jià):好評(píng)中評(píng)差評(píng)

      發(fā)表評(píng)論,獲取積分! 請(qǐng)遵守相關(guān)規(guī)定!

      ?