0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

知乎搜索中文本相關(guān)性和知識(shí)蒸餾的工作實(shí)踐

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:申站 ? 2021-01-18 17:20 ? 次閱讀

導(dǎo)讀:大家好,我是申站,知乎搜索團(tuán)隊(duì)的算法工程師。今天給大家分享下知乎搜索中文本相關(guān)性和知識(shí)蒸餾的工作實(shí)踐,主要內(nèi)容包括:

知乎搜索文本相關(guān)性的演進(jìn)

BERT在知乎搜索的應(yīng)用和問(wèn)題

知識(shí)蒸餾及常見(jiàn)方案

知乎搜索在BERT蒸餾上的實(shí)踐

01

知乎搜索文本相關(guān)性的演進(jìn)

1. 文本相關(guān)性的演進(jìn)

51d17038-58b2-11eb-8b86-12bb97331649.jpg

我們首先來(lái)介紹下知乎搜索中的文本相關(guān)性。在搜索場(chǎng)景中,文本相關(guān)性可以定義為?戶(hù)搜索query的意圖與召回 doc 內(nèi)容的相關(guān)程度。我們需要通過(guò)不同模型來(lái)對(duì)這種相關(guān)程度進(jìn)行建模。整體而言,文本的相關(guān)性一般可以分為兩個(gè)維度,字面匹配和語(yǔ)義相關(guān)。知乎搜索中文本相關(guān)性模型的演進(jìn)也是從這兩個(gè)方面出發(fā)并有所側(cè)重和發(fā)展。在知乎搜索的整個(gè)架構(gòu)中,文本相關(guān)性模型主要定位于為二輪精排模型提供更高維/抽象的特征,同時(shí)也兼顧了一部分召回相關(guān)的工作。

2. Before NN

5203607a-58b2-11eb-8b86-12bb97331649.png

知乎搜索中的文本相關(guān)性整體演進(jìn)可以分為三個(gè)階段。在引入深度語(yǔ)義匹配模型前,知乎搜索的文本相關(guān)性主要是基于TF-IDF/BM25的詞袋模型,下圖右邊是BM25的公式。詞袋模型通常來(lái)說(shuō)是一個(gè)系統(tǒng)的工程,除了需要人工設(shè)計(jì)公式外,在統(tǒng)計(jì)詞的權(quán)重、詞頻的基礎(chǔ)上,還需要覆蓋率、擴(kuò)展同義詞,緊密度等各種模塊的協(xié)同配合,才能達(dá)到一個(gè)較好的效果。知乎搜索相關(guān)性的一個(gè)比較早期的版本就是在這個(gè)基礎(chǔ)上迭代的。右下部分為在基于詞袋模型的基礎(chǔ)上,可以參考使用的一些具體特征。

3. Before BERT

533732d2-58b2-11eb-8b86-12bb97331649.png

基于 BM25 的詞袋模型不管如何設(shè)計(jì),主要還是只解決文本相關(guān)性中的字面匹配這部分問(wèn)題。第二階段引入的深度語(yǔ)義匹配模型則聚焦于解決語(yǔ)義相關(guān)的問(wèn)題,主要分為兩部分:雙塔表示模型和底層交互模型。微軟的DSSM(左下)是雙塔模型的典型代表。雙塔模型通過(guò)兩個(gè)不同的 encoder來(lái)分別獲取query和doc的低維語(yǔ)義句向量表示,然后針對(duì)兩個(gè)語(yǔ)義向量來(lái)設(shè)計(jì)相關(guān)性函數(shù)(比如cosine)。DSSM擺脫了詞袋模型復(fù)雜的特征工程和子模塊設(shè)計(jì),但也存在固有的缺陷:query和doc的語(yǔ)義表示是通過(guò)兩個(gè)完全獨(dú)立的 encoder 來(lái)獲取的,兩個(gè)固定的向量無(wú)法動(dòng)態(tài)的擬合doc在不同 query的不同表示。這個(gè)反應(yīng)到最后的精度上,肯定會(huì)有部分的損失。

底層交互模型一定程度上解決了這個(gè)問(wèn)題。這個(gè)交互主要體現(xiàn)在 query 和 doc term/char 交互矩陣(中)的設(shè)計(jì)上,交互矩陣使模型能夠在靠近輸入層就能獲取 query 和 doc 的相關(guān)信息。在這個(gè)基礎(chǔ)上,后續(xù)通過(guò)不同的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)來(lái)實(shí)現(xiàn)特征提取得到 query-doc pair 的整體表示,最后通過(guò)全連接層來(lái)計(jì)算最終相關(guān)性得分。Match-Pyramid(右下)、KNRM(右上)是交互模型中比較有代表性的設(shè)計(jì),我們?cè)谶@兩個(gè)模型的基礎(chǔ)上做了一些探索和改進(jìn),相比于傳統(tǒng)的 BM25 詞袋模型取得了很大的提升。

4.BERT

540a2aca-58b2-11eb-8b86-12bb97331649.jpg

BERT模型得益于 transformer 結(jié)構(gòu)擁有非常強(qiáng)大的文本表示能力。第三階段我們引入了 BERT希望能夠進(jìn)一筆提高知乎搜索中文本相關(guān)性的表型。BERT 的應(yīng)用也分為表示模型和交互模型。

對(duì)于交互模型來(lái)說(shuō),如下左圖,query和doc分別為sentence1和sentence2直接輸入到BERT模型中,通過(guò)BERT做一個(gè)整體的encoder去得到sentence pair的向量表示,再通過(guò)全連接層得到相似性打分,因?yàn)槊總€(gè)doc都是依賴(lài)query的,每個(gè)query-doc pair都需要線上實(shí)時(shí)計(jì)算,對(duì)GPU機(jī)器資源的消耗非常大,對(duì)整體的排序服務(wù)性能有比較大的影響。

基于上述原因,我們也做了類(lèi)似于DSSM形式的表示模型,將BERT作為encoder,訓(xùn)練數(shù)據(jù)的中的每個(gè)query和doc在輸入層沒(méi)有區(qū)分,都是做為不同的句子輸入,得到每個(gè)句向量表示,之后再對(duì)兩個(gè)表示向量做點(diǎn)乘,得到得到相關(guān)度打分。通過(guò)大量的實(shí)驗(yàn),我們最終采用了 BERT 輸出 token 序列向量的 average 作為句向量的表示。從交互模型到表示模型的妥協(xié)本質(zhì)是空間換時(shí)間,因?yàn)閐oc是可以全量離線計(jì)算存儲(chǔ)的,在線只需要實(shí)時(shí)計(jì)算比較短的 query ,然后doc直接通過(guò)查表,節(jié)省了大量的線上計(jì)算。相比于交互模型,精度有一部分損失。

02

BERT在知乎搜索的應(yīng)用和問(wèn)題

1.搜索業(yè)務(wù)架構(gòu)中的BERT

544c0576-58b2-11eb-8b86-12bb97331649.jpg

在下圖中我們可以看到,BERT在知乎搜索業(yè)務(wù)的召回和排序階段都扮演了比較重要的角色。交互模型的主要服務(wù)于二輪精排模型,依賴(lài)于線上實(shí)時(shí)的計(jì)算query和doc,為精排模塊提供相關(guān)性特征。表示模型又分為在線和離線兩塊,在線表示模型實(shí)時(shí)的為用戶(hù)輸入的query提供句向量表示,離線表示模型為庫(kù)中的doc進(jìn)行批量句向量計(jì)算。一方面,doc向量通過(guò)TableStore/TiDB 和Redis的兩級(jí)存儲(chǔ)設(shè)計(jì),為線上排序做查詢(xún)服務(wù);另一方面,使用 faiss 對(duì)批量doc 向量構(gòu)建語(yǔ)義索引,在傳統(tǒng)的 term 召回基礎(chǔ)上補(bǔ)充向量語(yǔ)義召回。

2. BERT表示模型語(yǔ)義召回

549e1fdc-58b2-11eb-8b86-12bb97331649.jpg

下面詳細(xì)介紹下我們的語(yǔ)義召回模型。首先看個(gè)例子,對(duì)于「瑪莎拉蒂 ghlib」這個(gè)case,用戶(hù)真正想搜的是「瑪莎拉蒂 Ghibli」這款車(chē),但用戶(hù)一般很難記住完整的名稱(chēng),可能會(huì)輸錯(cuò)。在輸錯(cuò)的情況下,基于傳統(tǒng)的term匹配方式(Google搜索的例子)只能召回“瑪莎拉蒂”相關(guān)的 doc,而無(wú)法進(jìn)行這輛車(chē)型的召回,這種場(chǎng)景下就需要進(jìn)行語(yǔ)義召回。更通用的來(lái)說(shuō),語(yǔ)義召回可以理解為增加了字面不匹配但是語(yǔ)義相關(guān)的 doc 的召回。

語(yǔ)義召回模型整體是BERT 相關(guān)性任務(wù)中雙塔表示模型的一個(gè)應(yīng)用。BERT做為encoder來(lái)對(duì)query和doc進(jìn)行向量的表示,基于faiss對(duì)全量 doc 向量構(gòu)建語(yǔ)義索引,線上實(shí)時(shí)的用query向量進(jìn)行召回。這個(gè)策略上線后,線上top20 doc中語(yǔ)義召回doc數(shù)量占總召回 doc 數(shù)量的比例能到達(dá) 5%+。

3. BERT帶來(lái)的問(wèn)題

54c6aa42-58b2-11eb-8b86-12bb97331649.jpg

BEER 模型上線后,為不同的模塊都取得了不錯(cuò)收益的同時(shí),也給整個(gè)系統(tǒng)帶來(lái)了不少問(wèn)題。這些問(wèn)題整體可以歸結(jié)為線上實(shí)時(shí)計(jì)算、離線存儲(chǔ)、模型迭代三個(gè)方面。具體的見(jiàn)上圖。

4. 蒸餾前的嘗試

針對(duì)上述性能或存儲(chǔ)的問(wèn)題,在對(duì)BERT 蒸餾之前,我們也進(jìn)行了很多不同的嘗試。

5503b086-58b2-11eb-8b86-12bb97331649.jpg

BERT 交互模型的部署放棄了使用原生TF serving,而是在cuda 的基礎(chǔ)上用c++ 重寫(xiě)了模型的加載和serving,加上混合精度的使用。在我們的業(yè)務(wù)規(guī)模上,線上實(shí)時(shí)性能提高到原來(lái)的約 1.5 倍,使BERT交互模型滿(mǎn)足了的最低的可上線要求。在這個(gè)基礎(chǔ)上,對(duì)線上的 BERT 表示模型增加 cache,減少約 60% 的請(qǐng)求,有效減少了GPU 機(jī)器資源的消耗。

另一個(gè)思路是嘗試給BERT在橫向和縱向維度上瘦身。橫向上,一方面可以減小serving 時(shí) max_seq_length長(zhǎng)度,減少計(jì)算量;另一方面可以對(duì)表示向量進(jìn)行維度壓縮來(lái)降低存儲(chǔ)開(kāi)銷(xiāo)。這兩種嘗試在離線和在線指標(biāo)上都有不同程度的損失,因此被放棄??v向上,主要是減少模型的深度,即減少 transformer層數(shù)。這對(duì)于顯存和計(jì)算量都能得到顯著的優(yōu)化。前期嘗試過(guò)直接訓(xùn)練小模型,以及使用BERT-base若干層在下游的相關(guān)性任務(wù)上進(jìn)行fine-tune。這兩種方案,在離線指標(biāo)上的表現(xiàn)就沒(méi)法達(dá)到要求,因此也沒(méi)有上線。

針對(duì) doc數(shù)量過(guò)大,存儲(chǔ)開(kāi)銷(xiāo)過(guò)大和語(yǔ)義索引構(gòu)建慢的問(wèn)題。在這方面做了一個(gè)妥協(xié)的方案:通過(guò)wilson score 等規(guī)則過(guò)濾掉大部分低質(zhì)量的 doc,只對(duì)約 1/3 的doc 存儲(chǔ)表示向量和構(gòu)建語(yǔ)義索引。該方案會(huì)導(dǎo)致部分文檔的相關(guān)性特征存在缺失。對(duì)于表示模型存在的低交互問(wèn)題,嘗試Poly-encoder(Facebook方案)將固定的 768維表示向量轉(zhuǎn)為多個(gè)head的形式,用多個(gè)head做attention的計(jì)算,保證性能在部分下降的前提得到部分精度的提升。

03

智知識(shí)蒸餾及常見(jiàn)方案

1.知識(shí)蒸餾

5542ddb0-58b2-11eb-8b86-12bb97331649.jpg

下面簡(jiǎn)單介紹下知識(shí)蒸餾。從下圖中看,我們可以把知識(shí)蒸餾的整體形式簡(jiǎn)化為:大模型不考慮性能問(wèn)題盡量學(xué)習(xí)更多的知識(shí)(數(shù)據(jù)),小模型通過(guò)適量的數(shù)據(jù)去高效地學(xué)習(xí)大模型的輸出,達(dá)到一個(gè)知識(shí)遷移的效果。實(shí)際 serving 使用的是小模型。

556b0740-58b2-11eb-8b86-12bb97331649.jpg

知識(shí)蒸餾為什么能有效?關(guān)鍵點(diǎn)在于 soft target 和 temperature。soft target對(duì)應(yīng)的是teacher模型的輸出,類(lèi)似于概率分布,知識(shí)蒸餾從hard target轉(zhuǎn)為soft target的學(xué)習(xí)有利于模型更好的去擬合標(biāo)簽,引入temperature則是為了進(jìn)一步平滑標(biāo)簽,讓模型去學(xué)習(xí)到類(lèi)別和類(lèi)別中的知識(shí)。這里需要注意的是,temperature 的選取不宜過(guò)大,太大的 temperature 會(huì)導(dǎo)致不同類(lèi)別之間的差異被完全平滑掉。

2.BERT蒸餾方案

5592633a-58b2-11eb-8b86-12bb97331649.jpg

對(duì)與BERT的蒸餾我們做了大量的調(diào)研,并對(duì)目前主流的蒸餾方案做了歸納分類(lèi)。基于任務(wù)維度來(lái)說(shuō),主要對(duì)應(yīng)于現(xiàn)在的pretrain + fine-tune 的兩段式訓(xùn)練。在預(yù)訓(xùn)練階段和下游任務(wù)階段都有不少的方案涉及。技巧層面來(lái)分的話(huà),主要包括不同的遷移知識(shí)和模型結(jié)構(gòu)的設(shè)計(jì)兩方面。后面我會(huì)選兩個(gè)典型的模型簡(jiǎn)單介紹一下。

3. 蒸餾-MiniLM

55e2c29e-58b2-11eb-8b86-12bb97331649.jpg

MiniLM是基于預(yù)訓(xùn)練任務(wù)的蒸餾,其是一種通用的面向Transformer-based預(yù)訓(xùn)練模型壓縮算法。主要改進(jìn)點(diǎn)有三個(gè),一是蒸餾teacher模型最后一層Transformer的自注意力模塊,二是在自注意模塊中引入 values-values點(diǎn)乘矩陣的知識(shí)遷移,三是使?了 assistant ?絡(luò)來(lái)輔助蒸餾。

4.蒸餾-BERT to Simple NN

562d325c-58b2-11eb-8b86-12bb97331649.jpg

BERT to Simple NN更多的是做了一些loss形式的設(shè)計(jì),使其訓(xùn)練方式更高效。

04

知乎搜索再BERT蒸餾上的實(shí)踐

1.BERT蒸餾上的實(shí)踐和收益

5650a430-58b2-11eb-8b86-12bb97331649.jpg

前面的介紹中我有提到,在做 BERT蒸餾前其實(shí)已經(jīng)做了很多嘗試,但是多少都會(huì)有精度的損失。因此,我們做蒸餾的第一目標(biāo)是離線模型對(duì)?線上 BERT精度?損。但對(duì)BERT-base 直接進(jìn)行蒸餾,無(wú)論如何都沒(méi)辦法避免精度的損失,所以我們嘗試用更大的模型(比如BERT-large/Robert-large/XLNET)來(lái)作為 teacher 進(jìn)行蒸餾。這些多層的模型均在我們知乎全量語(yǔ)料先做pretrain,再做fine-tune,得到微調(diào)后的模型再做蒸餾。

2.蒸餾-Patient KD

5697a07e-58b2-11eb-8b86-12bb97331649.jpg

我們對(duì)交互模型和表示模型都做了蒸餾,主要采用了Patient KD模型的結(jié)構(gòu)設(shè)計(jì),Student模型基于BERT-base的若干層運(yùn)用不同的策略進(jìn)行參數(shù)的初始化,去學(xué)習(xí)Robert-large大模型的方案。

其中知識(shí)遷移主要有三部分:student的預(yù)測(cè)與真實(shí)標(biāo)簽的交叉熵、student與teacher的預(yù)測(cè)的交叉熵和中間隱層的向量之間的normalized MSE。

3.BERT交互模型蒸餾

56d60756-58b2-11eb-8b86-12bb97331649.jpg

對(duì)于我們選的teacher模型Robert-large,單純預(yù)訓(xùn)練模型其nDCG指標(biāo)為0.914,線上之前使用的BERT-base 是0.907,若對(duì)BERT-base的若干6層直接去做fine-tune能達(dá)到的最高指標(biāo)是0.903,對(duì)比于BERT-base精度會(huì)損失很多。

我們這塊做了一些嘗試,基于Robert-large從24層蒸餾到6層的話(huà)能到0.911,能超過(guò)線上BERT-base的效果。

訓(xùn)練數(shù)據(jù)方面,我們經(jīng)歷了點(diǎn)擊日志數(shù)據(jù)挖掘到逐漸建立起完善的標(biāo)注數(shù)據(jù)集。目前,相關(guān)性任務(wù)訓(xùn)練和蒸餾主要均基于標(biāo)注數(shù)據(jù)集。標(biāo)注數(shù)據(jù)分為 title和 content兩部分,Query 數(shù)量達(dá)到 10w+ 的規(guī)模,標(biāo)注 doc 在 300w ~ 400w 之間。

4. BERT表示模型蒸餾

5757fc8e-58b2-11eb-8b86-12bb97331649.jpg

在BERT表示模型上,蒸餾時(shí)我們希望對(duì)向量維度和模型層數(shù)同時(shí)進(jìn)行壓縮,但蒸餾后得到的student模型表現(xiàn)不及預(yù)期。所以最后上線的方案中,表示模型層數(shù)還是維持了12層。在蒸餾時(shí),為了提高精度,選取交互模型作為teacher進(jìn)行蒸餾。因?yàn)榻换ツP褪莙uery和doc之間的打分,交互模型得到的logits與表示模型點(diǎn)乘后的打分在數(shù)量值會(huì)有較大差值,所以用pairwise形式通過(guò)teacher差值擬合來(lái)進(jìn)行l(wèi)oss的計(jì)算。

在維度壓縮方面我們做了對(duì)比實(shí)驗(yàn),BERT模型輸出做 average pooling 后接全連接層分別壓縮至8維到768維。如圖所示,128維和64維的表現(xiàn)跟768維差別不大,在上線時(shí)選擇維度為64和128進(jìn)行嘗試,兩者在線上表現(xiàn)沒(méi)有太明顯的差異,最終選擇了64維的方案,把模型的維度壓縮了12倍,存儲(chǔ)消耗更低。

5. 蒸餾的收益

蒸餾的收益主要分為在線和離線兩部分。

579a5d40-58b2-11eb-8b86-12bb97331649.jpg

在線方面:

交互模型的層數(shù)從12層壓縮到6層,排序相關(guān)性特征P95減少為原本的1/2,整體搜索入口下降40ms,模型部署所需的GPU機(jī)器數(shù)也減少了一半,降低了資源消耗。

表示模型語(yǔ)義索引存儲(chǔ)規(guī)模title減為1/4,content維度從768維壓縮至64維,雖然維度減少了12倍,但增加了倒排索引doc的數(shù)量,所以content最終減為1/6,

語(yǔ)義索引召回也有比較大的提升,title減少為1/3,content減少為1/2。精排模塊需要線上實(shí)時(shí)查詢(xún)離線計(jì)算好的向量,所以查詢(xún)服務(wù)也有提升。

離線方面:

表示模型語(yǔ)義索引的構(gòu)建時(shí)間減少為1/4,底層知乎自研的TableStore/TIDB存儲(chǔ)減為原來(lái)的1/6,LTR訓(xùn)練數(shù)據(jù)和訓(xùn)練時(shí)間都有很大的提升,粗排早期用的是BM25等基礎(chǔ)特征,后來(lái)引入了32維的BERT向量,提升了精排精度。

責(zé)任編輯:xj

原文標(biāo)題:知乎搜索文本相關(guān)性與知識(shí)蒸餾

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 文本
    +關(guān)注

    關(guān)注

    0

    文章

    118

    瀏覽量

    17047
  • 相關(guān)性
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    1288
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    279

    瀏覽量

    13309

原文標(biāo)題:知乎搜索文本相關(guān)性與知識(shí)蒸餾

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【AWTK使用經(jīng)驗(yàn)】如何在AWTK顯示阿拉伯文本

    。本篇文章將簡(jiǎn)單介紹阿拉伯文本相關(guān)整形與排序規(guī)則,接著介紹在AWStudio設(shè)置阿拉伯語(yǔ)言翻譯的步驟。阿拉伯文本整形規(guī)則一般GUI顯示英文或者中文時(shí),內(nèi)存中存儲(chǔ)的字符
    的頭像 發(fā)表于 09-12 08:07 ?245次閱讀
    【AWTK使用經(jīng)驗(yàn)】如何在AWTK顯示阿拉伯<b class='flag-5'>文本</b>

    探索AC自動(dòng)機(jī):多關(guān)鍵詞搜索的原理與應(yīng)用案例

    方法的效率會(huì)顯著下降,尤其是在需要與詞典進(jìn)行詳盡對(duì)比的場(chǎng)景中。本文將介紹的Aho-Corasick(AC)自動(dòng)機(jī)作為多模式匹配中的經(jīng)典算法,不僅能夠處理大規(guī)模文本數(shù)據(jù),還能確保搜索過(guò)程的實(shí)時(shí)和準(zhǔn)確
    的頭像 發(fā)表于 08-26 15:55 ?768次閱讀
    探索AC自動(dòng)機(jī):多關(guān)鍵詞<b class='flag-5'>搜索</b>的原理與應(yīng)用案例

    網(wǎng)狀告AI搜索:搜到我家論文題目和摘要,你侵權(quán)了!

    創(chuàng)業(yè)團(tuán)隊(duì)秘塔AI搜索,被網(wǎng)給告了!足足28頁(yè)的侵權(quán)告知函,總結(jié)一句話(huà)就是:貴司的AI搜索,能搜到我家的學(xué)術(shù)文獻(xiàn)題錄及摘要數(shù)據(jù),且沒(méi)經(jīng)我司許可,嚴(yán)重侵權(quán)。
    的頭像 發(fā)表于 08-16 17:47 ?237次閱讀
    <b class='flag-5'>知</b>網(wǎng)狀告AI<b class='flag-5'>搜索</b>:搜到我家論文題目和摘要,你侵權(quán)了!

    全新AI產(chǎn)品&quot;直答&quot;亮相第十屆鹽Club新知青年大會(huì)

    知識(shí)的海洋中,每一次探索都是一次對(duì)未知的旅程。6月29日,第十屆鹽Club新知青年大會(huì)上,以其敏銳的科技洞察力,正式推出了全新AI產(chǎn)品——“
    的頭像 發(fā)表于 07-01 16:55 ?407次閱讀

    接觸與非接觸式測(cè)量相關(guān)性的方法

    接觸式測(cè)量和非接觸式測(cè)量是兩種常見(jiàn)的測(cè)量方法,它們?cè)诠I(yè)生產(chǎn)、科學(xué)研究和日常生活中都有廣泛的應(yīng)用。本文將詳細(xì)介紹這兩種測(cè)量方法的基本原理、特點(diǎn)、應(yīng)用領(lǐng)域以及它們之間的相關(guān)性。 一、接觸式測(cè)量
    的頭像 發(fā)表于 06-14 09:24 ?800次閱讀

    Chrome瀏覽器地址欄更新,運(yùn)用機(jī)器學(xué)習(xí)提升相關(guān)性判斷準(zhǔn)確

    據(jù)悉,谷歌成功將機(jī)器學(xué)習(xí)(ML)模型融入Chrome多功能框,以實(shí)現(xiàn)更為精準(zhǔn)的內(nèi)容推薦。舉例而言,若用戶(hù)在短時(shí)間內(nèi)關(guān)閉某網(wǎng)頁(yè),AI便會(huì)判定此頁(yè)非所需,進(jìn)而降低其相關(guān)性得分。
    的頭像 發(fā)表于 04-30 11:15 ?467次閱讀

    請(qǐng)問(wèn)TouchGFX能不能實(shí)現(xiàn)中文文本編輯及顯示?

    目前來(lái)看,TouchGFX顯示的中文好像都是固定的。但是如果我串口收到一個(gè)中文unicode的編碼,要將其顯示出來(lái),或者用戶(hù)通過(guò)鍵盤(pán),編輯任意中文文本的話(huà),要怎么實(shí)現(xiàn)呢?
    發(fā)表于 04-09 08:23

    母線保護(hù)相關(guān)知識(shí)分享

    母線保護(hù)相關(guān)知識(shí)分享
    的頭像 發(fā)表于 01-19 10:29 ?455次閱讀
    母線保護(hù)<b class='flag-5'>相關(guān)</b><b class='flag-5'>知識(shí)</b>分享

    Spring事務(wù)傳播相關(guān)知識(shí)

    本文主要介紹了Spring事務(wù)傳播相關(guān)知識(shí)。
    的頭像 發(fā)表于 01-10 09:29 ?356次閱讀
    Spring事務(wù)傳播<b class='flag-5'>性</b>的<b class='flag-5'>相關(guān)</b><b class='flag-5'>知識(shí)</b>

    NVIDIA 精彩問(wèn)答甄選 | 探索 AI 如何推動(dòng)工作流升級(jí)相關(guān)精彩問(wèn)答

    NVIDIA 帶來(lái)精彩問(wèn)答甄選系列,將為您精選上有關(guān) NVIDIA 產(chǎn)品的精彩問(wèn)答。 本期為問(wèn)答甄選第十九期 —— 探索 AI 如何推動(dòng)工作
    的頭像 發(fā)表于 12-14 16:10 ?334次閱讀
    NVIDIA <b class='flag-5'>知</b><b class='flag-5'>乎</b>精彩問(wèn)答甄選 | 探索 AI 如何推動(dòng)<b class='flag-5'>工作</b>流升級(jí)<b class='flag-5'>相關(guān)</b>精彩問(wèn)答

    NVIDIA 精彩問(wèn)答甄選 | 查看關(guān)于 NVIDIA Omniverse 的相關(guān)精彩問(wèn)答

    NVIDIA 帶來(lái)精彩問(wèn)答甄選系列,將為您精選上有關(guān) NVIDIA 產(chǎn)品的精彩問(wèn)答。 本期為問(wèn)答甄選第十八期 ——? 查看關(guān)于?NVIDIA Omniverse 的
    的頭像 發(fā)表于 12-01 18:40 ?408次閱讀
    NVIDIA <b class='flag-5'>知</b><b class='flag-5'>乎</b>精彩問(wèn)答甄選 | 查看關(guān)于 NVIDIA Omniverse 的<b class='flag-5'>相關(guān)</b>精彩問(wèn)答

    高性能電機(jī)控制應(yīng)用的電流反饋系統(tǒng)中的相關(guān)性與可用

    電子發(fā)燒友網(wǎng)站提供《高性能電機(jī)控制應(yīng)用的電流反饋系統(tǒng)中的相關(guān)性與可用.pdf》資料免費(fèi)下載
    發(fā)表于 11-29 10:17 ?0次下載
    高性能電機(jī)控制應(yīng)用的電流反饋系統(tǒng)中的<b class='flag-5'>相關(guān)性</b>與可用<b class='flag-5'>性</b>

    NVIDIA 精彩問(wèn)答甄選 | 分享 NVIDIA 助力醫(yī)學(xué)研究的相關(guān)精彩問(wèn)答

    NVIDIA 帶來(lái)精彩問(wèn)答甄選系列,將為您精選上有關(guān) NVIDIA 產(chǎn)品的精彩問(wèn)答。 本期為問(wèn)答甄選第十七期 ——? 分享 NVIDIA 助力醫(yī)學(xué)研究的
    的頭像 發(fā)表于 11-24 19:25 ?488次閱讀
    NVIDIA <b class='flag-5'>知</b><b class='flag-5'>乎</b>精彩問(wèn)答甄選 | 分享 NVIDIA 助力醫(yī)學(xué)研究的<b class='flag-5'>相關(guān)</b>精彩問(wèn)答

    NVIDIA 精彩問(wèn)答甄選 | 了解 NVIDIA 生成式 AI 相關(guān)技術(shù)如何驅(qū)動(dòng)各行業(yè)發(fā)展

    以下兩個(gè)甄選問(wèn)答將為您分享 NVIDIA 生成式 AI 相關(guān)技術(shù)是如何驅(qū)動(dòng)各行業(yè)發(fā)展的。 Q:? 生成式 AI 如何優(yōu)化零售業(yè)的工作表現(xiàn)? A: 60% 的購(gòu)物旅程從網(wǎng)上開(kāi)始,消
    的頭像 發(fā)表于 11-10 17:25 ?386次閱讀
    NVIDIA <b class='flag-5'>知</b><b class='flag-5'>乎</b>精彩問(wèn)答甄選 | 了解 NVIDIA 生成式 AI <b class='flag-5'>相關(guān)</b>技術(shù)如何驅(qū)動(dòng)各行業(yè)發(fā)展

    任意模型都能蒸餾!華為諾亞提出異構(gòu)模型的知識(shí)蒸餾方法

    相比于僅使用logits的蒸餾方法,同步使用模型中間層特征進(jìn)行蒸餾的方法通常能取得更好的性能。然而在異構(gòu)模型的情況下,由于不同架構(gòu)模型對(duì)特征的不同學(xué)習(xí)偏好,它們的中間層特征往往具有較大的差異,直接將針對(duì)同架構(gòu)模型涉及的蒸餾方法遷
    的頭像 發(fā)表于 11-01 16:18 ?887次閱讀
    任意模型都能<b class='flag-5'>蒸餾</b>!華為諾亞提出異構(gòu)模型的<b class='flag-5'>知識(shí)</b><b class='flag-5'>蒸餾</b>方法