0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MIND:高質(zhì)量的新聞推薦數(shù)據(jù)集

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2021-01-07 14:42 ? 次閱讀

MIND簡介

個性化新聞推薦技術(shù)是諸多在線新聞網(wǎng)站和應(yīng)用的關(guān)鍵技術(shù),可以提升用戶的新聞閱讀體驗并減輕信息過載。目前,許多有關(guān)新聞推薦的研究是在私有數(shù)據(jù)集上開展的,而已有的公開數(shù)據(jù)集往往規(guī)模較小。高質(zhì)量基準(zhǔn)數(shù)據(jù)集的缺乏限制了新聞推薦領(lǐng)域的研究進展。因此,微軟亞洲研究院聯(lián)合微軟新聞產(chǎn)品團隊在 ACL 2020上發(fā)布了一個大規(guī)模的英文新聞推薦數(shù)據(jù)集 MIcrosoft News Dataset (MIND[1]),并于2020年7月-9月在condalab平臺舉辦了MIND新聞推薦比賽。比賽吸引了來自加拿大、法國、韓國等全球各地的技術(shù)團隊,最終來自搜狗搜索的隊伍以AUC0.7131獲得比賽冠軍。我們也在賽后開源了比賽過程中的代碼[2]。

5d73b4fc-5036-11eb-8b86-12bb97331649.png

5dab183e-5036-11eb-8b86-12bb97331649.png

非常值得贊許的是賽后微軟繼續(xù)開放了MIND比賽系統(tǒng)允許提交測試結(jié)果并實時更新排行榜[3]。我們在近期提交了新的結(jié)果,相對比賽結(jié)果有了進一步提升,在截止到2021-01-04的榜單以AUC0.7187的成績排在第一位。

5e0da10c-5036-11eb-8b86-12bb97331649.png

希望有更多的同學(xué)能參與到MIND這個高質(zhì)量的新聞推薦數(shù)據(jù)集評測,目前的榜單成績?nèi)匀挥泻艽蟮奶嵘臻g。(個人覺得MIND真的是非常好的數(shù)據(jù)集,很奇怪并沒有引起特別大的業(yè)界關(guān)注,也許是因為比賽放到了codalab平臺而不是社區(qū)及分享更加完善的kaggle平臺)。

新聞推薦簡介

5e37d17a-5036-11eb-8b86-12bb97331649.png

這里新聞推薦主要指基于用戶的點擊歷史,預(yù)測用戶對未來展現(xiàn)的新聞點擊概率從而用于指導(dǎo)對于展現(xiàn)給用戶的召回新聞排序。新聞推薦是一個經(jīng)典的推薦排序問題,主要面臨的困難包括新聞和用戶的有效建模,新聞及用戶冷啟動等等問題。

MIND數(shù)據(jù)分析及處理

MIND數(shù)據(jù)集是從六周內(nèi) Microsoft News 用戶的匿名化新聞點擊記錄中構(gòu)建的,它包含16萬多條新聞條目,1500余萬次展示記錄,以及來自100萬匿名用戶的2400余萬次點擊行為。在 MIND 數(shù)據(jù)集中,每個新聞條目都具有豐富的文本信息,例如標(biāo)題、摘要、正文、類別和實體。

5ec883aa-5036-11eb-8b86-12bb97331649.png

下面介紹MIND數(shù)據(jù)的特點及處理策略:

ID失效

MIND數(shù)據(jù)是來自于工業(yè)界真實的點擊數(shù)據(jù)但是和傳統(tǒng)的工業(yè)界實際的推薦系統(tǒng)使用的數(shù)據(jù)還是有較大的差異性,這種差異主要來自定位的不同,MIND更加強調(diào)推薦算法的泛化性,而實際工業(yè)界強調(diào)時效性實用性,因此工業(yè)界推薦系統(tǒng)最重要的特征往往是ID特征特別是docid特征,工業(yè)界的模型特別是ID對應(yīng)的embedding基本也是實時快速更新的。

但對應(yīng)MIND這個數(shù)據(jù)ID特征依然存在但不再是最重要的特征,甚至絕大部分的參賽隊伍沒有使用ID特征,這使得MIND數(shù)據(jù)更像是一個純NLP比賽數(shù)據(jù)。為什么?這主要來自于Dev和Test數(shù)據(jù)的差異。

Info Dev Test
新用戶 15.3% 22.1%
新文檔 32.3% 87.5%

MIND數(shù)據(jù)的訓(xùn)練數(shù)據(jù)是5周的點擊日志,除去最后一天作為Dev數(shù)據(jù),而Test數(shù)據(jù)是要對第6周數(shù)據(jù)做預(yù)測。

由于新聞的時效性非常強,所以顯然未來一周中的新文檔的占比可以預(yù)見是非常多的(87.5%)。

由于這樣的數(shù)據(jù)特點,因此主要依賴的ID的模型顯然是失效的,傳統(tǒng)的gbdt模型也不太適用這個數(shù)據(jù)。 這個數(shù)據(jù)的重點是如何能更好的對新聞內(nèi)容建模。

這樣的Dev和Test的劃分,也帶來了本地Dev驗證和提交Test驗證的不一致性,為了消除這個不一致性,如果在訓(xùn)練中使用了docid特征需要注意在驗證的時候Mask掉92%(保持新文檔比例和Test一致)或者干脆Mask掉全部的docid,當(dāng)做UNK處理。

在比賽前期這個策略非常有效基本確保了驗證和測試的一致性,但是比賽后期模型分數(shù)相對較高的情況下還是發(fā)現(xiàn)Dev和Test有較大不一致性,比如引入刷次(impression)內(nèi)部的特征在Dev數(shù)據(jù)提升非常大但是在Test無效,加大正樣本權(quán)重從1.0到4.0也能大幅度提升Dev AUC但是同樣在Test無效。

因此更進一步的也許自行重新劃分Train/Dev為4周數(shù)據(jù)訓(xùn)練第5周整周做Dev可以更好確保的Dev和Test的一致性,由于時間原因筆者沒有做這個實驗有興趣的同學(xué)可以測試一下。

樣本不均衡的處理

MIND數(shù)據(jù)的另外一個重要特點是類別不均衡,正樣本率很低只有4%。

處理類別不均衡的樣本有很多策略,比如

正樣本加權(quán)

正樣本過采樣

負樣本降采樣

等等,這里考慮到訓(xùn)練樣本量非常大,模型計算較為耗時,綜合多種因素和實驗結(jié)果我們采用了無放回的負樣本隨機采樣,將原始訓(xùn)練數(shù)據(jù)的負樣本劃分成5個部分,配合全部的正樣本構(gòu)造了5個不同訓(xùn)練數(shù)據(jù)集,Dataset0-4,每個數(shù)據(jù)集的正樣本率約為16.5%。

這樣我們的單模型訓(xùn)練只基于Dataset0實驗,這極大的降低了模型訓(xùn)練時間(不使用bert只需要45-60分鐘完成單模型訓(xùn)練并在不使用Dev數(shù)據(jù)的前提下達到Test AUC 0.7074,而使用bert-tiny的模型可以在大約7-8個小時完成訓(xùn)練),同時提交結(jié)果顯示相對使用全量訓(xùn)練數(shù)據(jù),降采樣數(shù)據(jù)訓(xùn)練的單模型的效果并沒有明顯下降。

而當(dāng)需要最佳榜單成績的時候我們采用了同樣策略針對Train+Dev數(shù)據(jù)整體構(gòu)造5個數(shù)據(jù)集,并且并行訓(xùn)練5個基于不同Dataset的模型,將結(jié)果平均作為最終結(jié)果。實驗表明訓(xùn)練數(shù)據(jù)多樣性帶來的模型集成收益非常明顯。

單模型與集成模型的定義

單模型:基于Dataset0(1/5負樣本+全部正樣本,不包含Dev數(shù)據(jù))訓(xùn)練的單一模型。

集成模型:基于Dataset0-4(包含Dev數(shù)據(jù))5份數(shù)據(jù)訓(xùn)練的5個模型結(jié)果的平均。

模型結(jié)構(gòu)

我們采用了經(jīng)典的推薦系統(tǒng)中的精排模型架構(gòu),而沒有采用官方基線模型提供的各種基于雙塔向量匹配的模型結(jié)構(gòu)(NRMS,NAML等等)。

我們認為雙塔結(jié)構(gòu)更加適合召回階段,因為新聞和用戶分別建模向量雖然快速靈活但是由于其分開獨立建模缺乏前期交互,整體效果一般是不如完整的所有特征統(tǒng)一交互建模的方式。

我們使用的結(jié)構(gòu)基本和Facebook提出的DLRM模型結(jié)構(gòu)一致,與DLRM只用到特征交叉不同,考慮到特征組不是特別多,這里同時采用特征交叉和特征合并兩種組合方式,保證MLP層的輸入有足夠的信息量(當(dāng)然也可以考慮引入更多組合信息如max pooling,attention pooling,self attention pooling等等)。

5f092f86-5036-11eb-8b86-12bb97331649.png

在對應(yīng)對具體文本建模的時候,我們采用了基于glove預(yù)訓(xùn)練的詞向量,文本分詞采用了bert bpe切詞器。

我們針對ID表示的向量采用了簡單的自注意力(attention pooling)方式建模,而針對復(fù)雜文本如正文,標(biāo)題,摘要采用了DIN attention pooling的方式,以便更好的動態(tài)建模當(dāng)前新聞和用戶閱讀歷史新聞的相關(guān)性。

單特征重要性分析

5f660940-5036-11eb-8b86-12bb97331649.png

通過驗證集合來看文本正文是最重要的信息,有點出乎意料是不是,最重要的特征是正文而不是標(biāo)題。

整體特征重要性順序依次是:正文,標(biāo)題,摘要,類別,實體,ID。

ID特征的重要性

在比賽中我們和其他隊伍的一個重要區(qū)別是,其他隊伍大都基本基于官方基線做的改進,并沒有使用ID特征,而我們在訓(xùn)練中使用了ID特征。

在驗證中Mask掉了ID特征來保證驗證和Test的一致性,在Test的時候我們保留在訓(xùn)練中出現(xiàn)的docid而mask掉了其他docid。

盡管Test的有效docid比例非常之少,但是我們得到一個很重要的結(jié)論,就是訓(xùn)練數(shù)據(jù)中的docid可以幫助更好的進行整體建模,ID特征和文本特征的交互能夠幫助學(xué)習(xí)得到更好的文本表示。

Single Model Test AUC
No ID 0.6988
With ID 0.7074

Bert Encoder

顯然單純的詞向量模型在NLP相關(guān)的競賽中已經(jīng)是屬于上古時代了,現(xiàn)在是屬于bert的時代,但是MIND這個數(shù)據(jù)由于需要對用戶歷史新聞的正文,標(biāo)題,摘要建模,假設(shè)取top50的歷史這個計算量是非常巨大的,因此大的bert模型并不是非常實用。

在比賽過程中我沒有采用bert作為encoder。賽后我嘗試使用小的bert模型比如bert-tiny,在經(jīng)過MIND語料continue train 語言模型之后,作為文本encoder。

實驗結(jié)果似乎相對詞向量優(yōu)勢也并不是很明顯(后面的模型迭代部分會貼出實驗結(jié)果),當(dāng)然這個原因可能是多方面包括參數(shù)的調(diào)整(特別的比如bert模型finetune對于學(xué)習(xí)率異常敏感)以及bert-tiny本身的表示能力不夠強大,再或者和推薦數(shù)據(jù)特點有關(guān)等等需要更進一步的分析。

我相信這部分顯然還可以做的更好,也許目前榜單第二第三的UNBERT和UniUM在這方面做的更好(猜測使用UniLM)期待后續(xù)有機會交流以找到更好的bert打開方式。

盡管沒有取得特別驚艷的單模型效果,bert模型依然帶來了很好的模型多樣性,這幫助我們?nèi)〉昧四壳癕IND dataset的STOA,當(dāng)然這也說明MIND榜單的提升空間顯然還是很大的。

迭代過程

比賽中

Model Dev AUC Test AUC
uid,docid,history_docids 0.514 0.5272
+cat,entity 0.6829 0.6763
+title,abstract 0.6987 0.6979
adjust parameters 0.7004 0.7036
+body 0.7042 0.707
+dev data NA 0.7104
ensemble(5 datasets) NA 0.7131

賽后

賽后的集成模型提升主要是來自于模型差異性的引入,從比賽過程中的單一算法模型變成了多算法模型(引入了bert)。

那么單模型提升在哪里呢?

單模型方面并沒有做大的調(diào)整,主要提升點是兩個細節(jié):

Multi-Sample Dropout降低過擬合提升模型泛化能力。

不只是MIND數(shù)據(jù),Multi-Sample Dropout是一種通用且時空代價極小的方法,在很多場景下用其取代最終的Linear層都能帶來效果提升,感興趣可以在kaggle搜索相關(guān)的分享。

5fa76002-5036-11eb-8b86-12bb97331649.png

Batch size 調(diào)整, 從2048調(diào)小到256。

batch size減小會使得訓(xùn)練速度變慢一點,并且val loss會變高,但是Test指標(biāo)會提升,可能原因是更多的梯度迭代次數(shù),特別是當(dāng)前采用1輪訓(xùn)練方式,另外小的batch size對應(yīng)單一模型不同Dataset可能有更高的單模型差異性從而有利于模型集成。

以下只列出Test的指標(biāo),注意集成模型base復(fù)現(xiàn)的起點0.7124比比賽中最終的模型0.7131低一些,可能源自tf1,2的切換和一些隨機性因素,暫未查明。

單模型

Model AUC MRR NDCG@5 NDCG@10
base復(fù)現(xiàn) 0.7074 0.3554 0.3895 0.4460
+multi-sample dropout 0.7086 0.3557 0.3900 0.4464
+smaller batch size 0.7089 0.3574 0.3916 0.4478
bert-tiny 0.707 0.3563 0.3902 0.4464
base add bert-tiny 0.7085 0.3577 0.3920 0.4482

集成模型

Model AUC MRR NDCG@5 NDCG@10
base復(fù)現(xiàn) 0.7124 0.3598 0.3949 0.4512
+multi-sample dropout 0.7139 0.3614 0.3967 0.4529
+smaller batch size 0.7145 0.3625 0.3976 0.4537
bert-tiny 0.7145 0.3622 0.3973 0.4533
base add bert-tiny 0.7158 0.3630 0.3983 0.4544
avg of above 3 0.7187 0.3659 0.4018 0.4576

注:base add bert-tiny表示模型的文本表示在同一個模型同時保留glove詞向量和bert-tiny encode作為特征。其實采用單一模型結(jié)構(gòu)多數(shù)據(jù)集/多fold的模型平均某種意義上也是單模型,從上面的結(jié)果來看,base add bert-tiny應(yīng)該是相對base表現(xiàn)更好的模型結(jié)構(gòu)。

TODO

更好的文本表示,如UniLM等,這也是MIND數(shù)據(jù)集合的根本意義所在,期待找到效果更好效率更高的文本表示方法。

更好的用戶歷史閱讀序列表示,當(dāng)前沒有引入位置信息,沒有考慮用戶歷史順序,沒有做復(fù)雜的歷史建模。

更好的模型泛化,從實驗來看test集合的提升很大概率來自模型泛化效果的提升,更好的集成方法(當(dāng)前只是簡單平均),包括單模型自身集成方法如SWA等等應(yīng)該可以進一步提升效果。

更多輪次迭代?由于使用了ID特征容易過擬合,當(dāng)前只采用了1輪訓(xùn)練的方。

降采樣負樣本是否是最好的方案?顯然值得更多的嘗試,至少在單模型效果使用全量負樣本做一定正樣本過采樣但是同時注意避免過擬合應(yīng)該理論上能得到更好的單一模型,畢竟當(dāng)前的單模型都只用了部分訓(xùn)練數(shù)據(jù)。

作者簡介

程惠閣,搜狗搜索專家研究員。

曾任百度貼吧和信息流反作弊,圖片搜索部圖文相關(guān)性技術(shù)負責(zé)人。

數(shù)據(jù)挖掘,深度學(xué)習(xí)愛好者,曾多次單人參賽并獲得AI競賽冠亞軍:

NAIC 2020 全國人工智能大賽 AI+遙感影像語義分割 第二名。

ACL 2020 MIND 新聞推薦 第一名。

AI Challenger 2018 美團細粒度情感分類 第一名。

AI Challenger 2017 Image Caption 第二名。

目前是Kaggle Expert,個人夢想是退休后成為Kaggle Grandmaster。

參考資料

[1]

MIND: https://msnews.github.io/

[2]

代碼: https://github.com/chenghuige/mind

[3]

排行榜: https://competitions.codalab.org/competitions/24122#results

責(zé)任編輯:xj

原文標(biāo)題:MIND新聞推薦冠軍分享細節(jié)揭秘

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29401

    瀏覽量

    267705
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1199

    瀏覽量

    24594
  • 大數(shù)據(jù)
    +關(guān)注

    關(guān)注

    64

    文章

    8835

    瀏覽量

    137140
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5439

    瀏覽量

    120797

原文標(biāo)題:MIND新聞推薦冠軍分享細節(jié)揭秘

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    中興通訊引領(lǐng)5G-A高質(zhì)量發(fā)展新紀元

    中國5G商用5周年之際,以“智聯(lián)未來 無限可能”為主題的2024移動通信高質(zhì)量發(fā)展論壇在北京舉辦。本屆論壇系統(tǒng)呈現(xiàn)總結(jié)我國移動通信,特別是5G產(chǎn)業(yè)自身高質(zhì)量發(fā)展和引領(lǐng)數(shù)字經(jīng)濟高質(zhì)量發(fā)展的成果和經(jīng)驗,展望5G-A、6G協(xié)同創(chuàng)新發(fā)展
    的頭像 發(fā)表于 10-15 10:32 ?349次閱讀

    揭秘高質(zhì)量點焊機的五大標(biāo)準(zhǔn):打造焊接性能的基石

    在現(xiàn)代工業(yè)生產(chǎn)領(lǐng)域,點焊機的重要性不言而喻。高質(zhì)量的點焊機如同一位技藝精湛的工匠,確保了不同材料間的牢固連接,其出色的焊接性能、穩(wěn)定的工作狀態(tài)和用戶友好的操作界面,已經(jīng)獲得了業(yè)界的高度評價。那么
    的頭像 發(fā)表于 09-12 15:26 ?269次閱讀
    揭秘<b class='flag-5'>高質(zhì)量</b>點焊機的五大標(biāo)準(zhǔn):打造焊接性能的基石

    科技創(chuàng)新!國產(chǎn)自主三坐標(biāo)測量機推動產(chǎn)業(yè)高質(zhì)量發(fā)展

    科技創(chuàng)新推動高質(zhì)量發(fā)展,精密幾何測量儀器是核心。中圖三坐標(biāo)測量機采用創(chuàng)新技術(shù),提升測量精度和穩(wěn)定性,擁有自主可控軟件,助力產(chǎn)業(yè)升級,實現(xiàn)高質(zhì)量發(fā)展。
    的頭像 發(fā)表于 07-12 11:32 ?1118次閱讀
    科技創(chuàng)新!國產(chǎn)自主三坐標(biāo)測量機推動產(chǎn)業(yè)<b class='flag-5'>高質(zhì)量</b>發(fā)展

    TVP5146M2高質(zhì)量單芯片數(shù)字視頻解碼器數(shù)據(jù)

    電子發(fā)燒友網(wǎng)站提供《TVP5146M2高質(zhì)量單芯片數(shù)字視頻解碼器數(shù)據(jù)表.pdf》資料免費下載
    發(fā)表于 07-09 11:35 ?0次下載
    TVP5146M2<b class='flag-5'>高質(zhì)量</b>單芯片數(shù)字視頻解碼器<b class='flag-5'>數(shù)據(jù)</b>表

    TVP5147高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)

    電子發(fā)燒友網(wǎng)站提供《TVP5147高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)表.pdf》資料免費下載
    發(fā)表于 07-09 11:34 ?0次下載
    TVP5147<b class='flag-5'>高質(zhì)量</b>、單芯片數(shù)字視頻解碼器<b class='flag-5'>數(shù)據(jù)</b>表

    TVP5146高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)

    電子發(fā)燒友網(wǎng)站提供《TVP5146高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)表.pdf》資料免費下載
    發(fā)表于 07-04 10:00 ?0次下載
    TVP5146<b class='flag-5'>高質(zhì)量</b>、單芯片數(shù)字視頻解碼器<b class='flag-5'>數(shù)據(jù)</b>表

    維信諾高質(zhì)量發(fā)展創(chuàng)新大會暨全球合作伙伴大會召開

    4月18日,維信諾高質(zhì)量發(fā)展創(chuàng)新大會暨全球合作伙伴大會在合肥舉行。大會以“聚智同行,質(zhì)勝未來”為主題,合肥市相關(guān)領(lǐng)導(dǎo)、專家學(xué)者及數(shù)百家維信諾核心供應(yīng)伙伴齊聚一堂,共謀新興顯示產(chǎn)業(yè)高質(zhì)量發(fā)展之路。
    的頭像 發(fā)表于 04-19 09:26 ?446次閱讀

    云知聲入選中國信通院《數(shù)字醫(yī)療產(chǎn)品及服務(wù)高質(zhì)量發(fā)展全景圖》

    3月15日,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟醫(yī)學(xué)人工智能委員會2024年第一次工作會在??谡匍_,會上發(fā)布首批《數(shù)字醫(yī)療產(chǎn)品及服務(wù)高質(zhì)量發(fā)展全景圖》與《數(shù)字醫(yī)療產(chǎn)品及服務(wù)高質(zhì)量發(fā)展案例》,憑借在智慧醫(yī)療領(lǐng)域
    的頭像 發(fā)表于 03-15 19:23 ?2122次閱讀

    北斗芯片產(chǎn)業(yè)的高質(zhì)量發(fā)展之路

    高質(zhì)量發(fā)展是全面建設(shè)社會主義現(xiàn)代化國家的首要任務(wù)”,二十大報告中對高質(zhì)量發(fā)展有著明確的論斷和要求。在2023年的全國兩會中還指出,加快實現(xiàn)高水平科技自立自強,是推動高質(zhì)量發(fā)展的必由之路。中國衛(wèi)星
    的頭像 發(fā)表于 03-15 14:03 ?321次閱讀
    北斗芯片產(chǎn)業(yè)的<b class='flag-5'>高質(zhì)量</b>發(fā)展之路

    富捷電子被授予“高質(zhì)量發(fā)展突出貢獻獎”

    在近日舉行的馬鞍山新區(qū)高質(zhì)量發(fā)展表彰大會上,富捷電子在推動地區(qū)經(jīng)濟發(fā)展中的卓越貢獻,被授予“高質(zhì)量發(fā)展突出貢獻獎”。
    的頭像 發(fā)表于 02-23 15:16 ?570次閱讀

    穩(wěn)中創(chuàng)新?產(chǎn)業(yè)升級?高質(zhì)量發(fā)展 | 聯(lián)誠發(fā)高質(zhì)量發(fā)展工作推進會議召開

    2月21日下午,聯(lián)誠發(fā)LCF以“穩(wěn)中創(chuàng)新?產(chǎn)業(yè)升級?高質(zhì)量發(fā)展”為主題的企業(yè)高質(zhì)量發(fā)展工作推進大會在聯(lián)誠發(fā)深圳總部隆重召開。擂起奮進催征的戰(zhàn)鼓,爭分奪秒搶抓寶貴春光,明確企業(yè)重點目標(biāo)任務(wù),全力以赴
    的頭像 發(fā)表于 02-22 11:33 ?408次閱讀
    穩(wěn)中創(chuàng)新?產(chǎn)業(yè)升級?<b class='flag-5'>高質(zhì)量</b>發(fā)展 | 聯(lián)誠發(fā)<b class='flag-5'>高質(zhì)量</b>發(fā)展工作推進會議召開

    捷易科技出席廣東省韶關(guān)市高質(zhì)量發(fā)展大會

    ABSTRACT摘要2月19日,2024年韶關(guān)市高質(zhì)量發(fā)展招商大會在韶關(guān)舉行,來自政府、科技、企業(yè)各界專家代表共同探討韶關(guān)高質(zhì)量發(fā)展。捷易科技總經(jīng)理韓運恒出席大會。JAEALOT2024年2月19日
    的頭像 發(fā)表于 02-22 08:25 ?404次閱讀
    捷易科技出席廣東省韶關(guān)市<b class='flag-5'>高質(zhì)量</b>發(fā)展大會

    雙目測寬儀高質(zhì)量生產(chǎn)利器 測寬儀價格

    光,它能做到無損檢測,實時監(jiān)測報警,數(shù)據(jù)存儲,數(shù)據(jù)分析,是為軋鋼工作人員提供重要指導(dǎo)依據(jù)的設(shè)備,是高質(zhì)量生產(chǎn)的利器。
    發(fā)表于 12-04 17:10

    卓越領(lǐng)航!廣和通獲評“2023高質(zhì)量發(fā)展領(lǐng)軍企業(yè)”

    廣和通要聞 11月28日,以“協(xié)同新發(fā)展、引領(lǐng)新示范”為主題的第四屆高質(zhì)量發(fā)展高峰論壇暨2023高質(zhì)量發(fā)展領(lǐng)軍企業(yè)、領(lǐng)軍人物頒獎盛典順利舉辦。大會揭曉了“2023高質(zhì)量發(fā)展領(lǐng)軍企業(yè)、領(lǐng)軍人物”榜單
    的頭像 發(fā)表于 11-29 18:00 ?442次閱讀
    卓越領(lǐng)航!廣和通獲評“2023<b class='flag-5'>高質(zhì)量</b>發(fā)展領(lǐng)軍企業(yè)”

    高質(zhì)量LTE網(wǎng)絡(luò)改變傳統(tǒng)天線技術(shù)

    電子發(fā)燒友網(wǎng)站提供《高質(zhì)量LTE網(wǎng)絡(luò)改變傳統(tǒng)天線技術(shù).pdf》資料免費下載
    發(fā)表于 11-10 15:25 ?0次下載
    <b class='flag-5'>高質(zhì)量</b>LTE網(wǎng)絡(luò)改變傳統(tǒng)天線技術(shù)