色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MIND:高質(zhì)量的新聞推薦數(shù)據(jù)集

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2021-01-07 14:42 ? 次閱讀

MIND簡(jiǎn)介

個(gè)性化新聞推薦技術(shù)是諸多在線新聞網(wǎng)站和應(yīng)用的關(guān)鍵技術(shù),可以提升用戶的新聞閱讀體驗(yàn)并減輕信息過載。目前,許多有關(guān)新聞推薦的研究是在私有數(shù)據(jù)集上開展的,而已有的公開數(shù)據(jù)集往往規(guī)模較小。高質(zhì)量基準(zhǔn)數(shù)據(jù)集的缺乏限制了新聞推薦領(lǐng)域的研究進(jìn)展。因此,微軟亞洲研究院聯(lián)合微軟新聞產(chǎn)品團(tuán)隊(duì)在 ACL 2020上發(fā)布了一個(gè)大規(guī)模的英文新聞推薦數(shù)據(jù)集 MIcrosoft News Dataset (MIND[1]),并于2020年7月-9月在condalab平臺(tái)舉辦了MIND新聞推薦比賽。比賽吸引了來自加拿大、法國、韓國等全球各地的技術(shù)團(tuán)隊(duì),最終來自搜狗搜索的隊(duì)伍以AUC0.7131獲得比賽冠軍。我們也在賽后開源了比賽過程中的代碼[2]。

5d73b4fc-5036-11eb-8b86-12bb97331649.png

5dab183e-5036-11eb-8b86-12bb97331649.png

非常值得贊許的是賽后微軟繼續(xù)開放了MIND比賽系統(tǒng)允許提交測(cè)試結(jié)果并實(shí)時(shí)更新排行榜[3]。我們?cè)诮谔峤涣诵碌慕Y(jié)果,相對(duì)比賽結(jié)果有了進(jìn)一步提升,在截止到2021-01-04的榜單以AUC0.7187的成績排在第一位。

5e0da10c-5036-11eb-8b86-12bb97331649.png

希望有更多的同學(xué)能參與到MIND這個(gè)高質(zhì)量的新聞推薦數(shù)據(jù)集評(píng)測(cè),目前的榜單成績?nèi)匀挥泻艽蟮奶嵘臻g。(個(gè)人覺得MIND真的是非常好的數(shù)據(jù)集,很奇怪并沒有引起特別大的業(yè)界關(guān)注,也許是因?yàn)楸荣惙诺搅薱odalab平臺(tái)而不是社區(qū)及分享更加完善的kaggle平臺(tái))。

新聞推薦簡(jiǎn)介

5e37d17a-5036-11eb-8b86-12bb97331649.png

這里新聞推薦主要指基于用戶的點(diǎn)擊歷史,預(yù)測(cè)用戶對(duì)未來展現(xiàn)的新聞點(diǎn)擊概率從而用于指導(dǎo)對(duì)于展現(xiàn)給用戶的召回新聞排序。新聞推薦是一個(gè)經(jīng)典的推薦排序問題,主要面臨的困難包括新聞和用戶的有效建模,新聞及用戶冷啟動(dòng)等等問題。

MIND數(shù)據(jù)分析及處理

MIND數(shù)據(jù)集是從六周內(nèi) Microsoft News 用戶的匿名化新聞點(diǎn)擊記錄中構(gòu)建的,它包含16萬多條新聞條目,1500余萬次展示記錄,以及來自100萬匿名用戶的2400余萬次點(diǎn)擊行為。在 MIND 數(shù)據(jù)集中,每個(gè)新聞條目都具有豐富的文本信息,例如標(biāo)題、摘要、正文、類別和實(shí)體。

5ec883aa-5036-11eb-8b86-12bb97331649.png

下面介紹MIND數(shù)據(jù)的特點(diǎn)及處理策略:

ID失效

MIND數(shù)據(jù)是來自于工業(yè)界真實(shí)的點(diǎn)擊數(shù)據(jù)但是和傳統(tǒng)的工業(yè)界實(shí)際的推薦系統(tǒng)使用的數(shù)據(jù)還是有較大的差異性,這種差異主要來自定位的不同,MIND更加強(qiáng)調(diào)推薦算法的泛化性,而實(shí)際工業(yè)界強(qiáng)調(diào)時(shí)效性實(shí)用性,因此工業(yè)界推薦系統(tǒng)最重要的特征往往是ID特征特別是docid特征,工業(yè)界的模型特別是ID對(duì)應(yīng)的embedding基本也是實(shí)時(shí)快速更新的。

但對(duì)應(yīng)MIND這個(gè)數(shù)據(jù)ID特征依然存在但不再是最重要的特征,甚至絕大部分的參賽隊(duì)伍沒有使用ID特征,這使得MIND數(shù)據(jù)更像是一個(gè)純NLP比賽數(shù)據(jù)。為什么?這主要來自于Dev和Test數(shù)據(jù)的差異。

Info Dev Test
新用戶 15.3% 22.1%
新文檔 32.3% 87.5%

MIND數(shù)據(jù)的訓(xùn)練數(shù)據(jù)是5周的點(diǎn)擊日志,除去最后一天作為Dev數(shù)據(jù),而Test數(shù)據(jù)是要對(duì)第6周數(shù)據(jù)做預(yù)測(cè)。

由于新聞的時(shí)效性非常強(qiáng),所以顯然未來一周中的新文檔的占比可以預(yù)見是非常多的(87.5%)。

由于這樣的數(shù)據(jù)特點(diǎn),因此主要依賴的ID的模型顯然是失效的,傳統(tǒng)的gbdt模型也不太適用這個(gè)數(shù)據(jù)。 這個(gè)數(shù)據(jù)的重點(diǎn)是如何能更好的對(duì)新聞內(nèi)容建模。

這樣的Dev和Test的劃分,也帶來了本地Dev驗(yàn)證和提交Test驗(yàn)證的不一致性,為了消除這個(gè)不一致性,如果在訓(xùn)練中使用了docid特征需要注意在驗(yàn)證的時(shí)候Mask掉92%(保持新文檔比例和Test一致)或者干脆Mask掉全部的docid,當(dāng)做UNK處理。

在比賽前期這個(gè)策略非常有效基本確保了驗(yàn)證和測(cè)試的一致性,但是比賽后期模型分?jǐn)?shù)相對(duì)較高的情況下還是發(fā)現(xiàn)Dev和Test有較大不一致性,比如引入刷次(impression)內(nèi)部的特征在Dev數(shù)據(jù)提升非常大但是在Test無效,加大正樣本權(quán)重從1.0到4.0也能大幅度提升Dev AUC但是同樣在Test無效。

因此更進(jìn)一步的也許自行重新劃分Train/Dev為4周數(shù)據(jù)訓(xùn)練第5周整周做Dev可以更好確保的Dev和Test的一致性,由于時(shí)間原因筆者沒有做這個(gè)實(shí)驗(yàn)有興趣的同學(xué)可以測(cè)試一下。

樣本不均衡的處理

MIND數(shù)據(jù)的另外一個(gè)重要特點(diǎn)是類別不均衡,正樣本率很低只有4%。

處理類別不均衡的樣本有很多策略,比如

正樣本加權(quán)

正樣本過采樣

負(fù)樣本降采樣

等等,這里考慮到訓(xùn)練樣本量非常大,模型計(jì)算較為耗時(shí),綜合多種因素和實(shí)驗(yàn)結(jié)果我們采用了無放回的負(fù)樣本隨機(jī)采樣,將原始訓(xùn)練數(shù)據(jù)的負(fù)樣本劃分成5個(gè)部分,配合全部的正樣本構(gòu)造了5個(gè)不同訓(xùn)練數(shù)據(jù)集,Dataset0-4,每個(gè)數(shù)據(jù)集的正樣本率約為16.5%。

這樣我們的單模型訓(xùn)練只基于Dataset0實(shí)驗(yàn),這極大的降低了模型訓(xùn)練時(shí)間(不使用bert只需要45-60分鐘完成單模型訓(xùn)練并在不使用Dev數(shù)據(jù)的前提下達(dá)到Test AUC 0.7074,而使用bert-tiny的模型可以在大約7-8個(gè)小時(shí)完成訓(xùn)練),同時(shí)提交結(jié)果顯示相對(duì)使用全量訓(xùn)練數(shù)據(jù),降采樣數(shù)據(jù)訓(xùn)練的單模型的效果并沒有明顯下降。

而當(dāng)需要最佳榜單成績的時(shí)候我們采用了同樣策略針對(duì)Train+Dev數(shù)據(jù)整體構(gòu)造5個(gè)數(shù)據(jù)集,并且并行訓(xùn)練5個(gè)基于不同Dataset的模型,將結(jié)果平均作為最終結(jié)果。實(shí)驗(yàn)表明訓(xùn)練數(shù)據(jù)多樣性帶來的模型集成收益非常明顯。

單模型與集成模型的定義

單模型:基于Dataset0(1/5負(fù)樣本+全部正樣本,不包含Dev數(shù)據(jù))訓(xùn)練的單一模型。

集成模型:基于Dataset0-4(包含Dev數(shù)據(jù))5份數(shù)據(jù)訓(xùn)練的5個(gè)模型結(jié)果的平均。

模型結(jié)構(gòu)

我們采用了經(jīng)典的推薦系統(tǒng)中的精排模型架構(gòu),而沒有采用官方基線模型提供的各種基于雙塔向量匹配的模型結(jié)構(gòu)(NRMS,NAML等等)。

我們認(rèn)為雙塔結(jié)構(gòu)更加適合召回階段,因?yàn)樾侣労陀脩舴謩e建模向量雖然快速靈活但是由于其分開獨(dú)立建模缺乏前期交互,整體效果一般是不如完整的所有特征統(tǒng)一交互建模的方式。

我們使用的結(jié)構(gòu)基本和Facebook提出的DLRM模型結(jié)構(gòu)一致,與DLRM只用到特征交叉不同,考慮到特征組不是特別多,這里同時(shí)采用特征交叉和特征合并兩種組合方式,保證MLP層的輸入有足夠的信息量(當(dāng)然也可以考慮引入更多組合信息如max pooling,attention pooling,self attention pooling等等)。

5f092f86-5036-11eb-8b86-12bb97331649.png

在對(duì)應(yīng)對(duì)具體文本建模的時(shí)候,我們采用了基于glove預(yù)訓(xùn)練的詞向量,文本分詞采用了bert bpe切詞器。

我們針對(duì)ID表示的向量采用了簡(jiǎn)單的自注意力(attention pooling)方式建模,而針對(duì)復(fù)雜文本如正文,標(biāo)題,摘要采用了DIN attention pooling的方式,以便更好的動(dòng)態(tài)建模當(dāng)前新聞和用戶閱讀歷史新聞的相關(guān)性。

單特征重要性分析

5f660940-5036-11eb-8b86-12bb97331649.png

通過驗(yàn)證集合來看文本正文是最重要的信息,有點(diǎn)出乎意料是不是,最重要的特征是正文而不是標(biāo)題。

整體特征重要性順序依次是:正文,標(biāo)題,摘要,類別,實(shí)體,ID。

ID特征的重要性

在比賽中我們和其他隊(duì)伍的一個(gè)重要區(qū)別是,其他隊(duì)伍大都基本基于官方基線做的改進(jìn),并沒有使用ID特征,而我們?cè)谟?xùn)練中使用了ID特征。

在驗(yàn)證中Mask掉了ID特征來保證驗(yàn)證和Test的一致性,在Test的時(shí)候我們保留在訓(xùn)練中出現(xiàn)的docid而mask掉了其他docid。

盡管Test的有效docid比例非常之少,但是我們得到一個(gè)很重要的結(jié)論,就是訓(xùn)練數(shù)據(jù)中的docid可以幫助更好的進(jìn)行整體建模,ID特征和文本特征的交互能夠幫助學(xué)習(xí)得到更好的文本表示。

Single Model Test AUC
No ID 0.6988
With ID 0.7074

Bert Encoder

顯然單純的詞向量模型在NLP相關(guān)的競(jìng)賽中已經(jīng)是屬于上古時(shí)代了,現(xiàn)在是屬于bert的時(shí)代,但是MIND這個(gè)數(shù)據(jù)由于需要對(duì)用戶歷史新聞的正文,標(biāo)題,摘要建模,假設(shè)取top50的歷史這個(gè)計(jì)算量是非常巨大的,因此大的bert模型并不是非常實(shí)用。

在比賽過程中我沒有采用bert作為encoder。賽后我嘗試使用小的bert模型比如bert-tiny,在經(jīng)過MIND語料continue train 語言模型之后,作為文本encoder。

實(shí)驗(yàn)結(jié)果似乎相對(duì)詞向量優(yōu)勢(shì)也并不是很明顯(后面的模型迭代部分會(huì)貼出實(shí)驗(yàn)結(jié)果),當(dāng)然這個(gè)原因可能是多方面包括參數(shù)的調(diào)整(特別的比如bert模型finetune對(duì)于學(xué)習(xí)率異常敏感)以及bert-tiny本身的表示能力不夠強(qiáng)大,再或者和推薦數(shù)據(jù)特點(diǎn)有關(guān)等等需要更進(jìn)一步的分析。

我相信這部分顯然還可以做的更好,也許目前榜單第二第三的UNBERT和UniUM在這方面做的更好(猜測(cè)使用UniLM)期待后續(xù)有機(jī)會(huì)交流以找到更好的bert打開方式。

盡管沒有取得特別驚艷的單模型效果,bert模型依然帶來了很好的模型多樣性,這幫助我們?nèi)〉昧四壳癕IND dataset的STOA,當(dāng)然這也說明MIND榜單的提升空間顯然還是很大的。

迭代過程

比賽中

Model Dev AUC Test AUC
uid,docid,history_docids 0.514 0.5272
+cat,entity 0.6829 0.6763
+title,abstract 0.6987 0.6979
adjust parameters 0.7004 0.7036
+body 0.7042 0.707
+dev data NA 0.7104
ensemble(5 datasets) NA 0.7131

賽后

賽后的集成模型提升主要是來自于模型差異性的引入,從比賽過程中的單一算法模型變成了多算法模型(引入了bert)。

那么單模型提升在哪里呢?

單模型方面并沒有做大的調(diào)整,主要提升點(diǎn)是兩個(gè)細(xì)節(jié):

Multi-Sample Dropout降低過擬合提升模型泛化能力。

不只是MIND數(shù)據(jù),Multi-Sample Dropout是一種通用且時(shí)空代價(jià)極小的方法,在很多場(chǎng)景下用其取代最終的Linear層都能帶來效果提升,感興趣可以在kaggle搜索相關(guān)的分享。

5fa76002-5036-11eb-8b86-12bb97331649.png

Batch size 調(diào)整, 從2048調(diào)小到256。

batch size減小會(huì)使得訓(xùn)練速度變慢一點(diǎn),并且val loss會(huì)變高,但是Test指標(biāo)會(huì)提升,可能原因是更多的梯度迭代次數(shù),特別是當(dāng)前采用1輪訓(xùn)練方式,另外小的batch size對(duì)應(yīng)單一模型不同Dataset可能有更高的單模型差異性從而有利于模型集成。

以下只列出Test的指標(biāo),注意集成模型base復(fù)現(xiàn)的起點(diǎn)0.7124比比賽中最終的模型0.7131低一些,可能源自tf1,2的切換和一些隨機(jī)性因素,暫未查明。

單模型

Model AUC MRR NDCG@5 NDCG@10
base復(fù)現(xiàn) 0.7074 0.3554 0.3895 0.4460
+multi-sample dropout 0.7086 0.3557 0.3900 0.4464
+smaller batch size 0.7089 0.3574 0.3916 0.4478
bert-tiny 0.707 0.3563 0.3902 0.4464
base add bert-tiny 0.7085 0.3577 0.3920 0.4482

集成模型

Model AUC MRR NDCG@5 NDCG@10
base復(fù)現(xiàn) 0.7124 0.3598 0.3949 0.4512
+multi-sample dropout 0.7139 0.3614 0.3967 0.4529
+smaller batch size 0.7145 0.3625 0.3976 0.4537
bert-tiny 0.7145 0.3622 0.3973 0.4533
base add bert-tiny 0.7158 0.3630 0.3983 0.4544
avg of above 3 0.7187 0.3659 0.4018 0.4576

注:base add bert-tiny表示模型的文本表示在同一個(gè)模型同時(shí)保留glove詞向量和bert-tiny encode作為特征。其實(shí)采用單一模型結(jié)構(gòu)多數(shù)據(jù)集/多fold的模型平均某種意義上也是單模型,從上面的結(jié)果來看,base add bert-tiny應(yīng)該是相對(duì)base表現(xiàn)更好的模型結(jié)構(gòu)。

TODO

更好的文本表示,如UniLM等,這也是MIND數(shù)據(jù)集合的根本意義所在,期待找到效果更好效率更高的文本表示方法。

更好的用戶歷史閱讀序列表示,當(dāng)前沒有引入位置信息,沒有考慮用戶歷史順序,沒有做復(fù)雜的歷史建模。

更好的模型泛化,從實(shí)驗(yàn)來看test集合的提升很大概率來自模型泛化效果的提升,更好的集成方法(當(dāng)前只是簡(jiǎn)單平均),包括單模型自身集成方法如SWA等等應(yīng)該可以進(jìn)一步提升效果。

更多輪次迭代?由于使用了ID特征容易過擬合,當(dāng)前只采用了1輪訓(xùn)練的方。

降采樣負(fù)樣本是否是最好的方案?顯然值得更多的嘗試,至少在單模型效果使用全量負(fù)樣本做一定正樣本過采樣但是同時(shí)注意避免過擬合應(yīng)該理論上能得到更好的單一模型,畢竟當(dāng)前的單模型都只用了部分訓(xùn)練數(shù)據(jù)。

作者簡(jiǎn)介

程惠閣,搜狗搜索專家研究員。

曾任百度貼吧和信息流反作弊,圖片搜索部圖文相關(guān)性技術(shù)負(fù)責(zé)人。

數(shù)據(jù)挖掘,深度學(xué)習(xí)愛好者,曾多次單人參賽并獲得AI競(jìng)賽冠亞軍:

NAIC 2020 全國人工智能大賽 AI+遙感影像語義分割 第二名。

ACL 2020 MIND 新聞推薦 第一名。

AI Challenger 2018 美團(tuán)細(xì)粒度情感分類 第一名。

AI Challenger 2017 Image Caption 第二名。

目前是Kaggle Expert,個(gè)人夢(mèng)想是退休后成為Kaggle Grandmaster。

參考資料

[1]

MIND: https://msnews.github.io/

[2]

代碼: https://github.com/chenghuige/mind

[3]

排行榜: https://competitions.codalab.org/competitions/24122#results

責(zé)任編輯:xj

原文標(biāo)題:MIND新聞推薦冠軍分享細(xì)節(jié)揭秘

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31155

    瀏覽量

    269488
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24740
  • 大數(shù)據(jù)
    +關(guān)注

    關(guān)注

    64

    文章

    8897

    瀏覽量

    137534
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5507

    瀏覽量

    121298

原文標(biāo)題:MIND新聞推薦冠軍分享細(xì)節(jié)揭秘

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    芯導(dǎo)科技榮獲上市公司高質(zhì)量發(fā)展大會(huì)“科技創(chuàng)新獎(jiǎng)”

    ? 近日,由上海證券報(bào)與中國證券網(wǎng)主辦的“上證·滴水湖上市公司高質(zhì)量發(fā)展大會(huì)”暨“上證·金質(zhì)量”頒獎(jiǎng)儀式在上海圓滿舉辦。 ? “上證 ·?金質(zhì)量”獎(jiǎng)是國內(nèi)上市公司領(lǐng)域內(nèi)最權(quán)威、最具影響力的獎(jiǎng)項(xiàng)之一
    的頭像 發(fā)表于 12-28 16:26 ?419次閱讀

    立洋光電助力城市照明高質(zhì)量發(fā)展

    為促進(jìn)湖南省照明行業(yè)向高端化、智能化、綠色化產(chǎn)業(yè)升級(jí),湖南省城鄉(xiāng)建設(shè)行業(yè)協(xié)會(huì)照明分會(huì)在長沙隆重舉行了2023年湖南省照明行業(yè)年會(huì)暨“創(chuàng)新驅(qū)動(dòng)、以新質(zhì)生產(chǎn)力賦能城市照明高質(zhì)量發(fā)展”技術(shù)交流活動(dòng)。
    的頭像 發(fā)表于 10-22 10:49 ?343次閱讀

    中興通訊引領(lǐng)5G-A高質(zhì)量發(fā)展新紀(jì)元

    中國5G商用5周年之際,以“智聯(lián)未來 無限可能”為主題的2024移動(dòng)通信高質(zhì)量發(fā)展論壇在北京舉辦。本屆論壇系統(tǒng)呈現(xiàn)總結(jié)我國移動(dòng)通信,特別是5G產(chǎn)業(yè)自身高質(zhì)量發(fā)展和引領(lǐng)數(shù)字經(jīng)濟(jì)高質(zhì)量發(fā)展的成果和經(jīng)驗(yàn),展望5G-A、6G協(xié)同創(chuàng)新發(fā)展
    的頭像 發(fā)表于 10-15 10:32 ?524次閱讀

    揭秘高質(zhì)量點(diǎn)焊機(jī)的五大標(biāo)準(zhǔn):打造焊接性能的基石

    在現(xiàn)代工業(yè)生產(chǎn)領(lǐng)域,點(diǎn)焊機(jī)的重要性不言而喻。高質(zhì)量的點(diǎn)焊機(jī)如同一位技藝精湛的工匠,確保了不同材料間的牢固連接,其出色的焊接性能、穩(wěn)定的工作狀態(tài)和用戶友好的操作界面,已經(jīng)獲得了業(yè)界的高度評(píng)價(jià)。那么
    的頭像 發(fā)表于 09-12 15:26 ?522次閱讀
    揭秘<b class='flag-5'>高質(zhì)量</b>點(diǎn)焊機(jī)的五大標(biāo)準(zhǔn):打造焊接性能的基石

    科技創(chuàng)新!國產(chǎn)自主三坐標(biāo)測(cè)量機(jī)推動(dòng)產(chǎn)業(yè)高質(zhì)量發(fā)展

    科技創(chuàng)新推動(dòng)高質(zhì)量發(fā)展,精密幾何測(cè)量儀器是核心。中圖三坐標(biāo)測(cè)量機(jī)采用創(chuàng)新技術(shù),提升測(cè)量精度和穩(wěn)定性,擁有自主可控軟件,助力產(chǎn)業(yè)升級(jí),實(shí)現(xiàn)高質(zhì)量發(fā)展。
    的頭像 發(fā)表于 07-12 11:32 ?1294次閱讀
    科技創(chuàng)新!國產(chǎn)自主三坐標(biāo)測(cè)量機(jī)推動(dòng)產(chǎn)業(yè)<b class='flag-5'>高質(zhì)量</b>發(fā)展

    TVP5146M2高質(zhì)量單芯片數(shù)字視頻解碼器數(shù)據(jù)

    電子發(fā)燒友網(wǎng)站提供《TVP5146M2高質(zhì)量單芯片數(shù)字視頻解碼器數(shù)據(jù)表.pdf》資料免費(fèi)下載
    發(fā)表于 07-09 11:35 ?0次下載
    TVP5146M2<b class='flag-5'>高質(zhì)量</b>單芯片數(shù)字視頻解碼器<b class='flag-5'>數(shù)據(jù)</b>表

    TVP5147高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)

    電子發(fā)燒友網(wǎng)站提供《TVP5147高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)表.pdf》資料免費(fèi)下載
    發(fā)表于 07-09 11:34 ?0次下載
    TVP5147<b class='flag-5'>高質(zhì)量</b>、單芯片數(shù)字視頻解碼器<b class='flag-5'>數(shù)據(jù)</b>表

    TVP5147M1高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)

    電子發(fā)燒友網(wǎng)站提供《TVP5147M1高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)表.pdf》資料免費(fèi)下載
    發(fā)表于 07-09 11:25 ?1次下載
    TVP5147M1<b class='flag-5'>高質(zhì)量</b>、單芯片數(shù)字視頻解碼器<b class='flag-5'>數(shù)據(jù)</b>表

    TVP5146高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)

    電子發(fā)燒友網(wǎng)站提供《TVP5146高質(zhì)量、單芯片數(shù)字視頻解碼器數(shù)據(jù)表.pdf》資料免費(fèi)下載
    發(fā)表于 07-04 10:00 ?0次下載
    TVP5146<b class='flag-5'>高質(zhì)量</b>、單芯片數(shù)字視頻解碼器<b class='flag-5'>數(shù)據(jù)</b>表

    維信諾高質(zhì)量發(fā)展創(chuàng)新大會(huì)暨全球合作伙伴大會(huì)召開

    4月18日,維信諾高質(zhì)量發(fā)展創(chuàng)新大會(huì)暨全球合作伙伴大會(huì)在合肥舉行。大會(huì)以“聚智同行,質(zhì)勝未來”為主題,合肥市相關(guān)領(lǐng)導(dǎo)、專家學(xué)者及數(shù)百家維信諾核心供應(yīng)伙伴齊聚一堂,共謀新興顯示產(chǎn)業(yè)高質(zhì)量發(fā)展之路。
    的頭像 發(fā)表于 04-19 09:26 ?559次閱讀

    云知聲入選中國信通院《數(shù)字醫(yī)療產(chǎn)品及服務(wù)高質(zhì)量發(fā)展全景圖》

    3月15日,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟醫(yī)學(xué)人工智能委員會(huì)2024年第一次工作會(huì)在海口召開,會(huì)上發(fā)布首批《數(shù)字醫(yī)療產(chǎn)品及服務(wù)高質(zhì)量發(fā)展全景圖》與《數(shù)字醫(yī)療產(chǎn)品及服務(wù)高質(zhì)量發(fā)展案例》,憑借在智慧醫(yī)療領(lǐng)域
    的頭像 發(fā)表于 03-15 19:23 ?2178次閱讀

    北斗芯片產(chǎn)業(yè)的高質(zhì)量發(fā)展之路

    高質(zhì)量發(fā)展是全面建設(shè)社會(huì)主義現(xiàn)代化國家的首要任務(wù)”,二十大報(bào)告中對(duì)高質(zhì)量發(fā)展有著明確的論斷和要求。在2023年的全國兩會(huì)中還指出,加快實(shí)現(xiàn)高水平科技自立自強(qiáng),是推動(dòng)高質(zhì)量發(fā)展的必由之路。中國衛(wèi)星
    的頭像 發(fā)表于 03-15 14:03 ?403次閱讀
    北斗芯片產(chǎn)業(yè)的<b class='flag-5'>高質(zhì)量</b>發(fā)展之路

    富捷電子被授予“高質(zhì)量發(fā)展突出貢獻(xiàn)獎(jiǎng)”

    在近日舉行的馬鞍山新區(qū)高質(zhì)量發(fā)展表彰大會(huì)上,富捷電子在推動(dòng)地區(qū)經(jīng)濟(jì)發(fā)展中的卓越貢獻(xiàn),被授予“高質(zhì)量發(fā)展突出貢獻(xiàn)獎(jiǎng)”。
    的頭像 發(fā)表于 02-23 15:16 ?693次閱讀

    穩(wěn)中創(chuàng)新?產(chǎn)業(yè)升級(jí)?高質(zhì)量發(fā)展 | 聯(lián)誠發(fā)高質(zhì)量發(fā)展工作推進(jìn)會(huì)議召開

    2月21日下午,聯(lián)誠發(fā)LCF以“穩(wěn)中創(chuàng)新?產(chǎn)業(yè)升級(jí)?高質(zhì)量發(fā)展”為主題的企業(yè)高質(zhì)量發(fā)展工作推進(jìn)大會(huì)在聯(lián)誠發(fā)深圳總部隆重召開。擂起奮進(jìn)催征的戰(zhàn)鼓,爭(zhēng)分奪秒搶抓寶貴春光,明確企業(yè)重點(diǎn)目標(biāo)任務(wù),全力以赴
    的頭像 發(fā)表于 02-22 11:33 ?479次閱讀
    穩(wěn)中創(chuàng)新?產(chǎn)業(yè)升級(jí)?<b class='flag-5'>高質(zhì)量</b>發(fā)展 | 聯(lián)誠發(fā)<b class='flag-5'>高質(zhì)量</b>發(fā)展工作推進(jìn)會(huì)議召開

    捷易科技出席廣東省韶關(guān)市高質(zhì)量發(fā)展大會(huì)

    ABSTRACT摘要2月19日,2024年韶關(guān)市高質(zhì)量發(fā)展招商大會(huì)在韶關(guān)舉行,來自政府、科技、企業(yè)各界專家代表共同探討韶關(guān)高質(zhì)量發(fā)展。捷易科技總經(jīng)理韓運(yùn)恒出席大會(huì)。JAEALOT2024年2月19日
    的頭像 發(fā)表于 02-22 08:25 ?505次閱讀
    捷易科技出席廣東省韶關(guān)市<b class='flag-5'>高質(zhì)量</b>發(fā)展大會(huì)
    主站蜘蛛池模板: 人人爽天天碰狠狠添| 0855福利| 亚洲国产第一| 真实农村女人野外自拍照片| 99综合之综合久久伊人| 国产ts在线| 久久国产影院| 强奷乱码中文字幕熟女免费| 性满足久久久久久久久| 2020亚洲国产在线播放在线| 国产99久久九九免费精品无码| 好男人WWW免费高清视频在线| 欧美多人群p刺激交换电影| 亚洲 欧美 中文 日韩 另类 | 免费在线视频一区| 无码一区二区在线欧洲| 100国产精品人妻无码| 国产精品AV视频一二三区| 麻豆最新免费版| 香蕉AV福利精品导航| 99久女女精品视频在线观看| 国内自拍 在线 亚洲 欧美| 欧美一区二区三区免费播放| 亚洲欧美日韩中字视频三区| 超污视频带污疼免费视频| 久久精品国产视频澳门| 双性诱受灌满哭求饶BL| 7m凹凸国产刺激在线视频| 国产在线自天天人人| 欧美在线视频一区| 曰曰夜夜在线影院视| 国产美女一区二区| 千禧金瓶梅 快播| 在线免费中文字幕| 国产亚洲欧美在线观看三区 | 久青草国产在线视频亚瑟影视| 午夜dj影院视频观看| jizz破处| 狂野猛交xxxx吃奶| 亚洲精品高清在线| 高清国产激情视频在线观看|