色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用于多模態(tài)命名實(shí)體識(shí)別的通用匹配對(duì)齊框架

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:知識(shí)工場(chǎng) ? 作者:知識(shí)工場(chǎng) ? 2022-09-06 16:17 ? 次閱讀

命名實(shí)體識(shí)別是NLP領(lǐng)域中的一項(xiàng)基礎(chǔ)任務(wù),在文本搜索、文本推薦、知識(shí)圖譜構(gòu)建等領(lǐng)域都起著至關(guān)重要的作用,一直是熱點(diǎn)研究方向之一。多模態(tài)命名實(shí)體識(shí)別在傳統(tǒng)的命名實(shí)體識(shí)別基礎(chǔ)上額外引入了圖像,可以為文本補(bǔ)充語(yǔ)義信息來(lái)進(jìn)行消岐,近些年來(lái)受到人們廣泛的關(guān)注。

盡管當(dāng)前的多模態(tài)命名實(shí)體識(shí)別方法取得了成功,但仍然存在著兩個(gè)問(wèn)題:(1)當(dāng)前大部分方法基于注意力機(jī)制來(lái)進(jìn)行文本和圖像間的交互,但由于不同模態(tài)的表示來(lái)自于不同的編碼器,想要捕捉文本中token和圖像中區(qū)域之間的關(guān)系是困難的。如下圖所示,句子中的‘Rob’應(yīng)該和圖像中存在貓的區(qū)域(V5,V6,V9等)有著較高的相似度,但由于文本和圖像的表示并不一致,在通過(guò)點(diǎn)積等形式計(jì)算相似度時(shí),‘Rob’可能會(huì)和其它區(qū)域有著較高的相似度得分。因此,表示的不一致會(huì)導(dǎo)致模態(tài)之間難以建立起較好的關(guān)系。

7c7b002e-2d86-11ed-ba43-dac502259ad0.png

(2)當(dāng)前的方法認(rèn)為文本與其隨附的圖像是匹配的,并且可以幫助識(shí)別文本中的命名實(shí)體。然而,并不是所有的文本和圖像都是匹配的,模型考慮這種不匹配的圖像將會(huì)做出錯(cuò)誤的預(yù)測(cè)。如下圖所示,圖片中沒(méi)有任何與命名實(shí)體“Siri”相關(guān)的信息,如果模型考慮這張不匹配的圖像,便會(huì)受圖中“人物”的影響將“Siri”預(yù)測(cè)為PER(人)。而在只有文本的情況下,預(yù)訓(xùn)練模型(BERT等)通過(guò)預(yù)訓(xùn)練任務(wù)中學(xué)到的知識(shí)可以將“Siri”的類(lèi)型預(yù)測(cè)為MISC(雜項(xiàng))。

Text: Ask [Siri MISC] what 0 divided by 0 is and watch her put you in your place.

為了解決上述存在的問(wèn)題,本文提出了MAF,一種通用匹配對(duì)齊框架(General Matching and Alignment Framework),將文本和圖像的表示進(jìn)行對(duì)齊并通過(guò)圖文匹配的概率過(guò)濾圖像信息 。由于該框架中的模塊是插件式的,其可以很容易地被拓展到其它多模態(tài)任務(wù)上。

本文研究成果已被WSDM2022接收,文章和代碼鏈接如下:

論文鏈接:https://dl.acm.org/doi/pdf/10.1145/3488560.3498475

代碼:https://github.com/xubodhu/MAF

7cc4ec16-2d86-11ed-ba43-dac502259ad0.png

整體框架

本文框架如下圖所示,由5個(gè)主要部分組成:

Input Representations

將原始的文本輸入轉(zhuǎn)為token序列的表示以及文本整體的表示,將原始的圖像輸入轉(zhuǎn)為圖像區(qū)域的表示以及圖像整體的表示。

Cross-Modal Alignment Module

接收文本整體的表示和圖像整體的表示作為輸入,通過(guò)對(duì)比學(xué)習(xí)將文本和圖像的表示變得更為一致。

Cross-Modal Interaction Module

接收token序列的表示以及圖像區(qū)域的表示作為輸入,使用注意力機(jī)制建立起文本token和圖像區(qū)域之間的聯(lián)系得到文本增強(qiáng)后的圖像的表示。

Cross-Modal Matching Module

接收文本序列的表示和文本增強(qiáng)后的圖像的表示作為輸入,用于判斷文本和圖像匹配的概率,并用輸出的概率對(duì)圖像信息進(jìn)行過(guò)濾。

Cross-Modal Fusion Module

將文本token序列的表示和最終圖像的表示結(jié)合在一起輸入到CRF層進(jìn)行預(yù)測(cè)。

7cf10116-2d86-11ed-ba43-dac502259ad0.png

主要部分

Input Representations

本文使用BERT作為文本編碼器,當(dāng)文本輸入到BERT后,便可以得到token序列的表示,其中n為token的數(shù)量,為[CLS],為[SEP],,本文使用[CLS]的表示作為整個(gè)文本的表示。

本文使用ResNet作為圖像編碼器,當(dāng)圖像輸入到ResNet后,其最后一層卷積層的輸出被作為圖像區(qū)域的表示,其中為圖像區(qū)域的數(shù)量,即將整張圖像均分為49個(gè)區(qū)域。接著,使用大小為的平均池化層對(duì)進(jìn)行平均池化得到整個(gè)圖像的表示。由于后續(xù)和需要進(jìn)行交互,所以將通過(guò)一個(gè)全連接層將其投影到與相同的維度,其中。

Cross-Modal Alignment Module (CA)

該模塊遵循SimCLR[1]進(jìn)行對(duì)比學(xué)習(xí)的訓(xùn)練過(guò)程使得文本的表示和圖像的表示更趨于一致,接收以及作為輸入,通過(guò)對(duì)比學(xué)習(xí)來(lái)調(diào)整編碼器的參數(shù)。本文在構(gòu)造正負(fù)樣例階段中認(rèn)為原始的文本-圖像對(duì)為正樣例,除此之外的文本-圖像對(duì)均為負(fù)樣例,因此在大小為N的batch中,只有N個(gè)原始的文本-圖像對(duì)為正樣例,對(duì)于batch中的每個(gè)文本來(lái)說(shuō),除了其原始的image外,其余任意image與其都構(gòu)成負(fù)樣例,對(duì)于batch中的每個(gè)圖像來(lái)說(shuō)也是如此。如下圖所示,當(dāng)N為3時(shí),可以得到3個(gè)正樣例以及個(gè)負(fù)樣例。

7d0aae22-2d86-11ed-ba43-dac502259ad0.png

接著,本文使用兩個(gè)不同的MLP作為投影層分別對(duì)和進(jìn)行投影得到以及。然后,通過(guò)最小化對(duì)比學(xué)習(xí)損失來(lái)最大化正樣例之間的相似度并且最小化負(fù)樣例之間的相似度來(lái)使得文本的表示和圖像的表示更加一致,image-to-text對(duì)比學(xué)習(xí)損失如下所示:

其中為余弦相似度,為溫度參數(shù)。text-to-image對(duì)比學(xué)習(xí)損失如下所示:

我們將上述兩個(gè)對(duì)比學(xué)習(xí)損失函數(shù)合并,得到最終的對(duì)比學(xué)習(xí)損失函數(shù):

其中為超參數(shù)。

補(bǔ)充:

Q:在“背景”部分提到的第(2)個(gè)問(wèn)題是圖文可能是不匹配的,為什么在CA中還是認(rèn)為來(lái)自同一文本-圖像對(duì)的數(shù)據(jù)為正樣例?

A:在EBR[2]中,作者通過(guò)類(lèi)似于對(duì)比學(xué)習(xí)的方式來(lái)訓(xùn)練一個(gè)向量召回模型(通過(guò)搜索文本來(lái)召回淘寶商品),并且認(rèn)為點(diǎn)擊和購(gòu)買(mǎi)的商品為正樣例,但這種點(diǎn)擊和購(gòu)買(mǎi)的信號(hào)除了和搜索內(nèi)容有關(guān)之外還受到商品價(jià)格、銷(xiāo)量、是否包郵等因素影響,類(lèi)似于本文中將原始的文本-圖像對(duì)看作正例,都是存在噪聲的。由于本身可以調(diào)節(jié)分布的特性,EBR作者通過(guò)增加的大小來(lái)減少數(shù)據(jù)噪聲的影響,并且通過(guò)實(shí)驗(yàn)證明將增大到一定數(shù)值(設(shè)置為3時(shí)達(dá)到最好)可以提高模型的表現(xiàn)。本文最終的也是一個(gè)相對(duì)較大的數(shù)字為0.1。而在其它數(shù)據(jù)噪聲相對(duì)較少的對(duì)比學(xué)習(xí)的工作中,如SimCSE[3],被設(shè)置為0.05,MoCo[4]中的被設(shè)置為0.07。

總的來(lái)說(shuō),CA中會(huì)存在一定數(shù)量的噪聲數(shù)據(jù),但可以通過(guò)提高的方式來(lái)顯著地降低其帶來(lái)的影響。

Cross-Modal Interaction Module (CI)

該模塊通過(guò)注意力機(jī)制建立起文本和圖像之間的關(guān)系,使用文本token序列表示作為Query,使用圖像的區(qū)域表示作為Key和Value,最終得到文本增強(qiáng)后的圖像表示。

Cross-Modal Matching Module (CM)

該模塊用于判斷圖文匹配的概率,并用概率調(diào)整圖像應(yīng)保留的信息。該模塊接受和作為輸入,輸出為和匹配的概率。由于缺少用于標(biāo)記圖文是否匹配的監(jiān)督數(shù)據(jù),本文使用一種自監(jiān)督的學(xué)習(xí)方式來(lái)訓(xùn)練該模塊。

首先,本文在大小為N的batch中構(gòu)造正負(fù)樣例,其中原始的文本-圖像對(duì)為正樣例,其余的為負(fù)樣例。本文通過(guò)隨機(jī)交換batch中前2k個(gè)樣例的來(lái)構(gòu)造負(fù)樣例,如下圖所示,在大小為3的batch中,交換前2*1個(gè)樣例的得到2個(gè)負(fù)樣例,而剩余的3-2=1個(gè)沒(méi)有被交換的樣例則為正樣例。

7d2afa56-2d86-11ed-ba43-dac502259ad0.png

接著,將構(gòu)造好的每個(gè)樣例中的和拼接起來(lái)作為輸入到一個(gè)激活函數(shù)為sigmoid的全連接層中用于預(yù)測(cè)圖文匹配的概率。

判斷圖文是否匹配可以被看做是一個(gè)二分類(lèi)任務(wù),因此在獲取的正負(fù)樣例后,可以自然地獲得每個(gè)樣例的真實(shí)標(biāo)簽(正樣例為1,負(fù)樣例為0),再通過(guò)上述公式得到預(yù)測(cè)概率后,便可以使用二元交叉熵來(lái)訓(xùn)練該模塊。

最后,使用該模塊輸出的概率與進(jìn)行逐元素相乘來(lái)獲得圖像應(yīng)保留的信息(該模塊輸出的概率越大說(shuō)明圖文匹配的概率越高,則逐元素相乘圖像保留的信息越多)。

Cross-Modal Fusion Module (CF)

該模塊用于將文本token序列以及最終圖像的表示融合在一起。首先,本文使用門(mén)機(jī)制動(dòng)態(tài)地調(diào)整應(yīng)與文本結(jié)合的圖像表示:

最后將和拼接在一起得到,其中。將輸入到CRF層中,便可以得到每個(gè)token對(duì)應(yīng)的類(lèi)別。

訓(xùn)練時(shí),CA和CM中的損失會(huì)和命名實(shí)體識(shí)別的損失同步訓(xùn)練。

實(shí)驗(yàn)

主要結(jié)果

本文的方法在Twitter-2015和Twitter-2017數(shù)據(jù)集上效果均優(yōu)于之前的方法。

7d4b855a-2d86-11ed-ba43-dac502259ad0.png

運(yùn)行時(shí)間

本文的方法相比于之前的方法除了有著模態(tài)之間交互的模塊(本文中為CI),還添加了對(duì)齊模態(tài)表示的CA以及判斷圖文是否匹配的CM,這可能會(huì)導(dǎo)致訓(xùn)練成本以及預(yù)測(cè)成本增加。但本文簡(jiǎn)化了模態(tài)之間交互的過(guò)程,因此整體訓(xùn)練和預(yù)測(cè)時(shí)間以及模型大小均由于之前的SOTA方法。

7d71210c-2d86-11ed-ba43-dac502259ad0.png

消融實(shí)驗(yàn)

本文進(jìn)行了消融實(shí)驗(yàn),驗(yàn)證了CA和CM的有效性。

7d8a1194-2d86-11ed-ba43-dac502259ad0.png

樣例分析

本文還進(jìn)行了樣例分析來(lái)更加直觀地展示CA和CM的有效性。

7da422a0-2d86-11ed-ba43-dac502259ad0.png

參考資料

[1] A Simple Framework for Contrastive Learning of Visual Representations:http://proceedings.mlr.press/v119/chen20j/chen20j.pdf

[2] Embedding-based Product Retrieval in Taobao Search:https://arxiv.org/pdf/2106.09297.pdf?ref=https://githubhelp.com

[3] SimCSE: Simple Contrastive Learning of Sentence Embeddings:https://arxiv.org/pdf/2104.08821.pdf?ref=https://githubhelp.com

[4] Momentum Contrast for Unsupervised Visual Representation Learning:https://openaccess.thecvf.com/content_CVPR_2020/papers/He_Momentum_Contrast_for_Unsupervised_Visual_Representation_Learning_CVPR_2020_paper.pdf

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41042
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    404

    瀏覽量

    17797
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22497
收藏 0人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于LockAI視覺(jué)識(shí)別模塊:C++模板匹配

    景:廣泛應(yīng)用于物體識(shí)別、工業(yè)自動(dòng)化、機(jī)器人導(dǎo)航等領(lǐng)域。 優(yōu)勢(shì):支持多個(gè)模板的同時(shí)匹配,能夠靈活處理多種目標(biāo)。 局限性:對(duì)旋轉(zhuǎn)、縮放和光照變化較為敏感,因此通常需要結(jié)合其他技術(shù)來(lái)提高魯棒性。 1.2
    發(fā)表于 05-14 15:00

    基于LockAI視覺(jué)識(shí)別模塊:C++模板匹配

    模板匹配是一種在圖像中同時(shí)尋找多個(gè)模板的技術(shù)。通過(guò)對(duì)每個(gè)模板逐一進(jìn)行匹配,找到與輸入圖像最相似的區(qū)域,并標(biāo)記出匹配度最高的結(jié)果。本實(shí)驗(yàn)提供了一個(gè)簡(jiǎn)單的
    的頭像 發(fā)表于 05-14 14:37 ?230次閱讀
    基于LockAI視覺(jué)<b class='flag-5'>識(shí)別</b>模塊:C++<b class='flag-5'>多</b>模板<b class='flag-5'>匹配</b>

    愛(ài)芯通元NPU適配Qwen2.5-VL-3B視覺(jué)模態(tài)大模型

    熟悉愛(ài)芯通元NPU的網(wǎng)友很清楚,從去年開(kāi)始我們?cè)诙藗?cè)模態(tài)大模型適配上一直處于主動(dòng)緊跟的節(jié)奏。先后適配了國(guó)內(nèi)最早開(kāi)源的模態(tài)大模MiniCPM V 2.0,上海人工智能實(shí)驗(yàn)室的書(shū)生
    的頭像 發(fā)表于 04-21 10:56 ?1208次閱讀
    愛(ài)芯通元NPU適配Qwen2.5-VL-3B視覺(jué)<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大模型

    ?模態(tài)交互技術(shù)解析

    模態(tài)交互 模態(tài)交互( Multimodal Interaction )是指通過(guò)多種感官通道(如視覺(jué)、聽(tīng)覺(jué)、觸覺(jué)等)或多種交互方式(如語(yǔ)音、手勢(shì)、觸控、眼動(dòng)等)與計(jì)算機(jī)系統(tǒng)進(jìn)行自然、
    的頭像 發(fā)表于 03-17 15:12 ?1637次閱讀

    海康威視發(fā)布模態(tài)大模型文搜存儲(chǔ)系列產(chǎn)品

    模態(tài)大模型為安防行業(yè)帶來(lái)重大技術(shù)革新,基于觀瀾大模型技術(shù)體系,海康威視將大參數(shù)量、大樣本量的圖文模態(tài)大模型與嵌入式智能硬件深度融合,發(fā)布
    的頭像 發(fā)表于 02-18 10:33 ?532次閱讀

    字節(jié)跳動(dòng)發(fā)布OmniHuman 模態(tài)框架

    2 月 6 日消息,字節(jié)跳動(dòng)近日發(fā)布了一項(xiàng)重大成果 ——OmniHuman 模態(tài)框架,其優(yōu)勢(shì)在于其強(qiáng)大的視頻生成能力。用戶(hù)只需提供一張任意尺寸和人物占比的單張圖片,再結(jié)合一段輸入音頻,就能生成
    的頭像 發(fā)表于 02-07 17:50 ?708次閱讀

    體驗(yàn)MiniCPM-V 2.6 模態(tài)能力

    模態(tài)組網(wǎng)
    jf_23871869
    發(fā)布于 :2025年01月20日 13:40:48

    商湯日日新模態(tài)大模型權(quán)威評(píng)測(cè)第一

    剛剛,商湯科技日日新SenseNova模態(tài)大模型,在權(quán)威綜合評(píng)測(cè)權(quán)威平臺(tái)OpenCompass的模態(tài)評(píng)測(cè)中取得榜單第一。
    的頭像 發(fā)表于 12-20 10:39 ?874次閱讀

    一文理解模態(tài)大語(yǔ)言模型——下

    /understanding-multimodal-llms ? 《一文理解模態(tài)大語(yǔ)言模型 - 上》介紹了什么是模態(tài)大語(yǔ)言模型,以及構(gòu)建
    的頭像 發(fā)表于 12-03 15:18 ?525次閱讀
    一文理解<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語(yǔ)言模型——下

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)大模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進(jìn)行融合,通過(guò)學(xué)習(xí)不同模態(tài)之間的關(guān)聯(lián),實(shí)現(xiàn)更加智能化的信息處理。簡(jiǎn)單來(lái)說(shuō),模態(tài)
    的頭像 發(fā)表于 10-18 09:39 ?1090次閱讀

    云知聲山海模態(tài)大模型UniGPT-mMed登頂MMMU測(cè)評(píng)榜首

    近日,模態(tài)人工智能模型基準(zhǔn)評(píng)測(cè)集MMMU更新榜單,云知聲山海模態(tài)大模型UniGPT-mMed以通用能力、醫(yī)療專(zhuān)業(yè)能力雙雙排名第一的優(yōu)異成
    的頭像 發(fā)表于 10-12 14:09 ?611次閱讀
    云知聲山海<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大模型UniGPT-mMed登頂MMMU測(cè)評(píng)榜首

    使用 TMP1826 嵌入式 EEPROM 替換用于模塊識(shí)別的外部存儲(chǔ)器

    電子發(fā)燒友網(wǎng)站提供《使用 TMP1826 嵌入式 EEPROM 替換用于模塊識(shí)別的外部存儲(chǔ)器.pdf》資料免費(fèi)下載
    發(fā)表于 09-09 09:44 ?0次下載
    使用 TMP1826 嵌入式 EEPROM 替換<b class='flag-5'>用于</b>模塊<b class='flag-5'>識(shí)別的</b>外部存儲(chǔ)器

    云知聲推出山海模態(tài)大模型

    在人工智能技術(shù)的浩瀚星海中,模態(tài)交互技術(shù)正成為引領(lǐng)未來(lái)的新航標(biāo)。繼OpenAI的GPT-4o掀起滔天巨浪后,云知聲以創(chuàng)新之姿,推出了其匠心獨(dú)運(yùn)的山海模態(tài)大模型,正式宣告“Her時(shí)代
    的頭像 發(fā)表于 08-27 15:20 ?587次閱讀

    如何設(shè)計(jì)人臉識(shí)別的神經(jīng)網(wǎng)絡(luò)

    人臉識(shí)別技術(shù)是一種基于人臉特征信息進(jìn)行身份識(shí)別的技術(shù),廣泛應(yīng)用于安全監(jiān)控、身份認(rèn)證、智能門(mén)禁等領(lǐng)域。神經(jīng)網(wǎng)絡(luò)是實(shí)現(xiàn)人臉識(shí)別的關(guān)鍵技術(shù)之一,本文將介紹如何設(shè)計(jì)人臉
    的頭像 發(fā)表于 07-04 09:20 ?1033次閱讀

    人臉檢測(cè)與識(shí)別的方法有哪些

    人臉檢測(cè)與識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域中的一個(gè)重要研究方向,具有廣泛的應(yīng)用前景,如安全監(jiān)控、身份認(rèn)證、智能視頻分析等。本文將詳細(xì)介紹人臉檢測(cè)與識(shí)別的方法。 引言 人臉檢測(cè)與識(shí)別技術(shù)在現(xiàn)代社會(huì)中扮演著
    的頭像 發(fā)表于 07-03 14:45 ?1209次閱讀
    主站蜘蛛池模板: 国内免费视频成人精品 | 快播看av| 强壮的公次次弄得我高潮韩国电影 | 国产一区二区无码蜜芽精品 | 日日夜夜国产 | 亚洲AV色香蕉一区二区三区 | 美女张开让男生桶 | 国产精品成人在线播放 | 狠狠操伊人 | 亚洲精品视频在线观看视频 | videossexo乌克兰 | 麻豆精品人妻一区二区三区蜜桃 | 国内精品不卡一区二区三区 | 717影院理论午夜伦不卡久久 | 一本道综合久久免费 | 中文无码有码亚洲 欧美 | 国产成人精品久久久久婷婷 | 成年人视频免费在线观看 | 九九热在线观看 | 999精品国产人妻无码系列 | 亚洲爆乳少妇精品无码专区 | 乳色吐息在线观看全集免费观看 | 国产精品自在在线午夜精品 | 92精品国产成人观看免费 | 亚洲三级视频在线观看 | 人人啪日日观看在线 | 含羞草在线免费观看 | 亚洲国产果果在线播放在线 | 国产毛片女人高潮叫声 | 男助理憋尿PLAY灌尿BL出去 | 99久热这里精品免费 | 国产在线精品亚洲另类 | 国产精品手机在线视频 | 亚洲 欧美 中文 日韩 视频 | 久久久久久久久女黄9999 | 国产成人精品自线拍 | 天天看高清影视在线18 | 岛国片免费在线观看 | 午夜色网站 | A级超碰视频在线观看 | 国产成人片视频一区二区青青 |

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品