色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Autopilot的識別堆棧內深挖細品

jf_C6sANWk1 ? 來源:阿寶1990 ? 作者:阿寶1990 ? 2022-10-20 10:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在上期文章中,我們從Autopilot的感知堆棧的backbone網絡開始分析,從raw data到RegNet,再到BiFPN,最后來到多頭的Head結構,這就基本上給HydraNets的框架結構定了性。在Tesla AI Day結束之后,很多關心自動駕駛產業發展的人,觀后感普遍是智商不夠,看不懂。而實際上,如果讀者不進入實際的研發領域,要理解Autopilot的工作機制、框架和基本脈絡,實際上并沒有那么困難。而對于Autopilot整體框架的理解,一旦有心得,對于自動駕駛行業的從業者、愛好者和政策關注者,其實都是大有裨益的。

而作為一個典型的跨學科產業,傳統封閉知識結構的限制讓很多初次涉足自動駕駛行業的新手來說,都會感到明顯困難。一個突出的問題就是交叉學科概念實在太多太新了,往往名詞都看不懂,就不要說深究了。所以,小編寫這個系列文章的初衷就是盡可能拉低閱讀門檻,讓每個感興趣的讀者開卷有益。畢竟,Tesla這種具備開放心態的先鋒企業,不是總能遇得到的。

所以關注這個系列的讀者,在看系列中任何一篇文章的時候,都可以聯系系列中的其它文章串起來看,各種新鮮的名詞解釋和上下文串講會協助諸位和小編一起跑完這個理解的過程的。

086ba698-5018-11ed-a3b6-dac502259ad0.png

圖一【Tesla transformer-33.png】來自論文《EfficientDet: Scalable and Efficient ObjectDetection》中的插圖,獲取URLhttps://arxiv.org/pdf/1911.09070.pdf;

這是上一篇文章中我們所講的關鍵點BiFPN網絡結構,其中BiFPN和其他上下游的網絡結構交代得比較清楚,所以小編在這里再強調一次。上圖左半部分為Google的EfficientNet,是一種典型的層次化的CNN Backbone結構,上圖中顯示為7層,每一層的分辨率逐漸降低,但是特征Feature map也是在這個過程中通過卷積計算來實現搜集的。重要的是,我們可以清晰地觀察到,從第3層到第7層的Feature map數據被依次輸入到BiFPN網絡內,從而可以利用BiFPN的融合結構設計,將不同層次的feature按照預定義的規則融合到一起,制造更準確的識別結果。

上圖(圖一)的最右側顯示了這個整體模型中的Task Head,顯示了優化后的backbone所提供的feature map最終被用于何種任務的實現。其中一個是分類任務Class,另一個是定位任務Box共兩個任務。它們兩個共享了EfficentNet backbone+BiFPN的特征識別結果,實現了算力的共享和高效利用。

在一個典型的CNN網絡中(以下圖為例是VGG16)另一個直觀的案例,原始的Input image在后續的一些列卷積處理之后,最終按照任務的要求實現Output輸出。通常講,CNN被用于網絡內容的識別,并在識別后按照識別結果的類別來報告輸出。下圖模型就是干這個的。

089fc2ca-5018-11ed-a3b6-dac502259ad0.png

圖二【Tesla transformer-34.png】來自youtube.com中賬號@denisdmitriev的VGG16 Neural Networkvisualization視頻的插圖,獲取URLhttps://www.youtube.com/watch?v=RNnKtNrsrmg;

如果將這個VGG16的卷積模型拉伸開來,就可以清晰地展示出每一個卷積層、池化層的輸出直觀計算(or感知)結果,如下:

09d09e62-5018-11ed-a3b6-dac502259ad0.png

0a5b61a0-5018-11ed-a3b6-dac502259ad0.png

圖三【Tesla transformer-35、36.png】來自youtube.com中賬號@denis dmitriev的VGG16 Neural Network visualization視頻的插圖,獲取URLhttps://www.youtube.com/watch?v=RNnKtNrsrmg;

由于不同卷積算子的卷積計算,原始圖像中的蘋果(或者洋蔥),其不同的特征被捕捉出來,比如顏色、形狀、表皮類型、根莖形狀,甚至不同物種常常呈現的不同的凹凸不平的特點,都被CNN抓出來,并通過BiFPN類似的特征融合機制形成最終的認知,或者提供給后端Task Head有效的、良好的認知素材。從這個流程上看,CNN對于圖像信息特征的捕捉方式,幾乎和人類對于圖像的感知方式一致了。當然,人類的感知能力除了視覺信息分析,我們還具備觸覺、味覺和更一般的“世界知識體系”……這是AI暫時所做不到的。比如,兩個在外觀上完全一致的蘋果和洋蔥,人類視覺無法判斷分類結果,自然會拿在手上掂量一下,甚至聞一下、嘗一口,最終總是可以找到正確答案的。

之前在這個系列的第一篇文章里,我們談到過AI技術演進的下一個方向,也有對于多模態信息的綜合感知,那是因為Transformer體現出了一定的多模態數據處理能力。其實CNN技術本身也有同時被應用于圖形和語言的信息處理領域,但顯然自動駕駛領域內的感知問題,在當前階段還是應該關注圖形數據(視覺傳感器)為核心,解決了視覺問題,大概99%的問題都被解決了。在此基礎之上的更進一步感知多模態信息,才扎實。

0a87da14-5018-11ed-a3b6-dac502259ad0.png

圖四【Tesla transformer-37.png】來自Tesla AI day主題演講視頻截圖,URLhttps://www.youtube.com/watch?v=j0z4FweCy4M&t=4115s;

Backbone+Task heads的整體架構如上圖,這就是標準的多任務系統HydraNets。在這個多任務Heads框架中從左到右分別是Object Detection Task(應該包含靜態和動態所有道路目標的識別)、Traffic Lights Task(交通燈和其它交通標識的識別)和Lane Prediction Task(車道線及可行駛區域識別)。實際上FSD beta現在這個階段,使用到CNN backbone的任務一定不止以上三個。細分任務的原則是一個Head task無法處理和涵蓋一個類別的任務,就需要擁有獨立的Head Task。比如小編推測在Lan Prediction Task中,可能不僅僅是各種車道線的識別和預測,還有可能包含同樣關鍵的馬路邊緣路緣石邊界的識別。在這個具象的Task中,系統框圖只給出了regression方法(reg),在對于車道線的識別這是一個普遍的方法,因為車道線基本上可以用一個固定的二次函數、三次函數既可以描述出車道線走勢,所以機器學習里涉及的車道線識別方法,使用regression回歸方法來預測車道線的多項式系數即可,這是個慣用的標準做法。但對于馬路邊緣路緣石構成的可行駛區域邊界的識別,因為路緣石邊界的不規則屬性,可能無法服用regression方法。感興趣的讀者可以參考PolyLaneNet車道線識別的方法,互聯網可查。

0ab76694-5018-11ed-a3b6-dac502259ad0.png

圖五【Tesla transformer-38.png】來自Youtube站點博主@Frenchie的測試視頻截圖,URLhttps://www.youtube.com/watch?v=rfTpt8phxL4;

上圖可以觀察到FSD beta的中控屏幕顯示的紅色曲線為路緣石線條,由于基建處理路緣石的考量不僅僅是勾畫車輛可行駛區域,相對地也要考慮行人道上的各種設備需求,因此它并不是一直和車道線保持并行,會有非規則曲線的場景出現。上圖中這個場景下,顯示的識別結果出現錯誤,且這個非規則的路緣石不可能用低次曲線擬合出來。

對于object和traffic light的預測分類(屬性)和位置,則使用了classification、regression和attribution方法。類似的可以借鑒和查詢的論文就更多了,YOLO系列就是一個完美的參考,互聯網可查。

除了多頭的任務本身,圖四所顯示的多任務架構還需要注意的是Tesla在Backbone和Head之間插入了一個叫做multi-scale features的cache環節。這個環節在模型的測試過程中扮演了關鍵角色。按照Karpathy的解釋,訓練過程如下:

1 首先進行的是end to end的聯合訓練,輸入是視覺raw data,輸出是所有任務的輸出。監督所有子任務的準確度,并根據準確度進行干預(系統自動執行誤差的反向傳播)。這樣的訓練結果將會導致所有子任務的“集體最優結果”;

2 end to end的聯合訓練會導致子任務集體最優,但因為子任務之間不可能做到邏輯上的完全隔離,因此集體最優一定不是單個子任務的“個體最優結果”,因此需要以單個任務為核心進行調優fine tunning;

3 以單個子任務為核心的fine tunning的輸入為經過聯合調優后確立的backbone所輸出的multi-scale features,從位于中部的那個cache里直接獲?。惠敵鰟t為各自子任務的輸出,還是經過監督學習機制,最后將每個子任務收斂到各自的最優狀態;

4 然后重復1的end to end聯合訓練……

上述這個迭代流程可以確保網絡整體效能最優,且各個子任務的準確度最佳。橫向看,這并非Tesla的專利(小編:盡管Tesla有訓練多任務系統的一些專利,我們之前的文章有涉及過),業內處理自動駕駛系統內的多任務,大抵如此手法。但knowhow在于如何處理車載硬件的CPU算力——訓練方法的有效性——最終模型輸出的準確性,這三者之間的矛盾,達到和諧統一。這個Tesla當然不會細說,就比如這個cache內部的multi-scale feature,到底如何分配給不同的子任務可以協助子任務的預測水平實現最優?這就是Tesla的秘密了。

別的不好說,但是顯然的是,誰的數據(有效數據)最多最豐富最極端corner,誰就最有把握接近最佳模型。Tesla雖然扔掉了所有的毫米波雷達回波數據,也不屑于Lidar的點云數據,但在視覺領域的積累應該還是有底氣的。

截至目前,HydraNets架構已經可以支撐標準的L2自動駕駛業務了。對于Tesla來說,自從和Mobileye分手之后,HydraNets的框架就已經(也必須)開始部署了,無非是在框架內選擇不同的具體技術進行性能更新而已。但實際上如果要往更高層級的自動駕駛自治邁進,對于HydraNets架構的擴展就勢在必行了。

0baa00e8-5018-11ed-a3b6-dac502259ad0.png

0c269db0-5018-11ed-a3b6-dac502259ad0.png

圖六【Tesla transformer-39、40.png】來自Tesla AI day主題演講視頻截圖,URLhttps://www.youtube.com/watch?v=j0z4FweCy4M&t=4115s;

以上兩張圖代表了兩種不同級別的自動駕駛應用,想必各位讀者已經耳熟能詳了。前者是典型的單目攝像頭所獲取的信息,以及背后的多任務HydraNets NN架構的識別結果。從Mobileye開始普及典型的Level-2自動駕駛系統以來,Tesla Autopilot就一直是這個思路。唯一的變化就是2016年脫離和Mobileye的合作之后,Autopilot有一個階段是采用了Camera+mm Radar的傳感器組合,2021年上半年則轉向Full vision。

上圖前者的識別結果確實豐富,我們有過專門的公眾號文章對Autopilot在這個階段對于單目視覺信息的識別做了解讀。但這個識別結果,哪怕融合了毫米波雷達的速度信息,支持更高等級的自動駕駛任務也是不夠用的。所以才有了上圖后者的需求,車輛哪怕是在封閉場地和低速的限制條件下,例如Smart summon(停車場智能召喚功能),也必須要掌握主車四周的全視角道路狀態(可行駛區域),才有可能進行路徑規劃,并發現召喚者。注:上圖中的九個視覺輸出中有兩個黑塊,意味著車身一共8個攝像頭,supper narrow遙距攝像頭并在Smart summon中參與道路3D信息捕獲和可行駛道路區域的識別。

對于Tesla Autopilot系統的識別堆棧談到這里,讀者應當注意這個主題的本質:花多少錢辦多少事兒。迄今為止對于CNN Backbone和純視覺的堅持,可以在大部分的Level-2任務上得到技術落地和回報,并在更大范疇的技術框架上一錘定音、不走回頭路以適應越來越高的NN技術占比對于龐大有效的數據量的需求。只要這一步走對了,小編的角度看,Tesla就算成功了一半。自動駕駛系統在未來能走多遠?走多快?這就不僅僅是一家公司的事情了,很多問題也還是基礎科學、科學技術產業化的問題。舉個非常簡單的例子,純視覺如何克服目標深度信息預測的準確度和時效性問題?神經網絡算子新貴Transformer轉戰視覺信息處理的突破,是如何提供給Tesla一個良好的視覺場轉化工具的?這里面有偶然,但更多是必然,我們相信只要走在正確的路上,困難就總是暫時的。

具體而言,當Tesla意識到前向單目攝像頭所捕獲的視覺信息,哪怕對其再精耕細作和堆砌大量數據訓練出來的模型,這個能力進展也無法處理更高等級的自動駕駛技術需求的時候,并沒有將現有識別堆棧推倒重來,而是繼續向前選擇了顯性的C++人工代碼試圖提供車身四周完整的3D視角視覺信息……如下圖:

0c5ca266-5018-11ed-a3b6-dac502259ad0.png

圖七【Tesla transformer-41.png】來自Tesla AI day主題演講視頻截圖,URLhttps://www.youtube.com/watch?v=j0z4FweCy4M&t=4115s;

這個被叫做“Occupancy Tracker”的人工代碼被嵌入到Smart summon這個應用的Task head底部,完成從CNN backbone提取feature map后,需要參照車身攝像頭的幾何尺寸將其轉換到路徑規劃所需要的Birds-view map。

360度的俯視圖Birds-view map在大多數Level-2自動駕駛應用場景中,并非必要。但在更高等級的自動駕駛系統中,多傳感器數據處理結果(小編:同構或者異構傳感器都可以)終結在Birds-view map俯視圖結構上,并提供給后端路徑規劃,還是最合適的。人類構建的公路系統是嚴格符合“連續平面”屬性的,因此忽略高度信息的俯視圖在規劃中,比車載相機獲取的或略深度信息的投影平面,更能表現出道路上各種物體的相對位置關系。但問題在于如果路面拓撲過于復雜,且視覺傳感器會因為各種遮擋場景而只獲取部分信息,在這個基礎上,人工代碼往往力不從心。

對于上圖七的觀察我們就可以看到,在CNN backbone上增加Birds-view map獲取的“Occupancy Tracker”代碼Head之后,可以實現從camera視覺信息到俯視圖的轉換,但問題同樣明顯:

1 Karpathy標識這段代碼功能非常難以落地,具體表現為對于場景適應能力很差,可能在一部分場景下表現尚可,但一旦出現特殊的道路拓撲,就會失效;

2 精度問題。

上圖七左上角是Birds-view map的輸出結果,車輛左轉彎之后,前方兩側都出現大面積的無法識別狀態,右后側出現識別精度大誤差狀態(紅色線條重疊)。讀者可以想象,一旦車速增加、出現大面積的路邊遮擋物和道路拓撲劇烈改變等等,識別效果會進一步惡化。

0ca974d8-5018-11ed-a3b6-dac502259ad0.png

圖八【Tesla transformer-42.png】來自Tesla AI day主題演講視頻截圖,URLhttps://www.youtube.com/watch?v=j0z4FweCy4M&t=4115s;

如果我們從smart summon應用再往前走一步,在所有道路條件下提供投影成像到Birds-view map的轉換,再從路緣石邊界(上圖紅色線條)擴展到對于車道線(上圖藍色箭頭)的識別和轉換視角,則之前的Occupancy tracker所面臨的問題會被進一步放大。圖八中,我們可以看到在camera投影視圖中的路緣石邊緣識別結果,因為天然在精度上的誤差,經由精確的幾何變換后,在俯視圖上的誤差得到進一步放大,甚至到會引發解讀歧義的問題:認真看投影視圖中的紅色線條,是對路緣石的一種近似的擬合結果。CNN Backbone的各種CNN識別結果,在單目鏡頭的視覺投影信息中,只能依賴CNN的對于人類智能模擬之后的近似。Camera不可能提供和Lidar等同的測量精度,Camera+CNN更多意義上的操作本質是“預測”。因此,建立在預測結果上,對于近似的預測結果進行“硬橋硬馬”的集合轉換,結果就只能是這個水平。

圖中的黃色和綠色箭頭所指位置,投影成像的線條近似,被轉換為以車輛攝像頭為圓心的圓弧段,沒錯,Occupancy Tracker認為線段上的每一個點,到攝像頭的距離都是一樣的…….由此,更新Occupancy Tracker代碼,使用同質的NN網絡來模擬人類的預測行為,來完成這個視場轉換任務,就是Autopilot識別堆棧的下一個核心重點了!

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 堆棧
    +關注

    關注

    0

    文章

    183

    瀏覽量

    20122
  • 自動駕駛
    +關注

    關注

    788

    文章

    14312

    瀏覽量

    170574
  • Autopilot
    +關注

    關注

    0

    文章

    44

    瀏覽量

    7093

原文標題:Tesla Vision背后的變形金剛——系統需要的是測量還是預測?

文章出處:【微信號:阿寶1990,微信公眾號:阿寶1990】歡迎添加關注!文章轉載請注明出處。

收藏 0人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    芯資訊|廣州唯創電子語音識別芯片:全場景覆蓋與長效品質

    芯片市場中脫穎而出,成為行業標桿。一、全場景覆蓋的產品矩陣,精準匹配多元需求廣州唯創電子深挖市場需求,針對不同應用場景和成本需求,構建了業內最完善的語音識別芯片產
    的頭像 發表于 05-20 08:36 ?176次閱讀
    芯資訊|廣州唯創電子語音<b class='flag-5'>識別</b>芯片:全場景覆蓋與長效品質

    機器的交響曲:profinet轉canopen網關ethernet ip現代工業車間的高效協作-超配置教程

    機器的交響曲:profinet轉canopen網關ethernet ip現代工業車間的高效協作-超配置教程
    的頭像 發表于 03-25 16:30 ?275次閱讀
    機器的交響曲:profinet轉canopen網關ethernet ip現代工業車間的高效協作-超<b class='flag-5'>細</b>配置教程

    AFE5801 TGC配置中采用Static PGA模式時調增益配置的疑問求解

    對AFE5801 TGC配置時,采用Static PGA模式,對coarse_gain和fine_gain分別配置時,發現粗調寫進去了,但是調增益麥斯沒寫進去。 比如:調增益寫的是16
    發表于 02-06 08:36

    AFE5801調增益不起作用的原因?怎么解決?

    采用STATIC PGA模式配置AFE5801芯片時,99【2:0】為調增益配置單元,寫如0代表0dB,寫入7代表0.875dB。但是寫入0和7時采集到的數據大小沒有發生變化,不知道為什么?
    發表于 01-24 08:00

    AFE5801調增益不起作用是什么原因導致的?

    采用STATIC PGA模式配置AFE5801芯片時,99【2:0】為調增益配置單元,99地址單元分別寫的是24\'h990009和24\'h99000f,分別對應著0.125dB
    發表于 01-24 07:01

    AUTOSAR中通信堆棧的配置 AUTOSAR通信模塊測試方法

    )的開發和生產。通信堆棧是AUTOSAR架構中的關鍵組成部分,負責處理ECU之間的通信。 AUTOSAR中通信堆棧的配置 通信模型 : AUTOSAR定義了一種分層的通信模型,包括應用層、診斷層、網絡
    的頭像 發表于 12-17 15:01 ?968次閱讀

    TMS320C28x DSP上的在線堆棧溢出檢測

    電子發燒友網站提供《TMS320C28x DSP上的在線堆棧溢出檢測.pdf》資料免費下載
    發表于 10-18 11:16 ?1次下載
    TMS320C28x DSP上的在線<b class='flag-5'>堆棧</b>溢出檢測

    將一個第15.4層堆棧傳感器連接到多個網關

    電子發燒友網站提供《將一個第15.4層堆棧傳感器連接到多個網關.pdf》資料免費下載
    發表于 09-26 11:05 ?0次下載
    將一個第15.4層<b class='flag-5'>堆棧</b>傳感器連接到多個網關

    使用Simplelink無線MCU系列克隆Z堆棧網絡屬性

    電子發燒友網站提供《使用Simplelink無線MCU系列克隆Z堆棧網絡屬性.pdf》資料免費下載
    發表于 09-26 10:57 ?0次下載
    使用Simplelink無線MCU系列克隆Z<b class='flag-5'>堆棧</b>網絡屬性

    使用Simplelink?無線MCU系列測量堆棧終端器件功耗

    電子發燒友網站提供《使用Simplelink?無線MCU系列測量堆棧終端器件功耗.pdf》資料免費下載
    發表于 09-26 10:44 ?0次下載
    使用Simplelink?無線MCU系列測量<b class='flag-5'>堆棧</b>終端器件功耗

    電感器線徑究竟是粗好還是

    電子發燒友網站提供《電感器線徑究竟是粗好還是好.docx》資料免費下載
    發表于 09-20 11:25 ?0次下載

    C2000?MCU的運行時堆棧大小監測

    電子發燒友網站提供《C2000?MCU的運行時堆棧大小監測.pdf》資料免費下載
    發表于 09-11 09:30 ?0次下載
    C2000?MCU的運行時<b class='flag-5'>堆棧</b>大小監測

    德州儀器(TI)Wi-SUN? 堆棧:幀計數器驗證缺失

    電子發燒友網站提供《德州儀器(TI)Wi-SUN? 堆棧:幀計數器驗證缺失.pdf》資料免費下載
    發表于 09-06 11:31 ?0次下載
    德州儀器(TI)Wi-SUN? <b class='flag-5'>堆棧</b>:幀計數器驗證缺失

    堆棧和內存的基本知識

    本文主要聊聊關于堆棧的內容。包括堆棧和內存的基本知識。常見和堆棧相關的 bug,如棧溢出,內存泄漏,堆內存分配失敗等。后面介紹軟件中堆棧統計的重要性,以及如何使用工具工具軟件中
    的頭像 發表于 08-29 14:10 ?1044次閱讀
    <b class='flag-5'>堆棧</b>和內存的基本知識

    如何使用Polyspace Code Prover來統計堆棧

    前一篇文章介紹了堆棧和內存的一些背景知識。本次介紹如何使用 Polyspace Code Prover來統計堆棧,如何使用這些數據為軟件優化服務。
    的頭像 發表于 07-25 14:06 ?1272次閱讀
    如何使用Polyspace Code Prover來統計<b class='flag-5'>堆棧</b>
    主站蜘蛛池模板: 嫩草影院未满十八岁禁止入内 | 日本不卡不码高清免费 | 日韩精品一卡二卡三卡四卡2021 | 奇米狠狠干 | 午夜视频在线网站 | jk制服喷水 | 亚洲欧美韩国综合色 | 99国产精品人妻无码免费 | 99久久无码一区人妻A片竹菊 | 欧美日韩中文国产一区发布 | 高清无码中文字幕在线观看视频 | 久久国产香蕉 | 久久国产伦子伦精品 | 纯肉无码AV在线看免费看 | 999久久国产精品免费人妻 | 欧美亚洲韩日午夜 | 国产剧情福利AV一区二区 | 免费色片播放器 | 国产精品人妻无码免费A片导航 | 日本人添下面的全过程 | 国产高清免费观看 | 久久精品免费看网站 | 大陆老太交xxxxxhd在线 | 在线免费观看国产精品 | 乌克兰14一18处交见血 | 手机在线免费看毛片 | 777米奇色狠狠俺去啦 | 无码爽死成人777在线观看网站 | 一区视频免费观看 | 国产午夜a理论毛片在线影院 | 做暖暖视频在线看片免费 | 日韩一区精品视频一区二区 | 久久99r66热这里有精品 | 嘟嘟嘟影院免费观看视频 | 中国明星16xxxxhd| 国产成人精品三级在线 | 成年视频国产免费观看 | 欧美一区二区视频在线观看 | 欧美亚洲国产手机在线有码 | 97 sese| 黑色丝袜在线观看 |

    電子發燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品