色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在圖像恢復(fù)中使用多個(gè)感受野會(huì)是什么效果?

電子工程師 ? 來源:Chu-Tak Li ? 作者:Chu-Tak Li ? 2021-04-28 14:41 ? 次閱讀

作者:Chu-Tak Li

編譯:ronghuaiyang

網(wǎng)絡(luò)結(jié)構(gòu)中使用多種感受野,并對(duì)損失函數(shù)進(jìn)行了改進(jìn)。

今天我們要講的另一種修復(fù)論文叫做Image inpainting via Generative Multi-column CNNs (GMCNN)。本文使用的網(wǎng)絡(luò)架構(gòu)類似于我們之前介紹的那些論文。本文的主要貢獻(xiàn)是對(duì)損失函數(shù)進(jìn)行了若干修正。

回顧

正如我在以前的文章中提到的,如何利用圖像中其他像素所提供的信息,對(duì)提高圖像修復(fù)效果至關(guān)重要。圖像修復(fù)的一個(gè)非常直觀的意義是直接復(fù)制圖像本身中找到的最相似的圖像patch,并粘貼在缺失的區(qū)域。有趣的是,我們應(yīng)該意識(shí)到,在實(shí)踐中,對(duì)于缺失的區(qū)域沒有“正確”的答案。在現(xiàn)實(shí)中,給定一個(gè)損壞的/mask的圖像,你不可能知道原始圖像(ground truth)來進(jìn)行比較。所以,我們有這么多的答案來解決缺失的區(qū)域。

介紹和動(dòng)機(jī)

從以往的圖像修復(fù)論文中,我們了解到感受野野對(duì)圖像修復(fù)的重要性。對(duì)于3×3內(nèi)核,我們可以調(diào)整膨脹率來控制它的感受野。如果擴(kuò)張率為1,我們的感受野為3×3。如果膨脹率是2,通過跳過一個(gè)相鄰像素,我們有一個(gè)5×5感受野,以此類推。這里,如果我們使用帶有膨脹卷積的3×3、5×5和7×7內(nèi)核會(huì)怎么樣?這在本文中被定義為一個(gè)多列結(jié)構(gòu)

在之前的文章中,尋找和缺失區(qū)域最相似的圖像patch的過程是嵌入到生成網(wǎng)絡(luò)中的,在這個(gè)工作中,該過程只是用來設(shè)計(jì)一個(gè)新的損失項(xiàng)用于訓(xùn)練。

由于缺少的區(qū)域沒有“正確”的答案,像素級(jí)重建精度損失項(xiàng)(即L1損失)似乎不適用于圖像修復(fù)。作者提出了基于缺失像素的空間位置,對(duì)L1損失項(xiàng)進(jìn)行加權(quán)。靠近有效像素的空間位置對(duì)于L1的損失應(yīng)該有更高的權(quán)值,因?yàn)樗鼈儗?duì)重構(gòu)有更合理的參考,反之亦然。

方案和貢獻(xiàn)

100063771-127840-1.png

圖1,給出了用該方法進(jìn)行修復(fù)的一些結(jié)果

在我看來,本文遵循了我們之前提到的圖像修復(fù)的趨勢(shì)。首先,作者采用了擴(kuò)展卷積的多分支CNN,而不是單一分支。三個(gè)不同的kernel大小被用于三個(gè)不同的分支,以實(shí)現(xiàn)不同的感受野和提取不同分辨率的特征。

其次,引入兩個(gè)新的損失項(xiàng)來訓(xùn)練網(wǎng)絡(luò),分別是置信度驅(qū)動(dòng)的重建損失和隱多樣化馬爾可夫隨機(jī)場(chǎng)(ID-MRF)損失。置信度驅(qū)動(dòng)的重建損失是一個(gè)加權(quán)的L1損失,而ID-MRF損失與預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)計(jì)算的特征patch比較有關(guān)。

圖1顯示了本文方法的一些修復(fù)結(jié)果。你可以放大以更好地查看這些高質(zhì)量的結(jié)果。

方法

100063771-127841-2.png

圖2,提出的網(wǎng)絡(luò)架構(gòu)

圖2顯示了本文提出的生成式多列卷積神經(jīng)網(wǎng)絡(luò)(GMCNN)的網(wǎng)絡(luò)結(jié)構(gòu)。如你所見,有一個(gè)多列生成器網(wǎng)絡(luò)、兩個(gè)鑒別器(全局和局部)和一個(gè)用于計(jì)算ID-MRF損失的預(yù)訓(xùn)練VGG19。

生成網(wǎng)絡(luò)中有三列,每一列使用三種不同大小的過濾器,即3×3、5×5和7×7。、注意,這三列的輸出被連接到其他兩個(gè)卷積層以獲得完整的圖像。

ID-MRF正則化

100063771-127842-3.png

圖3,使用不同的相似性度量來搜索修復(fù)結(jié)果的最近鄰居。(a)余弦相似度的修復(fù)結(jié)果(b)提出的相對(duì)相似度的修復(fù)結(jié)果(c) Ground truth圖像(紅色矩形突出填充區(qū)域)

簡(jiǎn)單地說,對(duì)于MRF目標(biāo),我們希望最小化生成的特征與通過預(yù)先訓(xùn)練的網(wǎng)絡(luò)計(jì)算出的ground truth中的最近鄰居特征之間的差異。在大多數(shù)以前的工作,余弦相似性測(cè)量被用來尋找最近的鄰居。然而,這種相似性度量通常對(duì)不同生成的特征塊給出相同的最近鄰,導(dǎo)致修復(fù)結(jié)果模糊,如圖3(a)所示。

為了避免使用余弦相似度度量可能導(dǎo)致完成圖像模糊,我們采用了相對(duì)距離度量,修復(fù)結(jié)果如圖3(b)所示。你可以看到,完成的圖像有更好的局部精細(xì)紋理。

我們來談?wù)勊鼈兪侨绾芜M(jìn)行相對(duì)距離測(cè)量的。Y(hat)_g為缺失區(qū)域生成的內(nèi)容,Y(hat)^L_g 和 Y^L 為預(yù)訓(xùn)練網(wǎng)絡(luò)的第L層特征。對(duì)分別從Y(hat)^L_g 和 Y^L中提取的v和s特征塊,計(jì)算v與s的相對(duì)相似度:

100063771-127843-4.png

mu(. , .)是余弦相似度。r屬于Y^L, v除外。h和 epsilon是正的常數(shù)。顯然,如果v比其他特性patch更類似于s,那么RS(v, s)就會(huì)很大。你也可以考慮,如果v有兩個(gè)類似的patchs和r,那么RS(v, s)就會(huì)很小。我們鼓勵(lì)在缺失區(qū)域之外尋找類似的patches。

100063771-127844-5.png

最后,計(jì)算了在Y(hat)^L_g 和 Y^L 之間的ID-MRF損耗。

100063771-127845-6.png

其中參數(shù)max RS(bar)(v, s)表示s是v最近的鄰居,Z是一個(gè)歸一化因子。如果考慮所有生成的特征patch都接近于某一特征patch s的極端情況,則max RS(bar) (v, r)較小,因此ID-MRF損失較大。

另一方面,如果Y^L 中的每個(gè)r都有自己的最近鄰居Y(hat)^L_g,則max RS(bar) (v, r)很大,因而ID-MRF損失較小。這里,主要思想是強(qiáng)制/引導(dǎo)生成的特征patch有不同的最近鄰居,從而生成的feature具有更好的局部紋理。

與先前的工作一樣,作者使用預(yù)先訓(xùn)練的VGG19來計(jì)算ID-MRF損失。請(qǐng)注意,中間層conv3_2和conv4_2分別表示結(jié)構(gòu)特征和語義特征。

100063771-127847-7.png

作者聲稱這種損失與最近鄰搜索有關(guān),并且只在訓(xùn)練階段使用。這與在測(cè)試階段搜索最近鄰居的方法不同。

特征不變重建損失

所提出的空間變異重構(gòu)損失實(shí)際上是一個(gè)加權(quán)的L1損失。確定權(quán)值的方法有很多種,本文利用高斯濾波器對(duì)掩模進(jìn)行卷積,生成加權(quán)掩模,計(jì)算加權(quán)L1損耗。加權(quán)L1損失的主要思想是,接近有效像素的像素?fù)p失比遠(yuǎn)離有效像素的像素?fù)p失受到更高的約束。因此,位于缺失區(qū)域中心的像素?fù)p失應(yīng)該有更低的L1損失權(quán)值(即更少的約束)。

對(duì)抗損失

與先前的工作類似,作者采用了改進(jìn)的WGAN損失和局部和全局鑒別器。

最終的損失函數(shù)

100063771-127848-8.png

這是用于訓(xùn)練所提模型的最終的損失函數(shù)。與大多數(shù)修復(fù)論文相似,加權(quán)L1損失(第一損失項(xiàng))的重要性為1。Lambda_mrf和Lambda_adv是控制局部紋理mrf正則化和對(duì)抗訓(xùn)練重要性的參數(shù)。

實(shí)驗(yàn)

作者在5個(gè)公共數(shù)據(jù)集上評(píng)估了他們的方法,即Paris StreetView, Places2, ImageNet, CelebA和CelebA- hq數(shù)據(jù)集。在他們的訓(xùn)練期間,所有的圖像都被調(diào)整為256×256,最大的中心孔的大小128×128。在GPU上測(cè)試256×256和512×512大小的圖像,每個(gè)圖像大約需要49.37 ms和146.11 ms。

100063771-127850-9.png

圖4,定性比較巴黎街景(上)和ImageNet(下)。(a)輸入圖像(b)上下文編碼器(c) MSNPS (d)上下文注意(e)提出的方法。

圖4顯示了Paris StreetView和ImageNet數(shù)據(jù)集的定性比較。請(qǐng)放大以更清楚地看到修復(fù)結(jié)果。很明顯,本文提出的方法GMCNN給出了具有最佳視覺質(zhì)量的修復(fù)結(jié)果。

100063771-127852-10.png

表1,五個(gè)數(shù)據(jù)集的定量結(jié)果

正如我在之前的文章和本文開頭提到的,PSNR與像素級(jí)重建精度有關(guān),這可能不適用于評(píng)估圖像修復(fù)。研究人員仍然報(bào)告PSNR和SSIM供讀者參考,因?yàn)檫@些數(shù)值指標(biāo)是所有圖像處理任務(wù)的基礎(chǔ)。如表1所示,本文提出的方法在五個(gè)數(shù)據(jù)集上獲得了相當(dāng)甚至更好的PSNR和SSIM。

消融研究

100063771-127854-11.png

表2,巴黎街景數(shù)據(jù)集上不同網(wǎng)絡(luò)結(jié)構(gòu)的定量結(jié)果

100063771-127856-12.png

圖5,對(duì)巴黎街景數(shù)據(jù)集上不同網(wǎng)絡(luò)結(jié)構(gòu)的定性比較。(a)輸入圖像(b)單個(gè)編碼器-解碼器(c)粗到細(xì)(d) 3個(gè)分支中感受野固定的GMCNN (e)感受野不同的GMCNN

對(duì)不同網(wǎng)絡(luò)結(jié)構(gòu)在圖像修復(fù)中的性能進(jìn)行了評(píng)價(jià)。在他們的實(shí)驗(yàn)中,對(duì)于從粗到細(xì)的結(jié)構(gòu),沒有使用上下文注意力。對(duì)于三個(gè)分支中感受野固定的GMCNN,采用大小為5×5的過濾器。對(duì)于具有不同感受野的GMCNN,三個(gè)分支分別使用了3×3、5×5和7×7的kernel。定量和定性結(jié)果分別見表2和圖5。顯然,具有不同感受野的GMCNN提供了最好的修復(fù)效果。

除了網(wǎng)絡(luò)結(jié)構(gòu)的選擇和多重感受野的使用,作者還研究了兩個(gè)提出的損失項(xiàng)的有效性,即信心驅(qū)動(dòng)重建損失和ID-MRF損失。

100063771-127859-13.png

圖6,對(duì)Paris StreetView數(shù)據(jù)集上不同重建損失的定性比較。(a)輸入圖像(b)空間折現(xiàn)損失(c)提出的置信驅(qū)動(dòng)重建損失

圖6顯示了不同重建損失的視覺對(duì)比,即空間折現(xiàn)損失和提出的置信度驅(qū)動(dòng)重建損失。請(qǐng)注意,空間折現(xiàn)損失根據(jù)像素的空間位置獲得權(quán)重掩碼,而提出的置信驅(qū)動(dòng)重建損失通過將掩碼圖像與高斯濾波器進(jìn)行多次卷積獲得權(quán)重掩碼。兩位作者聲稱,由置信度驅(qū)動(dòng)的重建損失效果更好。從我自己的經(jīng)驗(yàn)來看,這兩種重建損失是相似的。也許你可以試一試。

100063771-127939-14.png

表3,在Paris StreetView數(shù)據(jù)集上使用不同的lambda_mrf的定量結(jié)果

100063771-127940-15.png

圖7,在Paris StreetView數(shù)據(jù)集上使用ID-MRF損失與否的定性比較 (a) 輸入圖像(b)使用ID-MRF損失的修復(fù)結(jié)果(c)沒有使用ID-MRF損失的修復(fù)結(jié)果

100063771-127941-16.png

圖8,在Paris StreetView數(shù)據(jù)集上使用ID-MRF loss與不同的lambda_mrf進(jìn)行定性比較。(a) Input image (b) lambda_mrf = 2 (c) lambda_mrf = 0.2 (d) lambda_mrf = 0.02 (e) lambda_mrf = 0.002

更重要的是,ID-MRF損失項(xiàng)是本文最強(qiáng)調(diào)的。因此,作者表明了這一失項(xiàng)的重要性,定量結(jié)果列在表3中。圖7顯示了使用ID-MRF損失和不使用ID-MRF損失訓(xùn)練的模型之間的區(qū)別。我們可以看到,使用ID-MRF可以增強(qiáng)生成像素的局部細(xì)節(jié)。此外,圖8顯示了使用不同的lambda_mrf來控制ID-MRF損失的重要性的效果。你可以放大以便更好地查看結(jié)果。我個(gè)人認(rèn)為,修復(fù)的結(jié)果是相似的。從表3可以看出,lambda_mrf = 0.02提供了PSNR和視覺質(zhì)量之間的良好平衡。

總結(jié)

綜上所述,本文的創(chuàng)新之處在于使用ID-MRF損失項(xiàng)來進(jìn)一步增強(qiáng)生成內(nèi)容的局部細(xì)節(jié)。這種損失的主要思想是引導(dǎo)生成的特征patch在缺失區(qū)域之外尋找最近的鄰居作為參考,并且最近的鄰居應(yīng)該是多樣化的,這樣可以模擬更多的局部細(xì)節(jié)。

多重感受野(多列或多分支)的使用是由于感受野的大小對(duì)圖像修復(fù)任務(wù)很重要。由于局部相鄰像素缺失,我們必須借用遙遠(yuǎn)空間位置的信息來填補(bǔ)缺失的像素。如果你看過我之前的文章,我想這個(gè)想法對(duì)你來說并不難理解。

使用加權(quán)L1損失也是由于缺少區(qū)域沒有“正確”答案的事實(shí)。對(duì)于那些更接近缺失區(qū)域邊界的缺失像素,它們相對(duì)受到接近有效像素的約束,因此需要對(duì)L1的損失賦予更高的權(quán)值。另一方面,對(duì)于位于缺失區(qū)域中心的缺失像素,它們的L1約束應(yīng)該更小。

要點(diǎn)

參考我在上面的結(jié)論,我希望你能理解提出的ID-MRF損失的意義,因?yàn)檫@是本文的核心思想。對(duì)于本文的其他兩個(gè)思路,即多列結(jié)構(gòu)和加權(quán)L1損失。事實(shí)上,如果你關(guān)注過我之前的文章,我認(rèn)為你可以很好地理解背后的原因。我認(rèn)為多重/多種感受野的概念是深層語義修復(fù)的常見做法。

對(duì)于加權(quán)的L1損失,從我個(gè)人的經(jīng)驗(yàn)來看,我不認(rèn)為它會(huì)對(duì)修復(fù)性能帶來明顯的改善。當(dāng)然,實(shí)現(xiàn)加權(quán)L1損失的方法有很多。如果你對(duì)此感興趣,可以試一試。

英文原文:https://towardsdatascience.com/what-if-multiple-receptive-fields-are-used-for-image-inpainting-ea44003ea7e9

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1085

    瀏覽量

    40486
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    7571

    瀏覽量

    88860
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    18521
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    352

    瀏覽量

    22237
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Mamba入局圖像復(fù)原,達(dá)成新SOTA

    和Transformer的方法更受歡迎。得益于Mamba全局感受、線性計(jì)算復(fù)雜度、高效遠(yuǎn)程依賴處理等諸多優(yōu)勢(shì),它在圖像復(fù)原(比如超分辨率、去噪等)任務(wù)
    的頭像 發(fā)表于 12-30 18:09 ?93次閱讀
    Mamba入局<b class='flag-5'>圖像</b>復(fù)原,達(dá)成新SOTA

    【每天學(xué)點(diǎn)AI】實(shí)戰(zhàn)圖像增強(qiáng)技術(shù)人工智能圖像處理中的應(yīng)用

    圖像增強(qiáng)(ImageEnhancement)是人工智能和計(jì)算機(jī)視覺中一項(xiàng)重要的技術(shù),也是人工智能數(shù)據(jù)集預(yù)處理的一個(gè)重要步驟。它旨在提高圖像的質(zhì)量,使其視覺上更加清晰、細(xì)節(jié)更豐富。這項(xiàng)技術(shù)
    的頭像 發(fā)表于 11-22 17:14 ?631次閱讀
    【每天學(xué)點(diǎn)AI】實(shí)戰(zhàn)<b class='flag-5'>圖像</b>增強(qiáng)技術(shù)<b class='flag-5'>在</b>人工智能<b class='flag-5'>圖像</b>處理中的應(yīng)用

    島宣布收購(gòu)日本電腦廠商VAIO

    近日,日本家電連鎖巨頭島宣布了一項(xiàng)重大收購(gòu)計(jì)劃,將以112億日元的價(jià)格從日本產(chǎn)業(yè)合作伙伴(JIP)手中收購(gòu)電腦廠商VAIO超過90%的股權(quán)。這一收購(gòu)行動(dòng)標(biāo)志著電子產(chǎn)品領(lǐng)域的進(jìn)一步擴(kuò)張。 根據(jù)
    的頭像 發(fā)表于 11-14 14:21 ?292次閱讀

    島將收購(gòu)日本電腦廠商VAIO

    日本家電連鎖巨頭島(Nojima)于11月11日正式宣布,將收購(gòu)日本知名電腦廠商VAIO。此次收購(gòu)中,島將從企業(yè)再生基金日本產(chǎn)業(yè)合作伙伴(JIP)手中獲得VAIO超過90%的股權(quán),收購(gòu)金額高達(dá)112億日元。
    的頭像 發(fā)表于 11-13 15:17 ?347次閱讀

    FPGA圖像處理領(lǐng)域的優(yōu)勢(shì)有哪些?

    處理復(fù)雜、多變的圖像場(chǎng)景時(shí)具有更高的靈活性和適應(yīng)性。 三、短開發(fā)周期 與傳統(tǒng)的ASIC(專用集成電路)相比,F(xiàn)PGA的開發(fā)周期更短。ASIC需要經(jīng)過設(shè)計(jì)、驗(yàn)證、生產(chǎn)等多個(gè)環(huán)節(jié),而FPGA可以短時(shí)間
    發(fā)表于 10-09 14:36

    反向電流應(yīng)用中使用比較器

    電子發(fā)燒友網(wǎng)站提供《反向電流應(yīng)用中使用比較器.pdf》資料免費(fèi)下載
    發(fā)表于 09-19 12:50 ?0次下載
    <b class='flag-5'>在</b>反向電流應(yīng)用<b class='flag-5'>中使</b>用比較器

    設(shè)計(jì)中使用MOSFET安全工作區(qū)曲線

    電子發(fā)燒友網(wǎng)站提供《設(shè)計(jì)中使用MOSFET安全工作區(qū)曲線.pdf》資料免費(fèi)下載
    發(fā)表于 09-07 10:55 ?1次下載
    <b class='flag-5'>在</b>設(shè)計(jì)<b class='flag-5'>中使</b>用MOSFET安全工作區(qū)曲線

    設(shè)計(jì)中使用MOSFET瞬態(tài)熱阻抗曲線

    電子發(fā)燒友網(wǎng)站提供《設(shè)計(jì)中使用MOSFET瞬態(tài)熱阻抗曲線.pdf》資料免費(fèi)下載
    發(fā)表于 08-28 09:21 ?17次下載
    <b class='flag-5'>在</b>設(shè)計(jì)<b class='flag-5'>中使</b>用MOSFET瞬態(tài)熱阻抗曲線

    計(jì)算機(jī)視覺中的圖像融合

    許多計(jì)算機(jī)視覺應(yīng)用中(例如機(jī)器人運(yùn)動(dòng)和醫(yī)學(xué)成像),需要將多個(gè)圖像的相關(guān)信息整合到單一圖像中。這種圖像融合可以提供更高的可靠性、準(zhǔn)確性和數(shù)據(jù)
    的頭像 發(fā)表于 08-01 08:28 ?692次閱讀
    計(jì)算機(jī)視覺中的<b class='flag-5'>圖像</b>融合

    圖像處理中的卷積運(yùn)算

    卷積運(yùn)算是圖像處理中一種極其重要的操作,廣泛應(yīng)用于圖像濾波、邊緣檢測(cè)、特征提取等多個(gè)方面。它基于一個(gè)核(或稱為卷積核、濾波器)與圖像進(jìn)行相乘并求和的過程,通過這一操作可以實(shí)現(xiàn)對(duì)
    的頭像 發(fā)表于 07-11 15:15 ?2394次閱讀

    linux中使用esptool.py下載圖像,下載成功但無法啟動(dòng)是怎么回事?

    我有一個(gè)參考 ESP-WROOM-02 設(shè)計(jì)的 EVB,CH340 作為 usb2 串行接口。我嘗試 linux 中使用 esptool.py 下載圖像,下載成功但無法啟動(dòng)。我Wi
    發(fā)表于 07-08 06:21

    鴻蒙ArkTS聲明式開發(fā):跨平臺(tái)支持列表【圖像效果】 通用屬性

    設(shè)置組件的模糊、陰影、球面效果以及設(shè)置圖片的圖像效果
    的頭像 發(fā)表于 06-04 16:34 ?672次閱讀
    鴻蒙ArkTS聲明式開發(fā):跨平臺(tái)支持列表【<b class='flag-5'>圖像</b><b class='flag-5'>效果</b>】 通用屬性

    鴻蒙開發(fā)圖形圖像——@ohos.effectKit (圖像效果)

    圖像效果提供處理圖像的一些基礎(chǔ)能力,包括對(duì)當(dāng)前圖像的亮度調(diào)節(jié)、模糊化、灰度調(diào)節(jié)、智能取色等。 該模塊提供以下圖像
    的頭像 發(fā)表于 02-22 16:08 ?419次閱讀
    鴻蒙開發(fā)圖形<b class='flag-5'>圖像</b>——@ohos.effectKit (<b class='flag-5'>圖像</b><b class='flag-5'>效果</b>)

    TC264的TriBoard中使用ABM啟動(dòng)方式BMHD中將HWCFG[6]拉低了結(jié)果程序無法下載了,請(qǐng)問如何恢復(fù)

    TC264的TriBoard中使用ABM啟動(dòng)方式BMHD中將HWCFG[6]拉低了結(jié)果程序無法下載了,請(qǐng)問如何恢復(fù)?需要將HWCFG[2:0] = 1 1 1嗎?TriBoard電源指示燈顯示正常。
    發(fā)表于 02-20 06:36

    DAVE丟失的文件可以恢復(fù)嗎?

    多個(gè)項(xiàng)目中使用 DAVE,并遇到了如下所述的問題。 我重命名了一個(gè)現(xiàn)有項(xiàng)目,然后通過導(dǎo)入該項(xiàng)目切換到另一個(gè)項(xiàng)目。 這兩個(gè)項(xiàng)目同名,這就是我重命名前一個(gè)項(xiàng)目以導(dǎo)入新項(xiàng)目的原因。 但是,當(dāng)我嘗試切換
    發(fā)表于 01-26 08:07
    主站蜘蛛池模板: 欧美 亚洲 中文字幕 高清| 日本69xxxx| 亚洲爆乳无码精品AAA片蜜桃| 东北足疗店妓女在线观看| 日日夜夜狠狠干| 国产成人免费片在线视频观看| 四虎影视国产精品亚洲精品| 国产电影一区二区三区| 小寡妇好紧进去了好大看视频| 精品手机在线1卡二卡3卡四卡| 野花高清影视免费观看| 免费人成在线观看视频不卡| 国产69精品久久久久乱码免费| 午夜伦理网| 麻豆免费观看高清完整视频在线| 成人国产精品玖玖热色欲| 亚洲AV无码乱码国产精品品麻豆| 久久99精品AV99果冻| 被强J高H纯肉公交车啊| 鞋奴的视频VK| 免费亚洲视频在线观看| 国产精品99| 佐山爱痴汉theav| 上原结衣快播| 巨胸美乳中文在线观看| 久久久GOGO无码啪啪艺术| 2021全国精品卡一卡二| 欧美xxx性| 高清国产在线播放成人| 亚洲精品一区二区在线看片 | 国产真实露脸乱子伦| 一个人在线观看视频| 男女做爽爽爽视频免费软件| 国产三级在线精品男人的天堂| 一品道门在线视频| 热巴两次用约老师屁股发底线球| 国产成人小视频| 最美女人体内射精一区二区| 欧美精品高潮呻吟AV久久| 黑人干日本美女| caoporn超碰视频|