色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

關于圖像修復詳細解析全局和局部一致性的圖像補全

中科院長春光機所 ? 來源:AI公園 ? 作者:Chu-Tak Li ? 2021-04-25 14:21 ? 次閱讀

全局一致讓圖像補全的內容契合上下文,局部一致性讓紋理更加真實。

這里只是對我們之前所學內容的一個簡單回顧。

對于圖像修復,填充像素的紋理細節是很重要的。有效的像素和填充的像素應該是一致的,填充的圖像應該看起來真實。

粗略的說,研究者采用逐像素的重建損失(即L2損失)來確保我們可以用“正確”的結構來填補缺失的部分。另一方面,GAN損失(即對抗損失)和/或[紋理損失]應用于獲得具有更清晰的生成像素紋理細節的填充圖像。

86c2640c-a554-11eb-aece-12bb97331649.png

圖1,一個例子來說明為圖像修復任務生成新的片段的需求。

對于基于patch的方法,一個很大的假設是我們相信我們可以在缺失區域之外找到相似的patch,這些相似的補丁將有助于填充缺失區域。這個假設對于自然場景可能是正確的,因為天空和草坪在一個圖像中可能有許多相似的patch。如果缺失區域之外沒有任何類似的patch,就像圖1中所示的人臉圖像修復的情況。在這種情況下,我們找不到眼睛的patch來填補相應的缺失部分。因此,魯棒的修復算法應該能夠生成新的片段。

現有的基于GAN的修復方法利用一個鑒別器(對抗損失)來增強填充區域的銳度,將填充區域輸入到鑒別器(即欺騙鑒別器)。有些人可能會在預訓練的網絡中比較缺失區域內部和外部的局部神經響應,以確保缺失區域內部和外部的局部小塊的紋理細節相似。如果我們同時考慮圖像的局部和全局信息來加強局部和全局一致性呢?我們會得到更好的完整圖像嗎?讓我們看看。

dd9b2c415e79130a8a90436ea607b41c.png

圖2,上下文編碼器神經網絡結構

如何處理高分辨率圖像?我們之前已經討論過第一種基于GAN的修復方法,上下文編碼器。他們假設測試圖像總是128×128和一個64×64中心缺失的洞。然后,我們還在上一篇文章中介紹了上下文編碼器的改進版本,稱為Multi-Scale Neural Patch Synthesis。他們提出了一種多尺度的方法來處理測試圖像,最大的分辨率為512×512,中心缺失的孔為256×256。簡而言之,他們采用了三種不同尺度的圖像網絡,即128×128、256×256和512×512。因此,速度是他們提出的方法的瓶頸。使用Titan X GPU填充512×512的圖像大約需要1分鐘。這是個有趣的問題!我們如何處理高分辨率圖像,只需一個單一的的網絡?給你幾秒鐘的思考時間,你可能會從圖2所示的架構中發現一些提示(注意中間層)。一個快速的解決方案是去掉中間的全連接層,并采用全卷積網絡!你很快就會知道怎么做,為什么要這樣做!

介紹

現有的方法大多假設可以找到相似的圖像patch來填補同一幅圖像中缺失的部分。這種情況并不總是適用于圖像修復,見圖1。更準確地說,我們應該看整個圖像,了解它的上下文,然后根據它的上下文來填補缺失的部分。

如果使用全連接層,輸入圖像的大小必須是固定的。因此,網絡不能處理不同分辨率的測試圖像。回想一下,完全連接的層完全連接了兩層之間的所有神經元,因此它對前一層輸出大小的變化很敏感,測試圖像的大小必須固定。另一方面,對于卷積層,神經元之間沒有全連接。更小的輸入特征映射將導致更小的輸出特征映射。所以,如果一個網絡只由卷積層組成,它就可以處理不同大小的輸入圖像。我們稱這種網絡為全卷積網絡(FCNs)。

方案

采用膨脹卷積代替全連接層,這樣我們仍然可以理解圖像的上下文,構建一個全卷積網絡(Fully Convolutional Network, FCN)來處理不同大小的圖像。

使用兩個鑒別器來保證完成(填充)圖像的局部和全局一致性。一個鑒別器在全局意義上看整個圖像,而一個在局部意義上看被填充區域周圍的子圖像。

使用簡單的后處理。有時很明顯可以看出生成的像素和有效像素之間的區別。為了進一步提高圖像的視覺質量,本文采用了兩種傳統的方法,即Fast Marching method和Poisson image blend。這兩種技術超出了本文的范圍。之后,在一定程度上將后處理步驟以細化網絡的形式嵌入到網絡中。我們將在后面的文章中討論它。

貢獻

提出一種全卷積的網絡擴展卷積圖像修復。它允許我們在不使用全連接的層的情況下理解圖像的上下文,因此訓練過的網絡可以用于不同大小的圖像。這個架構實際上是后來基于深度學習的圖像修復方法的基礎。這就是為什么我認為這篇文章是圖像修復的一個里程碑。

建議使用兩個判別器(一個局部的和一個全局的)。多尺度鑒別器似乎可以在不同尺度上提供較好的完整圖像紋理細節。

強調圖像修復任務中產生新片段的重要性。實際上,訓練數據是非常重要的。簡單地說,你不能生成你以前沒見過的東西。

方法

23cde22ddb2a6fe927bad6a65ddd06d7.png

圖3,提出方法的結構

圖3顯示了提出的方法的網絡架構。它由三個網絡組成,分別是Completion網絡(即生成器,既用于訓練又用于測試)、局部鑒別器和全局鑒別器(用于剛訓練時作為輔助網絡用于學習)。快速回顧一下這個GAN框架。Generator負責補全圖像以欺騙discriminator,而discriminator負責將完整圖像與真實圖像區分開來。

CNNs中的膨脹卷積

膨脹卷積的概念對于讀者理解本文的網絡設計是很重要的。所以,我想盡力為那些不熟悉膨脹卷積的讀者解釋一下。對于非常了解它的讀者,也請快速回顧一下。

8ec4650026be64f8c470958ef264d46b.png

圖4,標準卷積和膨脹卷積的圖解

在論文中,作者用了半頁的篇幅來描述cnn、標準卷積和擴張卷積。并給出了相應的卷積方程供參考。我需要澄清一點,膨脹卷積并不是本文作者提出的,他們是將其用于圖像修復。

這里,我想用一個簡單的圖來說明標準卷積和膨脹卷積的區別。

圖4(a)是帶有3×3 kernel, stride=1, padding=1,膨脹率=1的標準卷積層。這種情況的設置中,8×8輸入給出8×8的輸出,每個相鄰的9個位置在輸出中貢獻一個元素。

圖4(b)也是一個標準的卷積層。這次我們使用5×5 kernel,stride=1, padding=2(為了保持相同的輸入和輸出大小)和膨脹率=1。在這種情況下,每個相鄰的25個位置對輸出的每個元素都有貢獻。這意味著對于輸出的每個值,我們必須更多地考慮(查看)輸入。我們通常指更大的感受野。對于一個大的感受野,更多的來自遙遠空間位置的特征將被考慮進去,在輸出時給出每個值。

然而,對于圖4(b)中的情況,我們使用一個更大的kernel (5×5)來獲得更大的感受野。這意味著需要學習更多的參數(3×3=9,而5×5=25)。有沒有辦法在不增加更多參數的情況下增加感受野?答案是膨脹卷積。

圖4(c)是一個膨脹卷積層,使用3×3 kernel, stride=1, padding=2,膨脹率=2。當比較圖4(b)和(c)中的kernel的覆蓋時,我們可以看到它們都覆蓋了輸入處的5×5局部空間區域。3×3的kernel可以通過跳過連續的空間位置來獲得5×5 kernel的感受野。跳躍的step是由膨脹率決定的。例如,一個3×3內核的膨脹率=2給出5×5感受野,一個3×3核的膨脹率=3給出一個7×7的感受野,以此類推。顯然,膨脹卷積通過跳過連續的空間位置來增加感受野,而不需要添加額外的參數。這樣做的優點是,我們有更大的感受野,同時有相同數量的參數。缺點是我們會跳過一些位置(我們可能會因此丟失一些信息)。

為什么要用膨脹卷積?

在回顧了膨脹卷積的概念之后,我將討論為什么作者在他們的模型中使用膨脹卷積。你們中的一些人可能已經猜到原因了。

如前所述,了解整個圖像的上下文對于圖像修復的任務是重要的。以前的方法使用全連接層作為中間層,以便理解上下文。記住,標準卷積層在局部區域執行卷積,而全連接層則完全連接所有的神經元(即每個輸出值取決于所有的輸入值)。然而,全連接層限制了輸入圖像的大小,并引入了更多的可學習參數。

為了解決這些限制,我們使用膨脹卷積來構建一個全卷積的網絡,允許不同大小的輸入。另一方面,通過調整標準kernel(通常是3×3)的膨脹率,我們可以在不同的層次上擁有更大的感受野,以幫助理解整個圖像的上下文。

ff7e1307aebc01881d03635d3afa43ee.png

圖5,不同大小的感受野的影響。

圖5是一個展示膨脹卷積的有用性的例子。你可能認為(a)是帶有3×3核(較小的感受野)的標準卷積,(b)是帶有3×3核且擴張率≥2(較大的感受野)的膨脹卷積。位置p1和p2在孔內區域,p1靠近邊界,p2大致在中心點。對于(a),可以看到p1位置的感受野(影響區域)可以覆蓋有效區域。這意味著可以使用有效像素來填充位置p1的像素。另一方面,p2位置的感受野不能覆蓋有效區域,因此不能使用有效區域的信息進行生成。

對于(b),我們使用膨脹卷積來增加感受野。這一次,兩個位置的感受野都可以覆蓋有效區域。讀者現在可以認識到擴張卷積的有效性了。

Completion網絡

讓我們回到Completion 網絡的結構,如圖3所示。

3530ea7ee88d9d0d15a8182c79b9e052.png

表1,Completion網絡結構。,每個卷積層后面都是ReLU,除了最后一個后面是Sigmoid

Completion 網絡是一個全卷積的網絡,接受不同大小的輸入圖像。該網絡對輸入進行2次2倍的下采樣。這意味著,如果輸入是256×256,中間層的輸入大小是64×64。為了充分利用有效像素,保證像素精度,我們用有效像素替換孔區域以外的像素。

上下文判別器

讓我們來談談局部和全局判別器。沒有什么特別的,就像單個判別器的情況一樣。唯一的不同是這次我們有兩個。

07b107b0272cab8079b6d24f142bfd9b.png

表2,局部和全局鑒別器的結構,FC代表全連接層,連接層(c)的最終FC后面是Sigmoid

局部和全局判別器的架構基本相同。全局判別器的輸入圖像大小為256×256(整個圖像,用于全局一致性),而局部判別器的輸入為128×128,圍繞缺失區域的中心,用于局部一致性。

需要注意的一點是,在訓練過程中,總有一個區域是缺失的。在測試過程中,圖像中可能存在多個缺失區域。除此之外,對于local discriminator,由于真實圖像沒有填充區域,所以對真實圖像采用128×128 patch的隨機選擇。

訓練策略和損失函數

與之前一樣,使用兩個損失函數來訓練網絡,即L2損失和對抗損失(GAN損失)。

d5ed709ddb09d404f9d49f92df55f333.png

C(x, M_c)將completion網絡表示為函數。x是輸入圖像,M_c是表示缺失區域的二進制掩碼。缺失區域為1,外部區域為0。你可以看到L2損失是在缺失區域內計算的。注意,補全的圖像的外部區域的像素直接被有效像素替換。

f149b6ac49a8097021d9445be443e6bc.png

D(x, M_d)將兩個鑒別器表示為一個函數。M_d是一個隨機掩碼,用于為局部判別器隨機選擇一個圖像patch。這是一個標準的GAN損失。我們希望該判別器不能區分完整的圖像和真實的圖像,從而得到具有真實紋理細節的完整圖像。

df8ac4e156bd236a4a8f8fa52692dafa.png

這是訓練網絡的聯合損失函數。alpha是一個加權超參數,以平衡L2損失和GAN損失。

6afffd60f0835b967be2c0c9004ce2e9.png

作者將他們的訓練分為三個階段。i) 訓練僅帶L2損失的completion網絡,迭代次數為T_C。ii) 修正completion網絡,使用GAN損失訓練判別器進行T_D迭代。iii) 交替訓練completion網絡和判別器,直到訓練結束。

對于穩定訓練,除completion網絡的最后一層和判別器外,所有卷積層都采用批處理歸一化(BN)。

為了生成訓練數據,他們隨機地將圖像的最小邊緣大小調整到[256,384]像素范圍。然后,他們隨機截取256×256圖像補丁作為輸入圖像。對于掩模圖像,隨機生成一個區域,每個邊的范圍為[96,128]。

簡單的后處理:如前所述,作者還采用了傳統的Fast Marching方法,隨后采用泊松圖像混合,進一步提高完成圖像的視覺質量。

實驗

作者使用Places2數據集中的8097967張訓練圖像訓練他們的網絡。聯合損失函數中的alpha加權超參數設置為0.0004,batch大小為96。

本文中,completion網絡訓練為T_C = 90000次迭代,訓練判別器T_D = 10,000次迭代,最后聯合訓練所有網絡400,000次迭代。他們聲稱,整個訓練過程在一臺4個k80 GPU的電腦上大約需要2個月的時間。

91449e11caf8471664152013a9c2323f.png

表3,所提出方法的用時

他們使用Intel Core i7-5960X 3.00 GHz 8核CPU和NVIDIA GeForce TITAN X GPU對CPU和GPU進行評估。實際上,速度相當快,只需半秒多一點就可以完成1024×1024的一張圖片。

aaa41d3dbd3833beba0be36a2ec22060.png

圖6,和已有方法的對比

圖6顯示了與一些現有方法的比較。總的來說,基于patch的方法可以用局部一致的圖像patch來完成,但可能不會是全局一致的。最近的基于GAN的方法,上下文編碼器(第5行),傾向于給出模糊的完整圖像。該方法提供了局部和全局一致的完整圖像。

6cb26e7d69916932ac39cce7c22527d3.png

圖7,和上下文編碼器的對比,在同樣的數據集上訓練填補中心缺失孔洞

為了與最先進的基于GAN的修復方法進行比較,作者進行了中心區域補全,結果如圖7所示。可以看出,CE對于中心區域補全的性能優于任意區域補全(圖6)。在我看來,CE與本文方法在圖7中具有相似的性能。讀者可以放大看其中的差異。

20fde37cd94845882ec07aa7615975ca.png

圖8,不同判別器的效果

作者對這兩種判別器進行了消融研究。從圖8(b)和(c)可以看出,當不使用局部判別器時,補全的區域看起來更加模糊。另一方面,對于(d),如果只使用局部判別器,我們可以得到良好的局部一致紋理細節,但不能保證全局一致性。對于(e)中的full方法,我們獲得了局部和全局一致的結果。

26982d89229105d171b8fe04f2958b38.png

圖9,簡單后處理的結果

圖9顯示了簡單后處理的效果。對于圖9(b),我們可以很容易地觀察到邊界。

46947a6ddea6750ba2f8c8ff06a5a5dc.png

圖10,使用不同的數據集的修復結果

圖10顯示了在不同數據集上訓練的模型的修復結果。注意,Places2包含了大約800萬張不同場景的訓練圖像,而ImageNet包含了100萬張用于目標分類的訓練圖像。我們可以看到,在Places2上訓練模型的結果比在ImageNet上訓練的結果稍好一些。

7ea1eed967350b087437a89e81360e31.png

圖11,用提出的方法來做目標移除的例子

圖像修復的一個潛在應用是物體移除。圖11顯示了使用所提方法刪除目標的一些例子。

1f7b12ad905639c2f1227cc719a51829.png

圖12,更多特定數據集的結果

本文的作者還考慮了域特定的圖像修復。他們在CelebA數據集和CMP Facade數據集上微調了他們的預訓練模型,這兩個數據集分別由202599和606張圖像組成。他們使用了Places2數據集上的預訓練模型。對于新的數據集,他們從無到有訓練判別器,然后進行completion網絡和判別器交替訓練。

圖12顯示了本文方法對特定領域圖像的修復結果。對于面部修復,該方法能夠生成眼睛和嘴等新的片段。對于立面的修復,本文提出的方法還能夠生成與整個圖像局部和全局一致的窗口等片段。

作者還對完整的面部圖像進行了用戶研究。結果表明,在10個用戶中,使用該方法得到的77.0%的完整人臉被視為真實人臉。另一方面,96.5%的真實面孔可以被這10個用戶正確識別。

限制和討論

以下是作者對其局限性和未來發展方向的幾點看法。

84bb8cf27f502e2eb6fa004ccb42d4fe.png

圖13,失敗的例子 i) mask在圖像的邊緣 ii) 復雜的場景

對于圖13左側的情況,我們可以看到缺失的部分位于上方圖像的邊框。作者聲稱,在這種情況下,可以從鄰近位置借用的信息更少,因此基于GAN的方法(第3行和第4行)比傳統的基于patch的方法(第2行)表現更差。另一個原因是這個例子是自然場景,所以基于patch的方法可以很好地工作。

對于圖13右側的例子,場景要復雜得多。根據這個mask,我們想要移除一個人,我們需要填充一些建筑的細節來完成這個復雜的場景。在這種情況下,所有的方法都不能正常工作。因此,在復雜的場景中填補缺失的部分仍然是的挑戰。

3b30bf7e26479e733bf4be88f5891c00.png

圖14,舉例說明生成新片段的重要性,我們只能生成之前在訓練中看到的內容。

作者提供了額外的例子來強調另外兩點。i) 產生諸如眼睛、鼻子、嘴巴等新穎片段的重要性。ii)訓練數據集的重要性。

對于無法找到相似的圖像patch來填補缺失部分的情況,基于patch的方法(第2行和第3行)無法正常工作,如圖14所示。因此,一個魯棒的修復算法必須能夠生成新的片段。

為了進一步顯示訓練數據集選擇的重要性,作者比較了在Places2 (General dataset, (d))和CelebA (Face dataset, (e))上訓練的兩個模型。顯然,(d)無法用合理的面部細節來填補缺失的部分,因為它是在沒有任何對齊的面部圖像的Places2上訓練的。另一方面,(e)工作得很好,因為它是在CelebA上訓練的,一個有許多對齊的人臉圖像的數據集。因此,我們只能生成我們在訓練中看到的東西。全面的修復還有很長的路要走。

總結

所提議的結構是后來大多數修復論文的基礎。膨脹卷積的全卷積網絡允許我們在不使用全連接的層的情況下理解圖像的上下文,因此網絡可以獲取不同大小的輸入圖像。

多尺度的鑒別器(在這里我們有兩個鑒別器,實際上有些可能有三個!) 對于在不同尺度上增強完整圖像的紋理細節是很有用的。

當場景很復雜的時候,補上缺失的部分仍然很有挑戰性。另一方面,自然場景是比較容易修復的。

要點

在這里,我想列出一些對以后的文章有用的觀點。

請記住,膨脹卷積的全卷積網絡是一種典型的圖像修復網絡結構。它允許不同大小的輸入,并提供類似于全連接層的功能(即幫助理解圖像的上下文)。

事實上,人臉圖像的修復相對來說比一般的圖像修復簡單。這是因為我們總是在人臉數據集上訓練一個模型來進行人臉圖像修復,而該數據集由許多對齊的人臉圖像組成。對于一般的圖像修復,我們可以訓練一個更多樣化的數據集,如Places2,它包含來自不同類別(如城市、建筑和許多其他類別)的數百萬張圖像。對于一個模型來說,學習生成所有具有良好視覺質量的東西要困難得多。不管怎樣,還有很長的路要走。
編輯:lyn

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • GaN
    GaN
    +關注

    關注

    19

    文章

    1933

    瀏覽量

    73286
  • patch
    +關注

    關注

    0

    文章

    14

    瀏覽量

    8324
  • 圖像修復
    +關注

    關注

    0

    文章

    11

    瀏覽量

    2262

原文標題:圖像修復:全局和局部的一致性補全

文章出處:【微信號:cas-ciomp,微信公眾號:中科院長春光機所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    FCB-EV9520L光軸一致性的典范,焦距變換精準如初

    索尼FCB-EV9520L出色的光軸一致性在多個應用場景中展現出了其獨特的優勢和價值。通過提高圖像的準確、減少圖像畸變以及增強應用場景的適應
    的頭像 發表于 12-09 09:45 ?128次閱讀
    FCB-EV9520L光軸<b class='flag-5'>一致性</b>的典范,焦距變換精準如初

    一致性測試系統的技術原理和也應用場景

    一致性測試系統是用來檢測零部件或系統實現是否符合相關標準或規范的測試流程,其技術原理和應用場景具體如下:技術原理 基本框架:協議一致性測試的理論已經相對成熟,主要代表是ISO制定的國際標準ISO
    發表于 11-01 15:35

    異構計算下緩存一致性的重要

    在眾多回復中,李博杰同學的回答被認為質量最高。他首先將緩存一致性分為兩個主要場景:是主機內CPU與設備間的一致性;二是跨主機的一致性
    的頭像 發表于 10-24 17:00 ?507次閱讀
    異構計算下緩存<b class='flag-5'>一致性</b>的重要<b class='flag-5'>性</b>

    級聯一致性和移相器校準應用手冊

    電子發燒友網站提供《級聯一致性和移相器校準應用手冊.pdf》資料免費下載
    發表于 08-29 10:48 ?0次下載
    級聯<b class='flag-5'>一致性</b>和移相器校準應用手冊

    電感值和直流電阻的一致性如何提高?

    提高電感值和直流電阻的一致性,可以從以下幾個方面入手: 、提高電感值的一致性 優化磁芯選擇 : 磁芯是電感器的關鍵組成部分,其材料特性和尺寸直接影響電感值。選擇具有高磁導率、低磁阻和穩定性能的材料
    的頭像 發表于 08-19 15:27 ?313次閱讀

    LIN一致性測試規范2.1

    電子發燒友網站提供《LIN一致性測試規范2.1.pdf》資料免費下載
    發表于 08-15 17:14 ?3次下載

    新品發布 | 同星智能正式推出CAN總線一致性測試系統

    CAN總線一致性測試系統CANFD/CAN總線一致性測試系統,在硬件系統上基于同星自主研發的總線分析工具,干擾儀,一致性測試機箱,并搭配程控電源,示波器,數字萬用表等標準外圍儀器設備;在軟件上
    的頭像 發表于 07-06 08:21 ?510次閱讀
    新品發布 | 同星智能正式推出CAN總線<b class='flag-5'>一致性</b>測試系統

    銅線鍵合焊接一致性:如何突破技術瓶頸?

    在微電子封裝領域,銅線鍵合技術以其低成本、高效率和良好的電氣性能等優勢,逐漸成為芯片與基板連接的主流方式。然而,銅線鍵合過程中的焊接一致性問題是制約其進步發展和應用的關鍵難題。焊接一致性不僅
    的頭像 發表于 07-04 10:12 ?1765次閱讀
    銅線鍵合焊接<b class='flag-5'>一致性</b>:如何突破技術瓶頸?

    為什么主機廠愈來愈重視CAN一致性測試?

    新能源汽車迅猛發展下整車CAN網絡架構日益復雜,總線故障等潛在問題時刻影響著運行安全。整車零部件通過CAN一致性測試必將是安全保障的第道門檻。CAN一致性測試,就是要求整車CAN網絡中的節點都滿足
    的頭像 發表于 05-29 08:24 ?1168次閱讀
    為什么主機廠愈來愈重視CAN<b class='flag-5'>一致性</b>測試?

     QSFP一致性測試的專業測試設備

    、高速度的光纖接口模塊,廣泛應用于數據中心、高速以太網和光纖通信等領域。本文將詳細探討QSFP一致性測試的目的、測試內容、測試方法以及測試的重要等方面。 QSFP一致性測試的目的是確
    的頭像 發表于 03-14 10:40 ?587次閱讀
     QSFP<b class='flag-5'>一致性</b>測試的專業測試設備

    銅線鍵合焊接一致性:微電子封裝的新挑戰

    在微電子封裝領域,銅線鍵合技術以其低成本、高效率和良好的電氣性能等優勢,逐漸成為芯片與基板連接的主流方式。然而,銅線鍵合過程中的焊接一致性問題是制約其進步發展和應用的關鍵難題。焊接一致性不僅
    的頭像 發表于 03-13 10:10 ?1304次閱讀
    銅線鍵合焊接<b class='flag-5'>一致性</b>:微電子封裝的新挑戰

    企業數據備份體系化方法論的七大原則:深入理解數據備份的關鍵原則:應用一致性與崩潰一致性的區別

    在數字化時代,數據備份成為了企業信息安全的核心環節。但在備份過程中,兩個關鍵概念——應用一致性和崩潰一致性,常常被誤解或混淆。本文旨在闡明這兩個概念的差異,并分析它們在數據備份中的重要,以便讀者
    的頭像 發表于 03-11 14:05 ?459次閱讀
    企業數據備份體系化方法論的七大原則:深入理解數據備份的關鍵原則:應用<b class='flag-5'>一致性</b>與崩潰<b class='flag-5'>一致性</b>的區別

    深入理解數據備份的關鍵原則:應用一致性與崩潰一致性的區別

    深入理解數據備份的關鍵原則:應用一致性與崩潰一致性的區別 在數字化時代,數據備份成為了企業信息安全的核心環節。但在備份過程中,兩個關鍵概念——應用一致性和崩潰一致性,常常被誤解或混淆。
    的頭像 發表于 03-11 11:29 ?899次閱讀
    深入理解數據備份的關鍵原則:應用<b class='flag-5'>一致性</b>與崩潰<b class='flag-5'>一致性</b>的區別

    DDR一致性測試的操作步驟

    DDR一致性測試的操作步驟? DDR(雙數據率)一致性測試是對DDR內存模塊進行測試以確保其性能和可靠。在進行DDR一致性測試時,需要遵循
    的頭像 發表于 02-01 16:24 ?1505次閱讀

    微美全息(NASDAQ:WIMI)探索全局-局部特征自適應融合網絡框架在圖像場景分類中的創新運用

    面臨著許多挑戰,如復雜的場景等。然而,現有的圖像場景分類方法往往只關注全局局部特征的提取,而忽略了全局和局部特征之間的互補關聯。為了解決這
    的頭像 發表于 01-05 16:08 ?384次閱讀
    微美全息(NASDAQ:WIMI)探索<b class='flag-5'>全局</b>-<b class='flag-5'>局部</b>特征自適應融合網絡框架在<b class='flag-5'>圖像</b>場景分類中的創新運用
    主站蜘蛛池模板: 日本欧美午夜三级| 男人把女人桶到高潮嗷嗷叫| 解开美女胸衣2破解版| 啦啦啦 中国 日本 高清 在线| 欧美Av无码高清在线| 呜呜别塞了啊抽插| 艺术片 快播| 国产产一区二区三区久久毛片国语| 国产不卡一卡2卡三卡4卡网站| 寂寞夜晚视频高清观看免费| 欧美高跟镣铐bdsm视频| 亚洲黄色在线播放| WWW国产亚洲精品久久麻豆| 国产免费69成人精品视频| 毛片TV网站无套内射TV网站| 日日日操操操| 97精品视频| 精品96在线观看影院| 受坐在攻腿上H道具PLAY| 67194成在线观看免费| 国产精品人妻无码久久久蜜桃臀| 伦理片飘花手机在线| 亚瑟天堂久久一区二区影院| 99在线免费| 久久影院中文字幕| 亚洲乱码日产精品BD在线下载| 白嫩美女直冒白浆| 美国兽皇zoo在线播放| 亚洲午夜精品A片久久不卡蜜桃| 高清无码色大片中文| 日本国产黄色片| CHINA末成年VIDEO学生| 裸妇厨房风流在线观看| 亚洲欧美日韩另类精品一区二区三区 | 二级特黄绝大片免费视频大片| 麻豆AV福利AV久久AV| 116美女写真成人午夜视频| 精品国产品国语在线不卡| 亚洲国产在线视频中文字| 国产骚妇BB网| 亚洲精品久久久午夜福利电影网|