色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡談卷積

FPGA學(xué)習(xí)交流 ? 2019-11-01 17:35 ? 次閱讀

大家好,之前有文章說到信號(hào)處理,說到卷積,那今天咱們來聊一聊卷積。


關(guān)于卷積,之前在大學(xué)時(shí)候?qū)W信號(hào)與系統(tǒng)的時(shí)候就感覺理解的不是很深刻,我于是心想一定要把卷積完全搞明白。經(jīng)過一段時(shí)間的思考之后,有一些很有趣的體會(huì)和大家分享。據(jù)說卷積這種運(yùn)算式物理學(xué)家發(fā)明的,在實(shí)際中用得不亦樂乎,而數(shù)學(xué)家卻一直沒有把運(yùn)算的意義徹底搞明白。仔細(xì)品以下,還是有那么點(diǎn)滋味的。


下面先看一下劍橋大學(xué)的教科書對(duì)卷積的定義:

image.png

我們都知道這個(gè)公式,但是它有什么物理意義呢,平時(shí)我們用卷積做過很多事情,信號(hào)處理時(shí),輸出函數(shù)是輸入函數(shù)和系統(tǒng)函數(shù)的卷積,在圖像處理時(shí),兩組幅分辨率不同的圖卷積之后得到的互相平滑的圖像可以方便處理。卷積甚至可以用在考試作弊中,為了讓照片同時(shí)像兩個(gè)人,只要把兩人的圖像卷積處理即可,這就是一種平滑的過程,可是我們?cè)趺床拍苷嬲压胶蛯?shí)際建立起一種聯(lián)系呢,也就是說,我們能不能從生活中找到一種很方便且具體的例子來表達(dá)公式的物理意義呢?


那下面咱們就來看一看詳細(xì)的卷積本質(zhì)以及物理意義的介紹

1 來源


卷積其實(shí)就是為沖擊函數(shù)誕生的。“沖擊函數(shù)”是狄拉克為了解決一些瞬間作用的物理現(xiàn)象而提出的符號(hào)。古人曰:“說一堆大道理不如舉一個(gè)好例子”,沖量這一物理現(xiàn)象很能說明“沖擊函數(shù)”。在t時(shí)間內(nèi)對(duì)一物體作用F的力,倘若作用時(shí)間t很小,作用力F很大,但讓Ft的乘積不變,即沖量不變。于是在用t做橫坐標(biāo)、F做縱坐標(biāo)的坐標(biāo)系中,就如同一個(gè)面積不變的長方形,底邊被擠的窄窄的,高度被擠的高高的,在數(shù)學(xué)中它可以被擠到無限高,但即使它無限瘦、無限高、但它仍然保持面積不變(它沒有被擠沒?。瑸榱俗C實(shí)它的存在,可以對(duì)它進(jìn)行積分,積分就是求面積嘛!于是“卷積”這個(gè)數(shù)學(xué)怪物就這樣誕生了。


卷積是“信號(hào)與系統(tǒng)”中論述系統(tǒng)對(duì)輸入信號(hào)的響應(yīng)而提出的。


2 意義


信號(hào)處理是將一個(gè)信號(hào)空間映射到另外一個(gè)信號(hào)空間,通常就是時(shí)域到頻域,(還有z域,s域),信號(hào)的能量就是函數(shù)的范數(shù)(信號(hào)與函數(shù)等同的概念),大家都知道有個(gè)Paserval定理就是說映射前后范數(shù)不變,在數(shù)學(xué)中就叫保范映射,實(shí)際上信號(hào)處理中的變換基本都是保范映射,只要Paserval定理成立就是保范映射(就是能量不變的映射)。


信號(hào)處理中如何出現(xiàn)卷積的。假設(shè)B是一個(gè)系統(tǒng),其t時(shí)刻的輸入為x(t),輸出為y(t),系統(tǒng)的響應(yīng)函數(shù)為h(t),按理說,輸出與輸入的關(guān)系應(yīng)該為


Y(t)=h(t)x(t),


然而,實(shí)際的情況是,系統(tǒng)的輸出不僅與系統(tǒng)在t時(shí)刻的響應(yīng)有關(guān),還與它在t時(shí)刻之前的響應(yīng)有關(guān),不過系統(tǒng)有個(gè)衰減過程,所以t1(


y(s)=∫x(t)h(s-t)dt,


離散情況下就是級(jí)數(shù)了。


3 計(jì)算


卷積是一種積分運(yùn)算,它可以用來描述線性時(shí)不變系統(tǒng)的輸入和輸出的關(guān)系:即輸出可以通過輸入和一個(gè)表征系統(tǒng)特性的函數(shù)(沖激響應(yīng)函數(shù))進(jìn)行卷積運(yùn)算得到。(以下用$符號(hào)表示從負(fù)無窮大到正無窮大的積分)


1)一維卷積:


y(t)=g(k)*x(k)=$g(k)x(t-k)


先把函數(shù)x(k)相對(duì)于原點(diǎn)反折,然后向右移動(dòng)距離t,然后兩個(gè)函數(shù)相乘再積分,就得到了在t處的輸出。對(duì)每個(gè)t值重復(fù)上述過程,就得到了輸出曲線。


2)二維卷積:


h(x,y)=f(u,v)*g(u,v)=$$f(u,v)g(x-u,y-v)


先將g(u,v)繞其原點(diǎn)旋轉(zhuǎn)180度,然后平移其原點(diǎn),u軸上像上平移x, v軸上像上平移y。然后兩個(gè)函數(shù)相乘積分,得到一個(gè)點(diǎn)處的輸出。


4 幽默笑話——談卷積的物理意義


有一個(gè)七品縣令,喜歡用打板子來懲戒那些市井無賴,而且有個(gè)慣例:如果沒犯大罪,只打一板,釋放回家,以示愛民如子。


有一個(gè)無賴,想出人頭地卻沒啥指望,心想:既然揚(yáng)不了善名,出惡名也成啊。怎么出惡名?炒作唄!怎么炒作?找名人呀!他自然想到了他的行政長官——縣令。


無賴于是光天化日之下,站在縣衙門前撒了一泡尿,后果是可想而知地,自然被請(qǐng)進(jìn)大堂挨了一板子,然后昂首挺胸回家,躺了一天,嘿!身上啥事也沒有!第二天如法炮制,全然不顧行政長管的仁慈和衙門的體面,第三天、第四天......每天去縣衙門領(lǐng)一個(gè)板子回來,還喜氣洋洋地,堅(jiān)持一個(gè)月之久!這無賴的名氣已經(jīng)和衙門口的臭氣一樣,傳遍八方了!


縣令大人噤著鼻子,呆呆地盯著案子上的驚堂木,擰著眉頭思考一個(gè)問題:這三十個(gè)大板子怎么不好使捏?......想當(dāng)初,本老爺金榜題名時(shí),數(shù)學(xué)可是得了滿分,今天好歹要解決這個(gè)問題:


——人(系統(tǒng)!)挨板子(脈沖?。┮院?,會(huì)有什么表現(xiàn)(輸出?。??


——費(fèi)話,疼唄!


——我問的是:會(huì)有什么表現(xiàn)?


——看疼到啥程度。像這無賴的體格,每天挨一個(gè)板子啥事都不會(huì)有,連哼一下都不可能,你也看到他那得意洋洋的嘴臉了(輸出0);如果一次連揍他十個(gè)板子,他可能會(huì)皺皺眉頭,咬咬牙,硬挺著不哼(輸出1);揍到二十個(gè)板子,他會(huì)疼得臉部扭曲,象豬似地哼哼(輸出3);揍到三十個(gè)板子,他可能會(huì)象驢似地嚎叫,一把鼻涕一把淚地求你饒他一命(輸出5);揍到四十個(gè)板子,他會(huì)大小便失禁,勉強(qiáng)哼出聲來(輸出1);揍到五十個(gè)板子,他連哼一下都不可能(輸出0)——死啦!


縣令鋪開坐標(biāo)紙,以打板子的個(gè)數(shù)作為X軸,以哼哼的程度(輸出)為Y軸,繪制了一條曲線:


——嗚呼呀!這曲線像一座高山,弄不懂。為啥那個(gè)無賴連挨了三十天大板卻不喊繞命呀?


—— 呵呵,你打一次的時(shí)間間隔(Δτ=24小時(shí))太長了,所以那個(gè)無賴承受的痛苦程度一天一利索,沒有疊加,始終是一個(gè)常數(shù);如果縮短打板子的時(shí)間間隔(建議Δτ=0.5秒),那他的痛苦程度可就迅速疊加了;等到這無賴挨三十個(gè)大板(t=30)時(shí),痛苦程度達(dá)到了他能喊叫的極限,會(huì)收到最好的懲戒效果,再多打就顯示不出您的仁慈了。


——還是不太明白,時(shí)間間隔小,為什么痛苦程度會(huì)疊加呢?


——這與人(線性時(shí)不變系統(tǒng))對(duì)板子(脈沖、輸入、激勵(lì))的響應(yīng)有關(guān)。什么是響應(yīng)?人挨一個(gè)板子后,疼痛的感覺會(huì)在一天(假設(shè)的,因人而異)內(nèi)慢慢消失(衰減),而不可能突然消失。這樣一來,只要打板子的時(shí)間間隔很小,每一個(gè)板子引起的疼痛都來不及完全衰減,都會(huì)對(duì)最終的痛苦程度有不同的貢獻(xiàn):


t個(gè)大板子造成的痛苦程度=Σ(第τ個(gè)大板子引起的痛苦*衰減系數(shù))


[衰減系數(shù)是(t-τ)的函數(shù),仔細(xì)品味]


數(shù)學(xué)表達(dá)為:y(t)=∫T(τ)H(t-τ)


——拿人的痛苦來說卷積的事,太殘忍了。除了人以外,其他事物也符合這條規(guī)律嗎?


——呵呵,縣令大人畢竟仁慈。其實(shí)除人之外,很多事情也遵循此道。好好想一想,鐵絲為什么彎曲一次不折,快速彎曲多次卻會(huì)輕易折掉呢?


——恩,一時(shí)還弄不清,容本官慢慢想來——但有一點(diǎn)是明確地——來人啊,將撒尿的那個(gè)無賴抓來,狠打40大板!


也可以這樣理解:T(τ)即第τ個(gè)板子,H(t-τ)就是第τ個(gè)板子引起的痛苦到t時(shí)刻的痛苦程度,所有板子加起來就是∫T(τ)H(t-τ)


4 卷積在具體學(xué)科中的應(yīng)用


圖像處理:用一個(gè)模板和一幅圖像進(jìn)行卷積,對(duì)于圖像上的一個(gè)點(diǎn),讓模板的原點(diǎn)和該點(diǎn)重合,然后模板上的點(diǎn)和圖像上對(duì)應(yīng)的點(diǎn)相乘,然后各點(diǎn)的積相加,就得到了該點(diǎn)的卷積值。對(duì)圖像上的每個(gè)點(diǎn)都這樣處理。由于大多數(shù)模板都是對(duì)稱的,所以模板不旋轉(zhuǎn)。卷積是一種積分運(yùn)算,用來求兩個(gè)曲線重疊區(qū)域面積。可以看作加權(quán)求和,可以用來消除噪聲、特征增強(qiáng)。


把一個(gè)點(diǎn)的像素值用它周圍的點(diǎn)的像素值的加權(quán)平均代替。


卷積是一種線性運(yùn)算,圖像處理中常見的mask運(yùn)算都是卷積,廣泛應(yīng)用于圖像濾波。


卷積在數(shù)據(jù)處理中用來平滑,卷積有平滑效應(yīng)和展寬效應(yīng).


電路學(xué):卷積法的原理是根據(jù)線性定常電路的性質(zhì)(齊次性、疊加性、時(shí)不變性、積分性等),借助電路的單位沖激響應(yīng)h(t),求解系統(tǒng)響應(yīng)的工具,系統(tǒng)的激勵(lì)一般都可以表示為沖擊函數(shù)和激勵(lì)的函數(shù)的卷積,而卷積為高等數(shù)學(xué)中的積分概念。概念中沖擊函數(shù)的幅度是由每個(gè)矩形微元的面積決定的。


卷積關(guān)系最重要的一種情況,就是在信號(hào)與線性系統(tǒng)或數(shù)字信號(hào)處理中的卷積定理。利用該定理,可以將時(shí)間域或空間域中的卷積運(yùn)算等價(jià)為頻率域的相乘運(yùn)算,從而利用FFT等快速算法,實(shí)現(xiàn)有效的計(jì)算,節(jié)省運(yùn)算代價(jià)。


信號(hào)處理:


1)卷積實(shí)質(zhì)上是對(duì)信號(hào)進(jìn)行濾波;


2)卷積就是用沖擊函數(shù)表示激勵(lì)函數(shù),然后根據(jù)沖擊響應(yīng)求解系統(tǒng)的零狀態(tài)響應(yīng)。


卷積是求和(積分)。對(duì)于線性時(shí)不變的系統(tǒng),輸入可以分解成很多強(qiáng)度不同的沖激的和的形式(對(duì)于時(shí)域就是積分),那么輸出也就是這些沖激分別作用到系統(tǒng)產(chǎn)生的響應(yīng)的和(或者積分)。所以卷積的物理意義就是表達(dá)了時(shí)域中輸入,系統(tǒng)沖激響應(yīng),以及輸出之間的關(guān)系。


信號(hào)角度:卷積代表了線性系統(tǒng)對(duì)輸入信號(hào)的響應(yīng)方式,其輸出就等于系統(tǒng)沖擊函數(shù)和信號(hào)輸入的卷積,只有符合疊加原理的系統(tǒng),才有系統(tǒng)沖擊函數(shù)的概念,從而卷積成為系統(tǒng)對(duì)輸入在數(shù)學(xué)上運(yùn)算的必然形式,沖擊函數(shù)實(shí)際上是該問題的格林函數(shù)解。點(diǎn)激勵(lì)源作為強(qiáng)加激勵(lì),求解某個(gè)線性問題的解,得到的格林函數(shù)即是系統(tǒng)沖擊響應(yīng).所以在線性系統(tǒng)中,系統(tǒng)沖擊響應(yīng)與卷積存在著必然的聯(lián)系。


數(shù)學(xué):來說卷積就是定義兩個(gè)函數(shù)的一種乘法,或者是一種反映兩個(gè)序列或函數(shù)之間的運(yùn)算方法。對(duì)離散序列來說就是兩個(gè)多項(xiàng)式的乘法。物理意義就是沖激響應(yīng)的線性疊加,所謂沖激響應(yīng)可以看作是一個(gè)函數(shù),另一個(gè)函數(shù)按沖激信號(hào)正交展開。


在現(xiàn)實(shí)中:卷積代表的是將一種信號(hào)搬移到另一頻率中,比如調(diào)制,這是頻率卷。


物理:卷積可代表某種系統(tǒng)對(duì)某個(gè)物理量或輸入的調(diào)制或污染。


在現(xiàn)實(shí)中:卷積代表的是將一種信號(hào)搬移到另一頻率中,比如調(diào)制,這是頻率卷。


形象比喻:卷積我覺得就象一把銼刀,它主要是把一些非光滑的函數(shù)或算子光滑化。


信號(hào)處理的任務(wù)就是尋找和信號(hào)集合對(duì)應(yīng)的一個(gè)集合,然后在另外一個(gè)集合中分析信號(hào),F(xiàn)ourier變換就是一種,它建立了時(shí)域中每個(gè)信號(hào)函數(shù)與頻域中的每個(gè)頻譜函數(shù)的一一對(duì)應(yīng)關(guān)系,這是元素之間的對(duì)應(yīng)。那么運(yùn)算之間的對(duì)應(yīng)呢,在時(shí)域的加法對(duì)應(yīng)頻域中的加法,這就是FT線性性的體現(xiàn);那么時(shí)域的乘法對(duì)應(yīng)什么呢,最后得到的那個(gè)表達(dá)式我們就把它叫卷積,就是對(duì)應(yīng)的頻域的卷積。


簡單來說,卷積是一種重疊關(guān)系,也就是說,所得到的結(jié)果反映了兩個(gè)卷積函數(shù)的重疊部分。所以,用一個(gè)已知頻段的函數(shù)卷積另一個(gè)頻段很寬的函數(shù),也就是對(duì)后者進(jìn)行了濾波,后者跟前者重疊的頻段才能很好地通過這個(gè)filter.


5 卷積與多項(xiàng)式


信號(hào)處理中的一個(gè)重要運(yùn)算是卷積.初學(xué)卷積的時(shí)候,往往是在連續(xù)的情形,兩個(gè)函數(shù)f(x),g(x)的卷積,是∫f(u)g(x-u)du。當(dāng)然,證明卷積的一些性質(zhì)并不困難,比如交換,結(jié)合等等,但是對(duì)于卷積運(yùn)算的來處,初學(xué)者就不甚了了。


其實(shí),從離散的情形看卷積,或許更加清楚,對(duì)于兩個(gè)序列f[n],g[n],一般可以將其卷積定義為s[x]= ∑f[k]g[x-k]。


卷積的一個(gè)典型例子,其實(shí)就是初中就學(xué)過的多項(xiàng)式相乘的運(yùn)算。


比如(x*x+3*x+2)(2*x+5)一般計(jì)算順序如下:


(x*x+3*x+2)(2*x+5)


= (x*x+3*x+2)*2*x+(x*x+3*x+2)*5

= 2*x*x*x+3*2*x*x+2*2*x+ 5*x*x+3*5*x+10

然后合并同類項(xiàng)的系數(shù),


2x*x*x


3*2+1*5x*x


2*2+3*5x


2*5

2*x*x*x+11*x*x+19*x+10


實(shí)際上,從線性代數(shù)可以知道,多項(xiàng)式構(gòu)成一個(gè)向量空間,其基底可選為{1,x,x*x,x*x*x,...}如此,則任何多項(xiàng)式均可與無窮維空間中的一個(gè)坐標(biāo)向量相對(duì)應(yīng),如,(x*x+3*x+2)對(duì)應(yīng)于(1 3 2),(2*x+5)對(duì)應(yīng)于(2,5)。線性空間中沒有定義兩個(gè)向量間的卷積運(yùn)算,而只有加法、數(shù)乘兩種運(yùn)算,而實(shí)際上,多項(xiàng)式的乘法,就無法在線性空間中說明,可見線性空間的理論多么局限了。但如果按照我們上面對(duì)向量卷積的定義來處理坐標(biāo)向量,(1 3 2)*(2 5)則有(1 3 2)*(2 5)=(2 11 19 10)。


回到多項(xiàng)式的表示上來,(x*x+3*x+2)(2*x+5)=2*x*x*x+11*x*x+19*x+10,結(jié)果跟我們用傳統(tǒng)辦法得到的是完全一樣的.換句話,多項(xiàng)式相乘,相當(dāng)于系數(shù)向量的卷積.其實(shí)道理也很簡單,卷積運(yùn)算實(shí)際上是分別求 x*x*x ,x*x,x,1的系數(shù),也就是說,他把加法和求和雜合在一起做了。(傳統(tǒng)的辦法是先做乘法,然后在合并同類項(xiàng)的時(shí)候才作加法)以x*x的系數(shù)為例,得到x*x,或者是用x*x乘5,或者是用3x乘2x,也就是


2 3 1

_ 2 5

6+5=11


其實(shí),這正是向量的內(nèi)積.如此則,卷積運(yùn)算,可以看作是一串內(nèi)積運(yùn)算.既然是一串內(nèi)積運(yùn)算,則我們可以試圖用矩陣表示上述過程。

[ 2 3 1 0 0 0]

[ 0 2 3 1 0 0]==A

[ 0 0 2 3 1 0]

[ 0 0 0 2 3 1]

[0 0 2 5 0 0]' == x

b= Ax=[ 2 11 19 10]'


采用行的觀點(diǎn)看Ax,則b的每行都是一個(gè)內(nèi)積。A的每一行都是序列[23 1]的一個(gè)移動(dòng)位置。顯然,在這個(gè)特定的背景下,我們知道,卷積滿足交換,結(jié)合等定律,因?yàn)?眾所周知的,多項(xiàng)式的乘法滿足交換律,結(jié)合律.在一般情形下,其實(shí)也成立.


在這里,我們發(fā)現(xiàn)多項(xiàng)式,除了構(gòu)成特定的線性空間外,基與基之間還存在某種特殊的聯(lián)系,正是這種聯(lián)系,給予多項(xiàng)式空間以特殊的性質(zhì).


在學(xué)向量的時(shí)候,一般都會(huì)舉這個(gè)例子,甲有三個(gè)蘋果,5個(gè)橘子,乙有5個(gè)蘋果,三個(gè)橘子,則共有幾個(gè)蘋果,橘子。老師反復(fù)告誡,橘子就是橘子,蘋果就是蘋果,可不能混在一起。所以有(3,5)+(5,3)=(8,8).是的,橘子和蘋果無論怎么加,都不會(huì)出什么問題的,但是,如果考慮橘子乘橘子,或者橘子乘蘋果,這問題就不大容易說清了。


又如復(fù)數(shù),如果僅僅定義復(fù)數(shù)為數(shù)對(duì)(a,b),僅僅在線性空間的層面看待C2,那就未免太簡單了。實(shí)際上,只要加上一條(a,b)*(c,d)=(ac-bd,ad+bc)。則情況馬上改觀,復(fù)變函數(shù)的內(nèi)容多么豐富多彩,是眾所周知的。另外,回想信號(hào)處理里面的一條基本定理,頻率域的乘積,相當(dāng)于時(shí)域或空域信號(hào)的卷積.恰好和這里的情形完全對(duì)等.這后面存在什么樣的隱態(tài)聯(lián)系,需要繼續(xù)參詳.


從這里看,高等的卷積運(yùn)算其實(shí)不過是一種初等的運(yùn)算的抽象而已.中學(xué)學(xué)過的數(shù)學(xué)里面,其實(shí)還蘊(yùn)涵著許多高深的內(nèi)容(比如交換代數(shù))。溫故而知新,斯言不謬.其實(shí)這道理一點(diǎn)也不復(fù)雜,人類繁衍了多少萬年了,但過去n多年,人們只知道男女媾精,乃能繁衍后代。精子,卵子的發(fā)現(xiàn),生殖機(jī)制的研究,也就是最近多少年的事情。


孔子說,道在人倫日用中,看來我們應(yīng)該多用審視的眼光看待周圍,乃至自身,才能知其然,而知其所以然。


參考資料

http://hi.baidu.com/a__g/blog/item/10873722cab331ac4723e8f7.html

http://blog.chinaunix.net/u2/76475/showart_1682636.html


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 離散卷積
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    1400
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks,F(xiàn)NN
    的頭像 發(fā)表于 11-15 14:47 ?438次閱讀

    高斯濾波的卷積核怎么確定

    高斯濾波的卷積核確定主要依賴于高斯函數(shù)的特性以及圖像處理的具體需求。以下是確定高斯濾波卷積核的幾個(gè)關(guān)鍵步驟: 一、確定卷積核的大小 卷積核形狀 :高斯濾波的
    的頭像 發(fā)表于 09-29 09:29 ?490次閱讀

    基于PyTorch的卷積核實(shí)例應(yīng)用

    在深度學(xué)習(xí)和計(jì)算機(jī)視覺領(lǐng)域,卷積操作是一種至關(guān)重要的技術(shù),尤其在圖像處理和特征提取方面發(fā)揮著核心作用。PyTorch作為當(dāng)前最流行的深度學(xué)習(xí)框架之一,提供了強(qiáng)大的張量操作功能和靈活的API,使得實(shí)現(xiàn)
    的頭像 發(fā)表于 07-11 15:19 ?447次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本概念、原理及特點(diǎn)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)算法,它在圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域有著廣泛的應(yīng)用。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-11 14:38 ?1022次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的卷積操作

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)中的卷積操作是其核心組成部分,對(duì)于圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域具有重要意義。本文將從卷積操作的基本概念、原理、過程、特點(diǎn)及其在CNN中的
    的頭像 發(fā)表于 07-04 16:10 ?1281次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)示例

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,主要用于處理具有網(wǎng)格結(jié)構(gòu)的數(shù)據(jù),如圖像。CNN通過卷積層自動(dòng)提取圖像特征,然后通過全連接層進(jìn)行
    的頭像 發(fā)表于 07-03 10:51 ?432次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)原理

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)原理、結(jié)構(gòu)
    的頭像 發(fā)表于 07-03 10:49 ?537次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)計(jì)算過程和步驟

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算過程和步驟
    的頭像 發(fā)表于 07-03 09:36 ?557次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測、語義分割等領(lǐng)域。本文將詳細(xì)介紹CNN在分類任務(wù)中的應(yīng)用,包括基本結(jié)構(gòu)、關(guān)鍵技術(shù)、常見網(wǎng)絡(luò)架構(gòu)以及實(shí)際應(yīng)用案例。 引言 1.1
    的頭像 發(fā)表于 07-03 09:28 ?608次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的基本概念、結(jié)構(gòu)
    的頭像 發(fā)表于 07-03 09:15 ?397次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實(shí)現(xiàn)

    1.卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),其
    的頭像 發(fā)表于 07-02 16:47 ?565次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理和應(yīng)用范圍

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的基本原理
    的頭像 發(fā)表于 07-02 15:30 ?1159次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNNs)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 1.1
    的頭像 發(fā)表于 07-02 14:28 ?1084次閱讀

    verilog實(shí)現(xiàn)卷積運(yùn)算

    在Verilog中實(shí)現(xiàn)卷積運(yùn)算,你可以使用以下示例代碼。這里假設(shè)輸入數(shù)據(jù)是有符號(hào)8位數(shù),輸出數(shù)據(jù)也是有符號(hào)8位數(shù)。卷積在數(shù)字信號(hào)處理中通常指的是兩個(gè)序列的逐元素乘積的和,也就是點(diǎn)乘。 module
    發(fā)表于 03-26 07:51

    FPGA的片內(nèi)資源

    FPGA的片內(nèi)資源
    發(fā)表于 01-08 22:12
    主站蜘蛛池模板: 亚洲三级在线中文字幕| 国产午夜a理论毛片在线影院 | 在线播放毛片| 好湿好滑好硬好爽好深视频| 无码国产成人午夜在线观看不卡| yellow免费观看完整版直播| 美女裸露胸部100%无遮挡| 玉林天天论坛| 久久机热视频免费| 亚洲一区自拍高清亚洲精品| 果冻传媒在线观看高清完整免费| 视频成人app永久在线观看| 大香伊人久久精品一区二区| 青青青久草| 粗大分开挺进内射| 色婷婷欧美在线播放内射| 动漫美女被h动态图| 日韩亚洲国产中文字幕欧美| 成人中文字幕在线| 日本特殊精油按摩| 动漫成年美女黄漫网站| 日日夜夜影院在线播放| 第一会所欧美无码原创| 色中色最新地址登陆| 国产精品99久久久精品无码| 无码欧美喷潮福利XXXX| 国产精亚洲视频综合区| 亚洲 日本 中文字幕 制服| 国产亚洲日韩在线播放不卡| 亚洲精品国产熟女久久久 | chinese极品嫩模videos| 欧美一级黄色影院| 哺乳期妇女挤奶水36d| 日本人作爰啪啪全过程| 高清无码色大片中文| 午夜一级视频| 娇小8一12xxxx第一次| 长篇高h肉爽文丝袜| 美女医生深夜在家裸睡惨死| 99国产精品久久人妻| 青娱乐视觉盛宴国产视频 |