色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于RGASM方法與ASM方法的臉部特征定位的比較

電子設(shè)計(jì) ? 來(lái)源:郭婷 ? 作者:電子設(shè)計(jì) ? 2019-10-10 07:50 ? 次閱讀

臉部特征定位 ,即在圖像或圖像序列的給定區(qū)域內(nèi)搜索部分或所有人臉特征(如眼、鼻、嘴、耳等)的位置、關(guān)鍵點(diǎn)或輪廓線。其中包括眼睛、鼻子、嘴巴、下頜、耳朵以及人臉外輪廓等所有需要提取特征點(diǎn)的位置。臉部特征定位可以為人臉識(shí)別、姿態(tài)表情分析、人臉跟蹤等研究工作提供重要的幾何信息,特征定位的準(zhǔn)確與否直接關(guān)系到后續(xù)應(yīng)用的可靠性因而具有舉足輕重的地位。

ASM(Active Shape Models)是基于幾何形狀信息的方法之一,由Cootes等于1992年提出。它采用點(diǎn)分布模型(Point Distribution Model,PDM)描述形狀變化,另一方面計(jì)算各特征點(diǎn)法線方向上灰度值的一階偏導(dǎo),并建立局部紋理模型。在搜索時(shí)通過(guò)紋理模型得到當(dāng)前點(diǎn)的最佳匹配位置,然后調(diào)節(jié)形狀模型,最終達(dá)到對(duì)特征的精確定位。由于匹配準(zhǔn)則的問(wèn)題ASM容易陷入局部極小點(diǎn),對(duì)于初始位置要求比較高。

Wiskott等將 Gabor 小波用于人臉識(shí)別領(lǐng)域,提出了彈性圖的概念并用于臉部特征的定位。該方法可以適用于一定程度的姿態(tài)及表情變化,實(shí)踐證明是有效的。由于該方法在搜索時(shí)需要在整幅圖上尋找特征點(diǎn)的最佳匹配位置,這一過(guò)程十分費(fèi)時(shí),計(jì)算量也很大。Jiao等使用Gabor小波提取局部紋理特征,Gabor特征的幅值與相位包含了豐富的人臉局部紋理信息,在搜索時(shí)可以提供指導(dǎo)。由進(jìn)一步的研究分析可知,不僅特征點(diǎn)的Gabor系數(shù)特征包含局部紋理的有用信息,特征點(diǎn)周?chē)徲蛑懈鼽c(diǎn)的Gabor系數(shù)特征也是很有用的?;诖?,提出了一種基于局部信息的臉部特征定位方法 RGASM (Region GaborASM)。

1 標(biāo)準(zhǔn)ASM介紹

1.1 形狀建模

如圖1所示,在ASM中目標(biāo)形狀用分布在臉輪廓、眼睛及嘴等位置處的一組點(diǎn)的坐標(biāo)來(lái)表示,同類(lèi)目標(biāo)形狀構(gòu)成一個(gè)訓(xùn)練集。為了描述訓(xùn)練集中各形狀相對(duì)于平均形狀的變化,需要建立一個(gè)點(diǎn)分布模型(PDM)。該模型給出訓(xùn)練集中各形狀的平均形狀,同時(shí)提供一些參數(shù),通過(guò)調(diào)整這些參數(shù)可以控制形狀的變化。

基于RGASM方法與ASM方法的臉部特征定位的比較

訓(xùn)練集中的形狀矢量數(shù)學(xué)的表示為X=[x1,x2,…,xn,yl,y2,…,yn]T,通過(guò)Procrustes方法將訓(xùn)練集中所有形狀進(jìn)行對(duì)齊,然后對(duì)形狀矢量進(jìn)行主成分分析,得到

X=X+Pb (1)

其中,X是平均形狀,P是特征向量矩陣,b是形狀參數(shù)。

矢量b定義了一組形狀參數(shù),可以通過(guò)改變b中的元素值使式(1)中的形狀變化。為了使變化后的形狀近似于訓(xùn)練集中的形狀,應(yīng)該將b中元素值的變化范圍加以限制。

1.2 局部紋理模型

局部紋理模型用來(lái)描述每個(gè)特征點(diǎn)周?chē)鷧^(qū)域的紋理特征,ASM的紋理模型是通過(guò)統(tǒng)計(jì)在特征點(diǎn)所在位置處法線方向采樣所得的灰度剖面的一階差分的變化得到的。

對(duì)于第i幅圖像的第j個(gè)特征點(diǎn),在其法線方向采樣得到灰度剖面gij,計(jì)算得到訓(xùn)練集中所有圖像對(duì)于第j個(gè)特征點(diǎn)的灰度剖面gij(i=l,2,…,N),將它們歸一化并求得平均值gi以及方差矩陣Si,從而建立局部紋理模型。

1.3 搜索過(guò)程

采用1.1節(jié)和1.2節(jié)中方法,可以訓(xùn)練出一個(gè)靈活的形狀模型及局部紋理模型。利用它們可以對(duì)新的人臉圖像進(jìn)行特征點(diǎn)搜索,搜索過(guò)程的示意圖,如圖2所示。

基于RGASM方法與ASM方法的臉部特征定位的比較

其中關(guān)鍵是求解達(dá)到最佳位置的偏移量。搜索時(shí),同樣沿法線方向采樣得到比建模時(shí)長(zhǎng)的搜索剖面,在其中尋找與該點(diǎn)對(duì)應(yīng)的灰度模型的均值矢量最匹配的子特征矢量,并將該子特征矢量中心位置作為當(dāng)前點(diǎn)的最佳匹配位置。目標(biāo)函數(shù)為子特征矢量gs與該點(diǎn)對(duì)應(yīng)模型的均值矢量gj的Mahalanobis距離

基于RGASM方法與ASM方法的臉部特征定位的比較

分析可知,在當(dāng)前位置處搜索當(dāng)前點(diǎn)的最佳匹配位置就需要使得fj(gs)取得最小值。

根據(jù)以上所述,在搜索時(shí)通過(guò)紋理模型得到當(dāng)前點(diǎn)的最佳匹配位置,然后調(diào)節(jié)紋理模型,通過(guò)不斷的迭代直到形狀的改變量可以忽略不計(jì)為止。

2 基于Gabor小波變換的臉部特征定位方法

2.1 利用Gabor小波變換提取局部紋理特征

1964,年,Gabor提出了著名的以自己名字命名的Gabor函數(shù),它是高斯函數(shù)在頻域中的平移,能夠同時(shí)在時(shí)域和頻域中很好的兼顧對(duì)信號(hào)分析的分辨率要求。二維Gabor函數(shù)較好的描述了哺乳動(dòng)物初級(jí)視覺(jué)系統(tǒng)對(duì)簡(jiǎn)單視覺(jué)神經(jīng)元的感受特性。Daugman于上世紀(jì)80年代首次將其應(yīng)用在計(jì)算機(jī)視覺(jué)領(lǐng)域。

二維Gabor函數(shù)表達(dá)形式為

基于RGASM方法與ASM方法的臉部特征定位的比較

選擇5個(gè)不同頻率,v=O,…,4及8個(gè)方向μ=0,…,7,從而得到40個(gè)不同的Gabor濾波器j=μ+8v。式(7)括號(hào)中的第二項(xiàng)可以使該小波核與直流分量無(wú)關(guān),即可以消除積分項(xiàng)這使得濾波器對(duì)圖像光照不均的魯棒性較好。

對(duì)圖像I(x)中的一點(diǎn)x=(x,y),定義該點(diǎn)灰度值與Gabor。函數(shù)的卷積為

基于RGASM方法與ASM方法的臉部特征定位的比較

依次用不同頻率與方向組合成的40個(gè) Gabor 函數(shù)進(jìn)行卷積得到40個(gè)復(fù)系數(shù),稱(chēng)它們?yōu)橐粋€(gè)Jet,記作Jj=ajexp(iφj),用它來(lái)表示局部紋理特征。其中幅值aj(x)部分隨著x的變化緩慢變化,相位部分φj(x)以與Gabor核頻率相近的速度旋轉(zhuǎn)。

基于RGASM方法與ASM方法的臉部特征定位的比較

2.2 紋理建模

對(duì)于訓(xùn)練集中每幅人臉圖像,定義了一組特征點(diǎn),Pi(i=1,2,…,n),n是特征點(diǎn)的個(gè)數(shù)(選取了58個(gè))。對(duì)于每個(gè)點(diǎn),Gabor特征計(jì)算方法如下

以第i幅圖第j個(gè)特征點(diǎn)為中心在其周?chē)x取一個(gè)半徑為4的圓形鄰域Rij,這里i=1,2,…,N,N為訓(xùn)練集中圖像的個(gè)數(shù),j=1,2,…,n,n是特征點(diǎn)的個(gè)數(shù),計(jì)算該區(qū)域內(nèi)每個(gè)點(diǎn)對(duì)應(yīng)的Gabor Jet,將這些Jet連接合成一個(gè)新的復(fù)矢量JetL,J’ij作為該點(diǎn)的局部特征。假設(shè)第j個(gè)點(diǎn)對(duì)應(yīng)的J’ij(i=1,…,N)服從多變量高斯分布,求其均值為

基于RGASM方法與ASM方法的臉部特征定位的比較

從而用每個(gè)均值來(lái)代替表示所有的J’ij。

2.3 搜索過(guò)程

搜索與標(biāo)準(zhǔn)ASM的搜索過(guò)程類(lèi)似,只是在估計(jì)當(dāng)前點(diǎn)的偏移量時(shí)有所不同。當(dāng)前點(diǎn)偏移量的估計(jì)采取在特征點(diǎn)當(dāng)前位置周?chē)K進(jìn)行全搜索的方法,具體做法如下:以當(dāng)前Pi點(diǎn)為中心在其周?chē)∫粋€(gè)大小為16×16的方形鄰域Rei,采用與建模時(shí)相同方法計(jì)算鄰域中每個(gè)點(diǎn)處的特征復(fù)矢量Jjs(s=1,…,256)。在Jjs中搜索與該點(diǎn)模型相似度最大的,并將對(duì)應(yīng)點(diǎn)的位置作為當(dāng)前點(diǎn)的新位置。選取的判定準(zhǔn)則為

基于RGASM方法與ASM方法的臉部特征定位的比較

可知,只需使上式中f(s)取得最小值便可以獲得當(dāng)前點(diǎn)Pj的偏移量dxj。相同的方法計(jì)算得到各點(diǎn)的偏移量,從而得到形狀的改變量dx。

3 實(shí)驗(yàn)結(jié)果及分析

為了測(cè)試文中提出的方法 RGASM 的有效性,將它與ASM方法進(jìn)行比較。這里所用的人臉庫(kù)是IMM庫(kù),從庫(kù)中挑選了每人兩幅共80幅人臉圖像作為訓(xùn)練集。圖像的大小為640×480,每幅圖已經(jīng)進(jìn)行了特征點(diǎn)的人工標(biāo)定。特征點(diǎn)個(gè)數(shù)為58個(gè),分布在眉毛、眼睛、鼻子、嘴以及外輪廓部位。

這里分別做兩種誤差估計(jì),一種是針對(duì)單幅圖像的偏差估計(jì),計(jì)算給定圖像中搜索得到的特征點(diǎn)位置與對(duì)應(yīng)的人工標(biāo) 定位 置的偏移量。如圖4所示,x坐標(biāo)為特征點(diǎn)搜索所得位置與目標(biāo)位置的平均偏移量(以像素為單位),y坐標(biāo)為偏移量為對(duì)應(yīng)值的特征點(diǎn)個(gè)數(shù)占圖像中特征點(diǎn)總數(shù)的百分比。

基于RGASM方法與ASM方法的臉部特征定位的比較

從圖4可以看出,通過(guò)RGASM方法得到的定位結(jié)果在平均誤差上小于ASM的平均定位誤差,方差也較小,算法對(duì)各特征點(diǎn)定位效果均衡。因此,與ASM方法相比,采用RGASM方法進(jìn)行特征定位可以在單幅圖像的特征點(diǎn)意義上取得好的定位效果。

另一種是針對(duì)整個(gè)測(cè)試集的平均偏差估計(jì),度量準(zhǔn)則為歐式距離

基于RGASM方法與ASM方法的臉部特征定位的比較

其中N為測(cè)試圖像的個(gè)數(shù),n為標(biāo)定特征點(diǎn)的個(gè)數(shù),這里N取值為30,為58。(xij,yij)表示在第i幅測(cè)試圖像中的j個(gè)標(biāo)定點(diǎn)人工標(biāo)定的位置,而(x’ij,y’ij)為搜索得到的位置坐標(biāo)。

基于RGASM方法與ASM方法的臉部特征定位的比較

表l給出了RGASM方法與ASM方法在特征定位上的效果比較情況。該測(cè)試說(shuō)明在訓(xùn)練集較小時(shí)RGASM方法在定位精度上與ASM相比具有一定的優(yōu)勢(shì)。

測(cè)試是在CPU為Pentium(R)43.0 GHz的計(jì)算機(jī)上完成的,采用標(biāo)準(zhǔn)ASM方法處理一幅圖像的平均時(shí)間為0.2~0.4 s,文中的RGASM方法的平均時(shí)間為0.6~0.9 s??梢钥闯?,文中提出的方法是有效、可行的。

4 結(jié)束語(yǔ)

文中提出了一種基于局部紋理信息的臉部特征定位方法,在紋理建模時(shí)對(duì)特征點(diǎn)及其給定鄰域各點(diǎn)均做Gabor變換以作為該特征點(diǎn)的局部紋理特征,然后采用統(tǒng)計(jì)方法進(jìn)行局部紋理建模,搜索時(shí)采用在當(dāng)前位置周?chē)K進(jìn)行全搜索的方法進(jìn)行特征的搜索定位。實(shí)驗(yàn)結(jié)果表明,該方法是一種有效的臉部特征定位方法。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算
    +關(guān)注

    關(guān)注

    2

    文章

    450

    瀏覽量

    38836
  • 人臉識(shí)別
    +關(guān)注

    關(guān)注

    76

    文章

    4012

    瀏覽量

    82045
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    五種先進(jìn)的SSD故障預(yù)測(cè)特征選擇方法盤(pán)點(diǎn)

    本文比較了沒(méi)有特征選擇(即使用所有學(xué)習(xí)特征)和五種最先進(jìn)的特征選擇方法(第II-C節(jié))的WEFR的預(yù)測(cè)精度。對(duì)于五種最先進(jìn)的
    發(fā)表于 07-12 09:09 ?1718次閱讀
    五種先進(jìn)的SSD故障預(yù)測(cè)<b class='flag-5'>特征</b>選擇<b class='flag-5'>方法</b>盤(pán)點(diǎn)

    特瑞仕DC/DC轉(zhuǎn)換器實(shí)機(jī)特性比較工具的特征和使用方法

    本篇文章說(shuō)明了特瑞仕在官網(wǎng)公開(kāi)的實(shí)機(jī)特性比較工具的特征和使用方法。
    的頭像 發(fā)表于 09-26 17:03 ?2022次閱讀
    特瑞仕DC/DC轉(zhuǎn)換器實(shí)機(jī)特性<b class='flag-5'>比較</b>工具的<b class='flag-5'>特征</b>和使用<b class='flag-5'>方法</b>

    【Z-turn Board試用體驗(yàn)】+ Z-Turn的人臉識(shí)別門(mén)禁系統(tǒng)項(xiàng)目開(kāi)發(fā)(五)

    定位,和asm等alignment方法等;3,人臉幾何歸一化,根據(jù)臉部特征點(diǎn)位置從圖像中得到歸一化的人臉區(qū)域圖像,這一步主要是使得不同人臉上
    發(fā)表于 09-10 18:29

    一種改進(jìn)的AAM人臉特征點(diǎn)快速定位方法

    傳統(tǒng)的AAM(Active Appearance Models)人臉特征定位改進(jìn)方法通常關(guān)注于擬合效率上,沒(méi)有具體考慮擬合初始位置和模型實(shí)例的特征,因此
    發(fā)表于 11-17 14:31 ?5次下載

    使用非負(fù)矩陣分解方法識(shí)別臉部表情

    在論文中兩種圖像識(shí)別的方法即非負(fù)矩陣分解方法(NMF)和主成分分析方法(PCA)被適用于認(rèn)識(shí)三種基本臉部表情的數(shù)據(jù)庫(kù)。三種表情是:高興,驚恐和中性表達(dá)。采用NMF 和 P
    發(fā)表于 12-14 14:07 ?19次下載

    道路定位信息提取及四參數(shù)坐標(biāo)轉(zhuǎn)換方法

    該文針對(duì)當(dāng)前比較普及的GPS,對(duì)其衛(wèi)星定位信息的接收及其定位參數(shù)提取的實(shí)現(xiàn)和坐標(biāo)轉(zhuǎn)換的方法予以介紹,利用MSComm控件采用事件驅(qū)動(dòng)的方法
    發(fā)表于 02-22 14:28 ?10次下載

    基于圖像處理和投影的車(chē)牌定位方法

    文中主要針對(duì)的是藍(lán)底白字車(chē)牌,首先利用車(chē)牌藍(lán)色特征和圖像處理的方法進(jìn)行初次定位,減少了車(chē)牌候選區(qū)域,然后對(duì)初次定位的車(chē)牌圖片進(jìn)行投影,最終完成車(chē)牌
    發(fā)表于 03-16 10:38 ?8411次閱讀
    基于圖像處理和投影的車(chē)牌<b class='flag-5'>定位</b><b class='flag-5'>方法</b>

    基于奇異值分解的車(chē)牌特征提取方法研究

    研究了基于小波分析的車(chē)牌圖像定位、分割、大小歸一化方法,并分析了奇異值分解算法的數(shù)學(xué)原理和算法。利用奇異值分解作為代數(shù)特征提取方法,獲得圖像的有效
    發(fā)表于 10-17 11:08 ?28次下載
    基于奇異值分解的車(chē)牌<b class='flag-5'>特征</b>提取<b class='flag-5'>方法</b>研究

    基于HALCON的PCB光學(xué)定位點(diǎn)的3種識(shí)別方法比較

    基于HALCON的PCB光學(xué)定位點(diǎn)的3種識(shí)別方法比較基于HALCON的PCB光學(xué)定位點(diǎn)的3種識(shí)別方法
    發(fā)表于 12-22 15:20 ?12次下載

    特征阻抗的計(jì)算方法

    特征阻抗的計(jì)算方法
    發(fā)表于 06-09 14:53 ?27次下載

    基于目標(biāo)輪廓幾何特征的電容元件定位方法

    電路板。針對(duì)此種情況,提出一種復(fù)雜背景下被遮蓋電容元件的定位方法,通過(guò)對(duì)采集到的PCB圖像進(jìn)行預(yù)處理、閾值分割、邊緣提取和Harris角點(diǎn)檢測(cè)等操作,進(jìn)而根據(jù)電容元件目標(biāo)輪廓的幾何特征對(duì)元件進(jìn)行
    發(fā)表于 11-17 16:31 ?13次下載
    基于目標(biāo)輪廓幾何<b class='flag-5'>特征</b>的電容元件<b class='flag-5'>定位</b><b class='flag-5'>方法</b>

    基于ASM和膚色模型的疲勞駕駛檢測(cè)方法

    疲勞駕駛研究中,面部關(guān)鍵特征精確定位與跟蹤是個(gè)難點(diǎn)。提出了一種基于主動(dòng)形狀模型ASM和膚色模型的疲勞駕駛檢測(cè)方法。首先,利用膚色模型檢測(cè)到人臉區(qū)域?yàn)?b class='flag-5'>
    發(fā)表于 11-28 11:31 ?2次下載
    基于<b class='flag-5'>ASM</b>和膚色模型的疲勞駕駛檢測(cè)<b class='flag-5'>方法</b>

    基于點(diǎn)對(duì)點(diǎn)輔助室內(nèi)定位方法

    隨著移動(dòng)終端和移動(dòng)互聯(lián)網(wǎng)的發(fā)展,人們對(duì)于基于位置信息的服務(wù)的需求日益增大。相比室外環(huán)境可以采用GPS定位方法,在室內(nèi)環(huán)境下,精確定位比較困難。本文描述了一種基于點(diǎn)對(duì)點(diǎn)輔助室內(nèi)
    發(fā)表于 12-12 18:30 ?0次下載
    基于點(diǎn)對(duì)點(diǎn)輔助室內(nèi)<b class='flag-5'>定位</b><b class='flag-5'>方法</b>

    設(shè)備自適應(yīng)的無(wú)線信號(hào)特征提取與定位方法

    difference ratio)解決方法.考慮采集訓(xùn)練數(shù)據(jù)的設(shè)備和測(cè)試數(shù)據(jù)的設(shè)備之間信號(hào)存在差異,首先將信號(hào)指紋特征進(jìn)行去線性處理以獲取新的特征:然后結(jié)合AP(access point)對(duì)
    發(fā)表于 02-08 14:48 ?0次下載

    基于面部特征點(diǎn)定位的圖像人臉姿態(tài)估計(jì)方法

    針對(duì)目前基于學(xué)習(xí)的姿態(tài)估計(jì)方法對(duì)訓(xùn)練樣本及設(shè)備要求較高的問(wèn)題,提出一種基于面部特征點(diǎn)定位的無(wú)需訓(xùn)練即能估計(jì)單幅圖像中人臉姿態(tài)的方法。通過(guò) Adrian bulat人臉
    發(fā)表于 05-24 15:43 ?15次下載
    主站蜘蛛池模板: 亚洲大片免费| 免费精品一区二区三区AA片| 祺鑫WRITEAS流出来了| 亚洲中文无码AV在线观看| 国产成久久免费精品AV片天堂 | 国产亚洲999精品AA片在线爽| 青青精品国产自在线拍| 中文文字幕文字幕亚洲色| 国产午夜精品片一区二区三区| 日韩高清在线亚洲专区| av先锋影音资源男人站| 狼群影院视频在线观看WWW| 亚洲精品乱码电影在线观看| 国产精品久久久久久免费字体| 日本无码毛片久久久九色综合| 99久久久无码国产精品免费人妻| 久久这里只有热精品18| 幺妹视频福利视频| 果冻传媒在线观看完整版免费| 窝窝影院午夜看片毛片| 高H高肉强J短篇NP| 青青草原在线新免费| china中国gay偷拍| 女生下面免费看| 99久久国产视频| 男人私gay挠脚心vk视频| 51国产偷自视频在线视频播放| 久久热这里面只有精品| 樱花草在线观看影院| 久久草这在线观看免费| 亚洲中文字幕国产综合| 精品久久久亚洲精品中文字幕| 亚洲国产精品一区二区第一页| 国产亚洲精品在线视频| 亚洲AV无码专区国产精品麻豆| 国产三级在线观看视频| 亚洲 综合 欧美在线视频| 国产精品爽爽久久久久久蜜桃网站| 偷偷要色偷偷| 国产免费播放一区二区三区| 性欧美videos俄罗斯|