基于多尺度信息融合的人臉識(shí)別方法研究

基于多尺度信息融合的人臉識(shí)別方法研究

ID:35106167

大?。?.64 MB

頁數(shù):66頁

時(shí)間:2019-03-18

基于多尺度信息融合的人臉識(shí)別方法研究_第1頁
基于多尺度信息融合的人臉識(shí)別方法研究_第2頁
基于多尺度信息融合的人臉識(shí)別方法研究_第3頁
基于多尺度信息融合的人臉識(shí)別方法研究_第4頁
基于多尺度信息融合的人臉識(shí)別方法研究_第5頁
資源描述:

《基于多尺度信息融合的人臉識(shí)別方法研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。

1、送巧編號(hào)10394困書分類號(hào)學(xué)^20130596密級(jí):f丟走巧挺火爭(zhēng)T禱j全日制學(xué)術(shù)學(xué)位研究生碩:t學(xué)位論文一社基于多尺度信息融合的人臉識(shí)別方法研究■^?咬FaceRecognitionBasedonMuldscalen氣Infbrma村onFusio:苗學(xué)科專業(yè):計(jì)計(jì)算貸斯機(jī)劍恆用巧技米也-處.乃.,研巧方向:數(shù)據(jù)挖掘與人工智能爭(zhēng)指導(dǎo)教師:郭身弓德教授■申請(qǐng)學(xué)位級(jí)別r:工學(xué)碩±%■論文提交日期:年月日

2、^'^許論文評(píng)閱人?。牐墸崳姡壵摿x答辯日期:年月日-答辯委員會(huì)主席:ff■學(xué)位按予日期:年月日'2016年月:Mr章',#.余譜署.補(bǔ)?。崳姡海墸椋崳姡ⅲ崳姡墸В牐郑牐墸墸墸?;乂分聲、-夸中文摘要中文摘要生物識(shí)別技術(shù)在過去的二十年里取得了快速的進(jìn)展。許多的特征描述子都是在這段時(shí)間里所提出的,如HOG、MSER、Gabor和LBP。然而,即使應(yīng)用了這些描述子,人臉識(shí)別技術(shù)的有效性仍然有待提高。為了使這些特征描述子更好地發(fā)揮作用一,有必要引入信息

3、融合技術(shù),包括融合來自不同描述子的持征W及融合同個(gè)描述子所提取到的持征。因此,本文著重于研究多尺度信息誠(chéng)合在人臉識(shí)別上的應(yīng)用。論文的主要內(nèi)容可概括如下:一一(1)從特征工程的角度對(duì)基于多尺度的方法進(jìn)行了分析,并提出了種般性的多尺度信息融合方法來更有效地利用同一種描述子所提取出的特征。在這種方法中一,對(duì)于毎張人臉圖片將提取出多個(gè)對(duì)應(yīng)于不同參數(shù)組合的特征向量。這些特征向量會(huì)被加權(quán)并融合于一個(gè)距離函數(shù)中。本文通過此方法對(duì)LBP和HOG進(jìn)行改造,并在AR和FERET人臉數(shù)據(jù)庫(kù)上進(jìn)斤了評(píng)估。實(shí)驗(yàn)結(jié)果表明

4、,該方法能夠有效地提升識(shí)別的效果。一(2)然而,該方法額外地引入了些需要優(yōu)化的參數(shù),這使得它在使用中較為一一不便。因化本文提出了種自適應(yīng)的信息融合方法,它引入了種基于均值的LBP(mLBP),并通過増加參數(shù)的自適應(yīng)模塊對(duì)mLBP進(jìn)行了擴(kuò)展。該方法包含四個(gè)一;。步驟首先,生成大量的初始特征其次,使用種基于Fisher準(zhǔn)則的評(píng)分方法來對(duì)不同特征組的判別能為進(jìn)行評(píng)估一。接著,提出了種新穎的梭柱體積模型來進(jìn)巧一。最優(yōu)參數(shù)集合的選擇最后,將提取到的多尺度信息融合于個(gè)距離函數(shù)中,并用—于分類。在ORL

5、和AR人臉數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果顯示,所提出的方法能夠W種自適應(yīng)的方式學(xué)習(xí)到參數(shù),并且與反復(fù)嘗試所獲得的最優(yōu)參數(shù)相比能夠獲得相近的分類精度。關(guān)鍵詞:人臉識(shí)別息融合適應(yīng)多尺度LBPHOG;信;自;;;IAbstractAbstractBiometrictechnoloieshaveadvancedraidlyintheasttwentears.Andmangppyyyfeaturedescriptorsweredevelopedduringthisperi

6、odoftime,suchasHOQMSER,GaborandLBP.Butfacialreconitionisstillbeinuestionedaboutitsefectiveness,ggqeventhoughthesedescriptorsareused?虹ordertomakethesefeaturedescripto巧lapybeterandmoresuficie凸troles化isnecessar化introducefe

7、aturefiisio打technolie,yogsincludinfusinthe技aturesfromdiferentdescritorsandfUsinthe挺aturesfromtheggpgsamedescriptor.Thusthisaerfocusesonmultiscalefeaturefusion.Themaincontentsppofourworkcanbesummarizedasfollows:eresened-ne

8、ern1Wtananalsisofmultiscalebasedaroachfromfeatureenii()pyppggperspectiveandroosedaeneralmultiscaleinformationfusionmethodofutilizinthepp

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。