多特征融合人臉表情識(shí)別方法研究

多特征融合人臉表情識(shí)別方法研究

ID:35072227

大小:3.25 MB

頁(yè)數(shù):73頁(yè)

時(shí)間:2019-03-17

多特征融合人臉表情識(shí)別方法研究_第1頁(yè)
多特征融合人臉表情識(shí)別方法研究_第2頁(yè)
多特征融合人臉表情識(shí)別方法研究_第3頁(yè)
多特征融合人臉表情識(shí)別方法研究_第4頁(yè)
多特征融合人臉表情識(shí)別方法研究_第5頁(yè)
資源描述:

《多特征融合人臉表情識(shí)別方法研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)

1、分類號(hào):TP37密級(jí):公開(kāi)UDC:004.5編號(hào):10299S1308031碩士學(xué)位論文多特征融合人臉表情識(shí)別方法研究ResearchonFacialExpressionRecognitionMethodsbasedonMulti-featuresFusion作者姓名丁澤超指導(dǎo)教師詹永照教授申請(qǐng)學(xué)位級(jí)別工學(xué)碩士學(xué)科(專業(yè))計(jì)算機(jī)應(yīng)用技術(shù)論文提交日期2016年4月論文答辯日期2016年5月學(xué)位授予單位和日期江蘇大學(xué)2016年6月答辯委員會(huì)主席_______________評(píng)閱人_____________學(xué)位論文版權(quán)使用

2、授權(quán)書本學(xué)位論文作者完全了解學(xué)校有關(guān)保留、使用學(xué)位論文的規(guī)定,同意學(xué)校保留并向國(guó)家有關(guān)部門或機(jī)構(gòu)送交論文的復(fù)印件和電子版,允許論文被查閱和借閱。本人授權(quán)江蘇大學(xué)可以將本學(xué)位論文的全部?jī)?nèi)容或部分內(nèi)容編入有關(guān)數(shù)據(jù)集進(jìn)行檢索,可以采用影印、縮印或掃描等復(fù)制手段保存和匯編本學(xué)位論文。保密,在年解密后適用本授權(quán)書。本學(xué)位論文屬于不保密√。學(xué)位論文作者簽名:導(dǎo)師簽名:簽字日期:年月日簽字日期:年月日獨(dú)創(chuàng)性聲明本人鄭重聲明:所呈交的學(xué)位論文,是本人在導(dǎo)師的指導(dǎo)下,獨(dú)立進(jìn)行研究工作所取得的成果。除文中已經(jīng)注明引用的內(nèi)容以外,本論文不

3、包含任何其他個(gè)人或集體已經(jīng)發(fā)表或撰寫過(guò)的作品成果。對(duì)本文的研究做出重要貢獻(xiàn)的個(gè)人和集體,均已在文中以明確方式標(biāo)明。本人完全意識(shí)到本聲明的法律結(jié)果由本人承擔(dān)。學(xué)位論文作者簽名:日期:年月日江蘇大學(xué)碩士學(xué)位論文摘要隨著人工智能技術(shù)的不斷發(fā)展與完善,人臉表情識(shí)別逐漸成為人工智能和人機(jī)交互領(lǐng)域的一個(gè)重要研究方向,具有深遠(yuǎn)的理論意義和應(yīng)用前景。實(shí)現(xiàn)計(jì)算機(jī)的人臉表情識(shí)別將更好地推動(dòng)人工智能技術(shù)的發(fā)展與應(yīng)用,甚至對(duì)心理學(xué)等學(xué)科的發(fā)展都起到極大的推動(dòng)作用。同時(shí)由于人類情感和人臉表情的復(fù)雜性,單一模態(tài)的特征不能很好地提高人臉表情識(shí)別的

4、準(zhǔn)確率。通過(guò)閱讀國(guó)內(nèi)外大量的文獻(xiàn)與資料,對(duì)人臉表情識(shí)別的若干問(wèn)題進(jìn)行了探討與分析,并針對(duì)多種特征融合的表情識(shí)別進(jìn)行了較深入的研究。首先闡述了人臉表情識(shí)別領(lǐng)域的研究背景與應(yīng)用領(lǐng)域;然后概括了表情識(shí)別目前的研究現(xiàn)狀;接著提出了特征層融合的方法與決策層融合的方法,并對(duì)提出的這兩種方法進(jìn)行實(shí)驗(yàn)驗(yàn)證。研究?jī)?nèi)容與創(chuàng)新點(diǎn)主要如下:(1)提出可鑒別的多特征聯(lián)合稀疏表示人臉表情識(shí)別方法。針對(duì)目前多種特征聯(lián)合的方式多為線性組合方式的問(wèn)題,本文提出了一種融合圖像紋理特征和全局位置信息的可鑒別的多特征聯(lián)合稀疏表示人臉表情識(shí)別方法。該方法首先

5、獲取人臉圖像的紋理特征和全局位置信息,構(gòu)建訓(xùn)練字典,通過(guò)引入鑒別損失函數(shù),優(yōu)化稀疏表示的字典。然后在懲罰函數(shù)中引入基于類級(jí)聯(lián)合稀疏正則項(xiàng),對(duì)局部紋理特征和全局位置信息進(jìn)行聯(lián)合稀疏表示,并將稀疏表示獲得的稀疏系數(shù)矩陣送入支持向量機(jī)進(jìn)行訓(xùn)練和表情識(shí)別。實(shí)驗(yàn)結(jié)果表明,該方法在降低聯(lián)合特征維度的同時(shí),能夠挖掘多種特征之間的關(guān)聯(lián)性,并使得學(xué)習(xí)到的稀疏系數(shù)更具鑒別性,與新近的多特征融合人臉表情識(shí)別方法相比,在BU_3DFE人臉表情數(shù)據(jù)集的7種情感的平均識(shí)別率提高了2.5%-5%。(2)提出基于局部可鑒別性和代價(jià)敏感Adaboos

6、t的人臉表情集成識(shí)別方法。針對(duì)單一分類器識(shí)別結(jié)果具有不確定性的問(wèn)題提出基于局部可鑒別性和代價(jià)敏感Adaboost的人臉表情集成識(shí)別方法。該方法可分為兩階段,第一階段為弱分類器選擇階段,在每一輪迭代中計(jì)算每個(gè)訓(xùn)練樣本的局部可鑒別因子,選取最大的局部可鑒別因子作為本輪的可鑒別因子,并且選擇相應(yīng)的弱分類器作為本輪最優(yōu)的弱分類器;第二階段為權(quán)重更新階段,通過(guò)引入代價(jià)敏感的損失函數(shù),在每一輪迭代過(guò)程中最小化誤分類代價(jià)獲取該輪弱分類器的權(quán)重,并更新訓(xùn)練樣本分I多特征融合人臉表情識(shí)別方法研究布權(quán)重;最后用弱分類器組合成的強(qiáng)分類器對(duì)

7、樣本進(jìn)行表情識(shí)別。在BU_3DFE上的實(shí)驗(yàn)結(jié)果表明,該方法能有效地使傳統(tǒng)Adaboost由求解訓(xùn)練錯(cuò)誤率最小轉(zhuǎn)變?yōu)榍蠼庹`分類代價(jià)最小,并且能夠降低錯(cuò)分樣本被選中的概率,改善Adaboost算法性能,提高分類的準(zhǔn)確率。(3)設(shè)計(jì)并實(shí)現(xiàn)基于多特征融合的人臉表情識(shí)別的原型系統(tǒng),采用面向?qū)ο蟮乃枷?,并使用MATLAB和VC#進(jìn)行混合編程,實(shí)現(xiàn)了人臉區(qū)域檢測(cè)、關(guān)鍵點(diǎn)標(biāo)注、人臉圖像預(yù)處理、特征提取、字典學(xué)習(xí)、特征融合、稀疏表示、Adaboost算法等模塊,完成多特征融合的人臉表情識(shí)別方法的原型系統(tǒng),通過(guò)實(shí)驗(yàn)進(jìn)一步說(shuō)明所提方法的可

8、用性。關(guān)鍵詞:表情識(shí)別,特征融合,聯(lián)合稀疏表示,代價(jià)敏感,Adaboost算法II江蘇大學(xué)碩士學(xué)位論文ABSTRACTWiththecontinuousdevelopmentandperfectionofartificialintelligence,facialexpressionrecognitionisbecominganimportant

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。