基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究

基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究

ID:37084521

大?。?.23 MB

頁數(shù):66頁

時(shí)間:2019-05-17

基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究_第1頁
基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究_第2頁
基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究_第3頁
基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究_第4頁
基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究_第5頁
資源描述:

《基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫

1、學(xué)校代號(hào)10532學(xué)號(hào)S1510W0622391密級(jí)分類號(hào)TP藝HUNANUNIVERSITY工程碩士學(xué)位論文基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究學(xué)位申請(qǐng)人姓名周曉曉培養(yǎng)單位信息科學(xué)與工程學(xué)院導(dǎo)師姓名及職稱趙歡教授、黃偉慶研究員學(xué)科專業(yè)計(jì)算機(jī)技術(shù)研究方向語音情感識(shí)別論文提交日期2018年5月15日學(xué)校代號(hào):10532學(xué)號(hào):S1510W0622密級(jí):湖南大學(xué)工程碩士學(xué)位論文基于神經(jīng)網(wǎng)絡(luò)與多

2、特征融合的維度語音情感識(shí)別研究學(xué)位申請(qǐng)人姓名:周曉曉導(dǎo)師姓名及職稱:趙歡教授、黃偉慶研究員培養(yǎng)單位:信息科學(xué)與工程學(xué)院專業(yè)名稱:計(jì)算機(jī)技術(shù)論文提交日期:2018年5月15日論文答辯日期:2018年5月26日答辯委員會(huì)主席:駱嘉偉教授TheResearchofDimensionalSpeechEmotionRecognitionbasedonNeuralNetworkandFusionFeaturesbyZHO

3、UXiaoxiaoB.E.HunanUniversit2015(y)AthesissubmittedinartialsatisfactionofthepRequirementsforthedegreeofMasterofEngineeringinComputerTechnologyintheGraduateSchoolofHunanUniversitySupervisorProfessorZHAOHuan、HU

4、ANGWeiinqgMa2018(y,)湖南大學(xué)學(xué)位論文原創(chuàng)性聲明本人鄭重聲明:所呈交的論文是本人在導(dǎo)師的指導(dǎo)下獨(dú)立進(jìn)行研宄所?。崳?。得的研究成果除了文中特別加以標(biāo)注引用的內(nèi)容外,本論文不包含任何其他個(gè)人或集體已經(jīng)發(fā)表或撰寫的成果作品。對(duì)本文的研究做出重要貢獻(xiàn)的個(gè)人和集體,均己在文中以明確方式標(biāo)明。本人完全意識(shí)到本聲明的法律后果由本人承擔(dān)。"丨作者簽名:>?年日:日期]月1學(xué)位論文版權(quán)使用授權(quán)書本學(xué)位論文作者完全了解學(xué)校有關(guān)保留、使用學(xué)位論文的規(guī)定,同意學(xué)校

5、保留并向國家有關(guān)部門或機(jī)構(gòu)送交論文的復(fù)印件和電子版,允許論文被查閱和借閱。本人授權(quán)湖南大學(xué)可以將本學(xué)位論文的全部或部分內(nèi)容編入有關(guān)數(shù)據(jù)庫進(jìn)行檢索、,可以采用影印縮印或掃描等復(fù)制手段保存和匯編本學(xué)位論文。本學(xué)位論文屬于1、保密口,在年解密后適用本授權(quán)書。2、不保密0。“”(請(qǐng)?jiān)谝陨舷鄳?yīng)方框內(nèi)打V)歡是:作者簽名:同日期年A月彳曰%一導(dǎo)師簽名:日期:必年A月%日I基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究摘要一語音作為人類日常表達(dá)和溝通中種主要

6、交流方式,不僅包含了所要表達(dá)的內(nèi)容信息。這使得語音情感識(shí)別成為智能語音信息處,還蘊(yùn)含了人類豐富的情感一理研究中最重要的方向之。語音情感識(shí)別的目的是使計(jì)算機(jī)從人類發(fā)出的語音信號(hào)中獲得人類的情感信息,讓機(jī)器能理解人的感性思維,從而使計(jì)算機(jī)更智能。一維度語音情感識(shí)別是語音情感研究的個(gè)新興方向,維度情感用精確的數(shù)值從連續(xù)的、多維的角度進(jìn)行人類情感的描述,從而回避了離散情感標(biāo)簽?zāi):院陀邢蓿崳娦缘膯栴},具有強(qiáng)大的情感描述能力,可以更自然地體現(xiàn)現(xiàn)實(shí)中的情感。目前,已經(jīng)有不少的研究者關(guān)注了維度

7、語音情感識(shí)別研究,但有效的維度語音情感特征和情感識(shí)別算法仍有待提出,維度語音情感識(shí)別的性能也有待提升。本文基于現(xiàn)有的傳統(tǒng)離散語音情感識(shí)別知識(shí),先從維度離散化的語音著手,一工作如下然后進(jìn)步過渡到維度語音情感識(shí)別,本論文的主要:一個(gè)基于不流利本文提出、非語言情感特征和雙向長短期記憶遞歸神經(jīng)網(wǎng)絡(luò)模型的維度離散化情感識(shí)別系統(tǒng)。與傳統(tǒng)語音情感識(shí)別中常用的情感特征相比,不流利、非語言的情感特征不僅是專門針對(duì)語音情感所提出的,而且在特征數(shù)量“”上具有明顯的優(yōu)勢。并且,雙向長短期記憶遞歸

8、神經(jīng)網(wǎng)絡(luò)模型具有雙向?qū)W習(xí)特性。在此基礎(chǔ)上,本文在音視頻情感挑戰(zhàn)2012語料庫上進(jìn)行實(shí)驗(yàn)并證明,提出方法的識(shí)別精確度提?了10%左右。一種基于不流利本文提出、非語言情感特征和低級(jí)別描述符特征的維度情感一識(shí)別方法。首先,得到個(gè)基于,本文利用音視頻情感挑戰(zhàn)賽2012語料庫的信息。、句子情感標(biāo)注結(jié)果的語料庫其次,在計(jì)算不流利非語言情感特征值時(shí),用真實(shí)的句子長度信息代替假設(shè)的句子長度信息(假設(shè)每個(gè)句子長度都為15個(gè)單詞),

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。