資源描述:
《基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、學(xué)校代號(hào)10532學(xué)號(hào)S1510W0622391密級(jí)分類號(hào)TP藝HUNANUNIVERSITY工程碩士學(xué)位論文基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究學(xué)位申請(qǐng)人姓名周曉曉培養(yǎng)單位信息科學(xué)與工程學(xué)院導(dǎo)師姓名及職稱趙歡教授、黃偉慶研究員學(xué)科專業(yè)計(jì)算機(jī)技術(shù)研究方向語音情感識(shí)別論文提交日期2018年5月15日學(xué)校代號(hào):10532學(xué)號(hào):S1510W0622密級(jí):湖南大學(xué)工程碩士學(xué)位論文基于神經(jīng)網(wǎng)絡(luò)與多
2、特征融合的維度語音情感識(shí)別研究學(xué)位申請(qǐng)人姓名:周曉曉導(dǎo)師姓名及職稱:趙歡教授、黃偉慶研究員培養(yǎng)單位:信息科學(xué)與工程學(xué)院專業(yè)名稱:計(jì)算機(jī)技術(shù)論文提交日期:2018年5月15日論文答辯日期:2018年5月26日答辯委員會(huì)主席:駱嘉偉教授TheResearchofDimensionalSpeechEmotionRecognitionbasedonNeuralNetworkandFusionFeaturesbyZHO
3、UXiaoxiaoB.E.HunanUniversit2015(y)AthesissubmittedinartialsatisfactionofthepRequirementsforthedegreeofMasterofEngineeringinComputerTechnologyintheGraduateSchoolofHunanUniversitySupervisorProfessorZHAOHuan、HU
4、ANGWeiinqgMa2018(y,)湖南大學(xué)學(xué)位論文原創(chuàng)性聲明本人鄭重聲明:所呈交的論文是本人在導(dǎo)師的指導(dǎo)下獨(dú)立進(jìn)行研宄所?。崳?。得的研究成果除了文中特別加以標(biāo)注引用的內(nèi)容外,本論文不包含任何其他個(gè)人或集體已經(jīng)發(fā)表或撰寫的成果作品。對(duì)本文的研究做出重要貢獻(xiàn)的個(gè)人和集體,均己在文中以明確方式標(biāo)明。本人完全意識(shí)到本聲明的法律后果由本人承擔(dān)。"丨作者簽名:>?年日:日期]月1學(xué)位論文版權(quán)使用授權(quán)書本學(xué)位論文作者完全了解學(xué)校有關(guān)保留、使用學(xué)位論文的規(guī)定,同意學(xué)校
5、保留并向國家有關(guān)部門或機(jī)構(gòu)送交論文的復(fù)印件和電子版,允許論文被查閱和借閱。本人授權(quán)湖南大學(xué)可以將本學(xué)位論文的全部或部分內(nèi)容編入有關(guān)數(shù)據(jù)庫進(jìn)行檢索、,可以采用影印縮印或掃描等復(fù)制手段保存和匯編本學(xué)位論文。本學(xué)位論文屬于1、保密口,在年解密后適用本授權(quán)書。2、不保密0。“”(請(qǐng)?jiān)谝陨舷鄳?yīng)方框內(nèi)打V)歡是:作者簽名:同日期年A月彳曰%一導(dǎo)師簽名:日期:必年A月%日I基于神經(jīng)網(wǎng)絡(luò)與多特征融合的維度語音情感識(shí)別研究摘要一語音作為人類日常表達(dá)和溝通中種主要
6、交流方式,不僅包含了所要表達(dá)的內(nèi)容信息。這使得語音情感識(shí)別成為智能語音信息處,還蘊(yùn)含了人類豐富的情感一理研究中最重要的方向之。語音情感識(shí)別的目的是使計(jì)算機(jī)從人類發(fā)出的語音信號(hào)中獲得人類的情感信息,讓機(jī)器能理解人的感性思維,從而使計(jì)算機(jī)更智能。一維度語音情感識(shí)別是語音情感研究的個(gè)新興方向,維度情感用精確的數(shù)值從連續(xù)的、多維的角度進(jìn)行人類情感的描述,從而回避了離散情感標(biāo)簽?zāi):院陀邢蓿崳娦缘膯栴},具有強(qiáng)大的情感描述能力,可以更自然地體現(xiàn)現(xiàn)實(shí)中的情感。目前,已經(jīng)有不少的研究者關(guān)注了維度
7、語音情感識(shí)別研究,但有效的維度語音情感特征和情感識(shí)別算法仍有待提出,維度語音情感識(shí)別的性能也有待提升。本文基于現(xiàn)有的傳統(tǒng)離散語音情感識(shí)別知識(shí),先從維度離散化的語音著手,一工作如下然后進(jìn)步過渡到維度語音情感識(shí)別,本論文的主要:一個(gè)基于不流利本文提出、非語言情感特征和雙向長短期記憶遞歸神經(jīng)網(wǎng)絡(luò)模型的維度離散化情感識(shí)別系統(tǒng)。與傳統(tǒng)語音情感識(shí)別中常用的情感特征相比,不流利、非語言的情感特征不僅是專門針對(duì)語音情感所提出的,而且在特征數(shù)量“”上具有明顯的優(yōu)勢。并且,雙向長短期記憶遞歸
8、神經(jīng)網(wǎng)絡(luò)模型具有雙向?qū)W習(xí)特性。在此基礎(chǔ)上,本文在音視頻情感挑戰(zhàn)2012語料庫上進(jìn)行實(shí)驗(yàn)并證明,提出方法的識(shí)別精確度提?了10%左右。一種基于不流利本文提出、非語言情感特征和低級(jí)別描述符特征的維度情感一識(shí)別方法。首先,得到個(gè)基于,本文利用音視頻情感挑戰(zhàn)賽2012語料庫的信息。、句子情感標(biāo)注結(jié)果的語料庫其次,在計(jì)算不流利非語言情感特征值時(shí),用真實(shí)的句子長度信息代替假設(shè)的句子長度信息(假設(shè)每個(gè)句子長度都為15個(gè)單詞),