資源描述:
《基于ann和gmm融合的語音情感識(shí)別方法的研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、學(xué)校代碼:10286_.據(jù)\X.碩±學(xué)位論文基于ANN和GMM融合的語音情感識(shí)別方法的研究-弟研究生姓名I:表、導(dǎo)師姓名;T呵申請(qǐng)舉你類別工學(xué)柿+學(xué)仿巧予單仿東南大學(xué)一級(jí)學(xué)科名疏信息與巧信工程論義答辯日期年4月2016f日/二級(jí)學(xué)科名稱信S與信烏化巧學(xué)仿巧予日期2016達(dá)月曰答辯蠶員會(huì)豐席評(píng)閱人20化年4月日來兩未嗦碩i學(xué)位論文基于ANN和G圓融合的語音情感巧別方法的研究是成1;?。崳妼I(yè)名觀作研究生姓名/:瓜才、
2、家嘴導(dǎo)師姓名:RESEARCHONS巧ECHEMOTIONRECOGNITIONBASEDONTHEFUSIONOFANNANDGMMAThesisSubmi打edtoSoutheastUniversityFortheAcademicDereeofMasterofEngineeringgBYSuervisedbpySchoolofInformatEriionScienceandngineengSoutheastUniv
3、ersityApril2016東南大學(xué)學(xué)位論文獨(dú)詢性汚明圓本人聲明所呈交的學(xué)位論文是我個(gè)人在導(dǎo)師指導(dǎo)下進(jìn)行的研究工作及取得的研究成果。盡我所知,論,,除了文中特別加W標(biāo)注和致謝的地方外文中不包含其他人已經(jīng)發(fā)表或撰寫過的研巧成果也不包含為獲得東南大學(xué)或其它教育機(jī)構(gòu)的學(xué)位或證書而使用過的材料一。與我同工作的同志對(duì)本研巧所做的任何貢獻(xiàn)均已在論文中作了明確的說明并表示了謝意。研究生簽名:■束日期:W八乂_至東南大學(xué)學(xué)位論文使用授權(quán)寅明東南大學(xué)、中國科學(xué)技術(shù)信息研巧所、國家圖書
4、館有權(quán)保留本人所送交學(xué)位論文的復(fù)印件和電子文檔,可W采用影印、縮印或其他復(fù)制手段保存論文。本人電子文檔的內(nèi)容和紙質(zhì)論文的內(nèi)容相一,可W公布(包括W電子信息形式刊登)致。除在保密期內(nèi)的保密論文外,允許論文被查閱和借閱論文的全部內(nèi)容或中、英文摘要等部分內(nèi)容。論文的公布(包括W電子信息形式刊登)授權(quán)東南大學(xué)研巧生院辦理。研究生簽名:導(dǎo)師簽名::二日期^摘要—人機(jī)交互是人與計(jì)算機(jī)之間使用某種對(duì)話語言,W定的交互方式,為完成確定任務(wù)的人與計(jì)算機(jī)之間的信息交換過程,是汁算機(jī)智能的重要
5、體現(xiàn),同時(shí)也可W讓計(jì)算機(jī)更好的為人類服務(wù)。語一音情感識(shí)別對(duì)發(fā)展人機(jī)交互來說至關(guān)重要。目前,語音情感識(shí)別的研巧是口綜合認(rèn)知科學(xué)、生理學(xué)、也理學(xué)、語言學(xué)、計(jì)算機(jī)科學(xué)等多學(xué)科的熱點(diǎn)研究課題,正越來越受到國內(nèi)外科研機(jī)構(gòu)和研究人員的重視。本文主要圍繞人工神經(jīng)網(wǎng)絡(luò)和高斯混合模型展開語音情感識(shí)別的研巧,在原有結(jié)構(gòu)模型的基礎(chǔ)上從算法層面入手提出改進(jìn)的方法,W期提富相關(guān)模型的識(shí)別精度和識(shí)別效率,并在文章最后提出了一種髙斯混合模型和神經(jīng)網(wǎng)絡(luò)混合的語音情感識(shí)別模型。本論文的主要研究內(nèi)容和創(chuàng)新點(diǎn)如下:(1)闡
6、述了語音情感識(shí)別的研究背景與意義,總結(jié)了當(dāng)前國內(nèi)外的研究現(xiàn)狀,并對(duì)當(dāng)前有待深入研巧和亟待解決的理論和技術(shù)問題進(jìn)行了說明。一些基礎(chǔ)知識(shí)(2)概述了與情感相關(guān)的,包括情感的定義與情感的分類。設(shè)計(jì)并錄制了漢語語音情感數(shù)據(jù)庫,該庫包含高興、憤怒、驚訝、悲傷等四種基本情感,且全部語音樣本都經(jīng)過有效性檢驗(yàn)W確保數(shù)據(jù)符合規(guī)范。完成了語音情感識(shí)別過程中需要進(jìn)行的預(yù)處理工作,銜述了本文所用到的情感特征參數(shù)的提取方式W及情感特征向量的舊一化方法。(3)研究了基于Elman神經(jīng)網(wǎng)絡(luò)的語音情感識(shí)別,并運(yùn)用萬有引力
7、搜索算法(GravitationalSearchAlgorithm,GSA)對(duì)Elman網(wǎng)絡(luò)進(jìn)斤優(yōu)化,算法的核也思想是運(yùn)用萬有引力定律通過位置尋優(yōu)來不斷更新網(wǎng)絡(luò)的權(quán)值參數(shù),最終實(shí)現(xiàn)網(wǎng)絡(luò)的最優(yōu)化。(4)介紹了離斯混合模型(GMM)的EM化化算法,并分析了傳統(tǒng)EM算法的缺點(diǎn)。由此本一一文研巧了種基于改進(jìn)的GMM算法的語音情感識(shí)別方法,該算法通過設(shè)定個(gè)初始GMM模型,運(yùn)用迭代方式不斷修正M值和GMM網(wǎng)絡(luò)的參數(shù),直至得到最終的GMM模型。(5)研巧了GMM和深度信念網(wǎng)絡(luò)融合的語音情感識(shí)別方法。
8、在受限玻爾茲曼機(jī)(RestrictedBoltzmannMachines,RBM)模型基礎(chǔ)上構(gòu)建深度信念網(wǎng)絡(luò)化eepBeliefNetworic,DBN),最后提出了一種多維GMM輸出與深度信念神經(jīng)網(wǎng)絡(luò)相融合的方法實(shí)現(xiàn)語音情感識(shí)別。:語音情感識(shí)別,,,關(guān)隹字,埃爾曼遞歸神經(jīng)網(wǎng)絡(luò)萬有引力算法高斯混合模型深度信念網(wǎng)絡(luò)IAbstnctAbstra