基于深度信念網(wǎng)絡(luò)的在線社交圖像分類研究

基于深度信念網(wǎng)絡(luò)的在線社交圖像分類研究

ID:35067105

大?。?.67 MB

頁數(shù):68頁

時(shí)間:2019-03-17

基于深度信念網(wǎng)絡(luò)的在線社交圖像分類研究_第1頁
基于深度信念網(wǎng)絡(luò)的在線社交圖像分類研究_第2頁
基于深度信念網(wǎng)絡(luò)的在線社交圖像分類研究_第3頁
基于深度信念網(wǎng)絡(luò)的在線社交圖像分類研究_第4頁
基于深度信念網(wǎng)絡(luò)的在線社交圖像分類研究_第5頁
資源描述:

《基于深度信念網(wǎng)絡(luò)的在線社交圖像分類研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、分類號(hào)TP391?密級(jí)公開UDC004.93?學(xué)位論文編號(hào)D1061730852(2016)02043?重慶郵電大學(xué)碩士學(xué)位論文中文題目基于深度信念網(wǎng)絡(luò)的在線社交圖像分類研究英文題目Research?onOnline?SocialNetwork?Image?Classification?Based?on?DeepBelief?Network?學(xué)號(hào)S130231044?姓名王永超學(xué)位類別工程碩士學(xué)科專業(yè)計(jì)算機(jī)技術(shù)指導(dǎo)教師楊春德教授完成日期2016?年4月9?日獨(dú)創(chuàng)性聲明本人聲明所呈交的學(xué)位論文是本人在導(dǎo)師指導(dǎo)下進(jìn)行的研巧工作及取得的研,論文中

2、不包含他人巧成果,。盡我所知除了文中特別加W標(biāo)注和致謝的地方外己經(jīng)發(fā)表或撰寫過的研巧成果,沖.不巧含為獲得重慶郵電大學(xué)或其他單位的學(xué)位或證書而使用過的材料一己在。與我同工作的人員對(duì)本文研究做出的貢獻(xiàn)均論文中作了明確的說明并致^1[^謝意。'日=年月作者簽名:心嶺日期5氣學(xué)位論文版權(quán)使用授權(quán)書紙質(zhì)版和電子版TrA了^重庫郵由大學(xué)有權(quán)保留、使用學(xué)位論文|。家有關(guān)部口或機(jī)構(gòu)送交論文,化許論文被查閱和借閱等的規(guī)定,即學(xué)校有權(quán)向國或部分內(nèi)容’可編入有卞A積朽竜庫郵由大堂可W公布本學(xué)位論文的全部或評(píng)價(jià)、掃描或拷貝

3、,可采用影印、縮印關(guān)數(shù)據(jù)庫或信息系統(tǒng)進(jìn)行檢索、分析編本學(xué)位論文。等復(fù)制手段保存、匯密后適用本授權(quán)書。)(注:保密的學(xué)位論文在解導(dǎo)師簽名:作者簽名:如嫂^'卡曰巧:月v曰曰日期;的U年矣月y|j重慶郵電大學(xué)碩士學(xué)位論文摘要摘要隨著互聯(lián)網(wǎng)技術(shù)的快速發(fā)展和Web3.0?時(shí)代的到來,在線社交網(wǎng)絡(luò)在日常生活中的應(yīng)用越來越普及,它為用戶提供了隨時(shí)、隨地進(jìn)行信息交互,分享博客、視頻、圖像等信息的平臺(tái),產(chǎn)生了海量的“在線社交網(wǎng)絡(luò)數(shù)據(jù)”。作為“在線社交網(wǎng)絡(luò)數(shù)據(jù)”的重要組成部分,圖像已經(jīng)成為大數(shù)據(jù)時(shí)代的重要信息載體之一。隨著社交網(wǎng)絡(luò)圖像數(shù)量的不斷

4、增加,其存儲(chǔ)無組織性也越來越明顯,而且社交網(wǎng)絡(luò)圖像所包含的豐富信息也未被有效利用。因此,如何快速高效地提取在線社交網(wǎng)絡(luò)圖像中所蘊(yùn)含的信息,實(shí)現(xiàn)快速準(zhǔn)確的分類,已經(jīng)成為圖像處理領(lǐng)域的研究熱點(diǎn)之一。本文主要以深度學(xué)習(xí)的常用模型深度信念網(wǎng)絡(luò)(Deep?BeliefNetwork,DBN)為研究對(duì)象,針對(duì)深度信念網(wǎng)絡(luò)在訓(xùn)練過程中存在初始學(xué)習(xí)率選取的問題進(jìn)行了深入的研究,主要研究內(nèi)容為:1.本文改進(jìn)了一種基于重構(gòu)誤差增量判別的自適應(yīng)學(xué)習(xí)率與增加動(dòng)量的權(quán)值更新準(zhǔn)則相結(jié)合的DBN訓(xùn)練方法,將改進(jìn)后的DBN與SVM相結(jié)合,構(gòu)成了一種基于改進(jìn)的DBNSVM的圖像分類

5、方法。最后將該圖像分類方法在MINST手寫數(shù)字?jǐn)?shù)據(jù)集上進(jìn)行了驗(yàn)證。在仿真實(shí)驗(yàn)中,通過與ANN、SVM、DBN、DBNSVM四種圖像分類方法對(duì)比,驗(yàn)證了本文提出改進(jìn)方法的有效性。2.本文提出了一種基于API的新浪微博數(shù)據(jù)獲取方法。該方法通過調(diào)用新浪微博開放平臺(tái)提供的位置服務(wù)接口組中的place/nearby_timeline?接口獲取某個(gè)位置周邊的動(dòng)態(tài),從而獲取用戶上傳的圖像以及發(fā)布動(dòng)態(tài)的時(shí)間、地理位置和記錄總條數(shù)等數(shù)據(jù),最后將經(jīng)過解析的JSON格式數(shù)據(jù)構(gòu)成新浪微博數(shù)據(jù)集。3.以新浪微博為例,利用在線社交網(wǎng)絡(luò)圖像文本特征提取的便捷性,本文提出了一種基

6、于DBNSVM的在線社交網(wǎng)絡(luò)圖像分類方法,將該圖像分類方法與其他四種常用的分類方法在新浪微博數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)仿真,并將該方法應(yīng)用于運(yùn)動(dòng)品牌關(guān)注度評(píng)估中。最后對(duì)研究工作總結(jié),并指出后續(xù)的研究方向,為進(jìn)一步研究開拓了思路。關(guān)鍵詞:深度學(xué)習(xí),深度信念網(wǎng)絡(luò),支持向量機(jī),在線社交網(wǎng)絡(luò),圖像分類I重慶郵電大學(xué)碩士學(xué)位論文Abstract?AbstractWiththerapid?development?ofinternet?technology?and?theadvent?ofWeb3.0era,online?socialnetwork?applicatio

7、nshasbecome?increasinglypopular?in?daily?life.It?providesuserswitha?platform?to?exchange?ofinformation?andshareblogs,videosand?images,whichproduct?amassive?online?socialnetworkdata.Asa?significantcomponent?ofonline?socialnetworkdata,imagehasbecome?animportant?carrier?inthebig?

8、dataera.Withthe?increasing?ofthe?number?ofsocialnetwork?image

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請(qǐng)放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請(qǐng)聯(lián)系客服處理。