基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究

基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究

ID:35175340

大?。?.15 MB

頁數(shù):78頁

時(shí)間:2019-03-20

基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究_第1頁
基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究_第2頁
基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究_第3頁
基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究_第4頁
基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究_第5頁
資源描述:

《基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、東華大學(xué)碩士學(xué)位論文基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究專業(yè)名稱:控制科學(xué)與工程作者姓名:羅世操指導(dǎo)教師:丁永生學(xué)校代碼:10255學(xué)號:2131148基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究ImageSemanticsExtractionandRetrievalbasedonDeepLearning學(xué)院:信息科學(xué)與技術(shù)學(xué)院專業(yè):控制科學(xué)與工程姓名:羅世操導(dǎo)師:丁永生教授2016年1月東華大妻學(xué)位論文原創(chuàng)性巧明本人鄭重聲明:我恪守學(xué)術(shù)道德,崇尚嚴(yán)謹(jǐn)學(xué)風(fēng)。所呈交的學(xué)位論文,是本人在導(dǎo)師的指導(dǎo)下,獨(dú)立進(jìn)行研究工作所取得的成果。除文中

2、己明確注明和引用的內(nèi)容外,本論文不包含任何其他個(gè)人或集體已經(jīng)發(fā)表或撰寫過的作品及成果的內(nèi)容。論文為本人親自撰寫,我對所寫的內(nèi)容負(fù)責(zé),并完全意識到本聲明的法律結(jié)果由本人承擔(dān)。學(xué)位論文作者簽名’追托;羅曰期《Z:八年月沖日i.II.:東華大學(xué)學(xué)位論文版枚使用授權(quán)書學(xué)位論文作者完全了解學(xué)校有關(guān)保留、使用學(xué)位論文的規(guī)定,同意學(xué)校保留并向國家有關(guān)部口或機(jī)構(gòu)送交論文的復(fù)印件和電子版,允許論文被查閱或借閱。本人授權(quán)東華大學(xué)可[^將本學(xué)位論文的全部或部分內(nèi)容編入有關(guān)數(shù)據(jù)庫進(jìn)行檢索,可W采用影印、縮印或掃描等復(fù)制手段保存

3、和匯編本學(xué)位論文。保蠢□?,在年解密后適用本版權(quán)書。本學(xué)位論文屬于不操密曰(學(xué)位論文作者簽名;若指導(dǎo)教師簽曰期:義年么月呼曰曰期:心>'(年心月曰啥基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究摘要隨著移動(dòng)互聯(lián)網(wǎng)技術(shù)的飛速發(fā)展和智能手機(jī)廣泛普及,用戶每天都會(huì)上傳分享海量的圖像。如何讓用戶在海量的數(shù)據(jù)中準(zhǔn)確地找到自己真正需要的信息,讓企業(yè)有效地整合其龐大的圖像數(shù)據(jù)資源,是當(dāng)前很重要的研究課題。然而,傳統(tǒng)的基于內(nèi)容的圖像檢索技術(shù)是基于圖像底層視覺特征的,和人對圖像的認(rèn)知存在著巨大的“語義鴻溝”問題。因此,為了解決“語義鴻溝”問題而提出的基于語義

4、的圖像檢索成為圖像檢索領(lǐng)域中急需解決的關(guān)鍵問題之一。深度學(xué)習(xí)是在借鑒人腦視覺機(jī)制的基礎(chǔ)上發(fā)展起來的,和人腦視覺機(jī)制一樣,也是逐層迭代、逐層抽象的過程。深度學(xué)習(xí)最大的優(yōu)勢是可以自主學(xué)習(xí)圖像特征,從最底層的方向邊緣特征到物體結(jié)構(gòu)特征直至更抽象的特征。針對語義鴻溝問題,本論文基于深度學(xué)習(xí)理論,構(gòu)建一個(gè)從圖像底層視覺特征到高級語義特征逐層迭代、逐層抽象的深度網(wǎng)絡(luò)映射模型,旨在減小語義鴻溝,得到圖像語義特征提取系統(tǒng),并深入研究圖像語義相似性度量,為大規(guī)模圖像自動(dòng)標(biāo)注提供良好的基礎(chǔ),實(shí)現(xiàn)基于語義的圖像檢索技術(shù),真正有效地利用海量的圖像信息資源。本論文的主要工作如下:(1)針對圖

5、像檢索中語義鴻溝問題,將深度學(xué)習(xí)應(yīng)用到圖像語義特征提取中,構(gòu)建圖像底層視覺特征到高級語義特征逐層迭代、逐層I抽象的映射模型。(2)針對標(biāo)簽數(shù)據(jù)資源有限、無法支撐起深度網(wǎng)絡(luò)訓(xùn)練的現(xiàn)實(shí)情況,提出了一種無監(jiān)督的深度學(xué)習(xí)算法。先利用稀疏降噪自動(dòng)編碼器無監(jiān)督地學(xué)習(xí)得到卷積核(對應(yīng)于視覺機(jī)制中的感受野),然后利用遷移學(xué)習(xí)理論,把學(xué)習(xí)得到的卷積核傳遞給卷積神經(jīng)網(wǎng)絡(luò)。對于卷積核的個(gè)數(shù)和池化尺度對于圖像分類準(zhǔn)確率的影響做了深入研究。同時(shí),采取了多級分類器級聯(lián)的方法來提高分類準(zhǔn)確率。若移除最后分類器模塊,則可以把其當(dāng)成一個(gè)圖像語義特征提取器,根據(jù)圖像相似性度量方法,可以得到各圖像之間的

6、相似度,實(shí)現(xiàn)快速圖像檢索。(3)基于深度學(xué)習(xí)理論,提出了一種樸素的基于深度學(xué)習(xí)的圖像標(biāo)注方法。利用訓(xùn)練好的深度卷積神經(jīng)網(wǎng)絡(luò)提取待標(biāo)注圖像的語義特征,然后利用相似性度量得到基準(zhǔn)庫中最相近一些的圖像,根據(jù)這些圖像的自帶標(biāo)簽對待標(biāo)注圖像進(jìn)行語義標(biāo)注。在綜合考慮加大網(wǎng)絡(luò)深度能夠提高網(wǎng)絡(luò)抽象能力和隨之帶來的“梯度彌散”問題上,結(jié)合現(xiàn)有的數(shù)據(jù)集,在深度卷積神經(jīng)網(wǎng)絡(luò)中引入了多級特征級聯(lián)的方式,從而提高系統(tǒng)的魯棒性,提高語義標(biāo)注的準(zhǔn)確率。(4)最后,根據(jù)上面的研究設(shè)計(jì)了一個(gè)基于深度學(xué)習(xí)的圖像語義提取和檢索的原型系統(tǒng)。關(guān)鍵詞:深度學(xué)習(xí),圖像語義,圖像檢索,圖像標(biāo)注,多分類器級聯(lián)III

7、mageSemanticsExtractionandRetrievalbasedonDeepLearningABSTRACTWiththeprevalenceoftheInternetandthesmartphones,theusersuploadalargenumberofimagesontheweb.It’sdifficultforuserstofindwhattheyreallyneedfromtheseaofimages.It’salsonoteasyfortheInternetcompanyeffectivelyintegrateitsmassivei

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時(shí)聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶請聯(lián)系客服處理。