基于深度學(xué)習(xí)的圖像目標(biāo)識別研究

基于深度學(xué)習(xí)的圖像目標(biāo)識別研究

ID:37071882

大?。?.16 MB

頁數(shù):74頁

時間:2019-05-16

基于深度學(xué)習(xí)的圖像目標(biāo)識別研究_第1頁
基于深度學(xué)習(xí)的圖像目標(biāo)識別研究_第2頁
基于深度學(xué)習(xí)的圖像目標(biāo)識別研究_第3頁
基于深度學(xué)習(xí)的圖像目標(biāo)識別研究_第4頁
基于深度學(xué)習(xí)的圖像目標(biāo)識別研究_第5頁
資源描述:

《基于深度學(xué)習(xí)的圖像目標(biāo)識別研究》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、分類號:密級:UDC:編號:工學(xué)碩士學(xué)位論文基于深度學(xué)習(xí)的圖像目標(biāo)識別研究碩士研究生:陳志韜指導(dǎo)教師:于秀萍教授學(xué)科、專業(yè):控制工程論文主審人:哈爾濱工程大學(xué)2018年6月分類號:密級:UDC:編號:工學(xué)碩士學(xué)位論文基于深度學(xué)習(xí)的圖像目標(biāo)識別研究碩士研究生:陳志韜指導(dǎo)教師:于秀萍教授學(xué)位級別:工學(xué)碩士學(xué)科、專業(yè):控制科學(xué)與工程所在單位:自動化學(xué)院論文提交日期:2018年5月8日論文答辯日期:2018年6月2日學(xué)位授予單位:哈爾濱工程大學(xué)ClassifiedIndex:U.D.C:ADissertationfortheDegreeofM.EngTheResearchonImageT

2、argetRecognitionBasedonDeepLearningCandidate:ChenZhitaoSupervisor:Prof.YuXiupingAcademicDegreeAppliedfor:MasterofEngineeringSpecialty:ControlEngineeringDateofSubmission:May.2018DateofOralExamination:June.2018University:HarbinEngineeringUniversity哈爾濱工程大學(xué)學(xué)位論文原創(chuàng)性聲明本人鄭重聲明:本論文的所有工作,是在導(dǎo)師的指導(dǎo)下,由作者本人獨

3、立完成的。有關(guān)觀點、方法、數(shù)據(jù)和文獻的引用已在文中指出,并與參考文獻相對應(yīng)。除文中已注明引用的內(nèi)容外,本論文不包含任何其他個人或集體已經(jīng)公開發(fā)表的作品成果。對本文的研究做出重要貢獻的個人和集體,均已在文中以明確方式標(biāo)明。本人完全意識到本聲明的法律結(jié)果由本人承擔(dān)。作者(簽字):日期:年月日哈爾濱工程大學(xué)學(xué)位論文授權(quán)使用聲明本人完全了解學(xué)校保護知識產(chǎn)權(quán)的有關(guān)規(guī)定,即研究生在校攻讀學(xué)位期間論文工作的知識產(chǎn)權(quán)屬于哈爾濱工程大學(xué)。哈爾濱工程大學(xué)有權(quán)保留并向國家有關(guān)部門或機構(gòu)送交論文的復(fù)印件。本人允許哈爾濱工程大學(xué)將論文的部分或全部內(nèi)容編入有關(guān)數(shù)據(jù)庫進行檢索,可采用影印、縮印或掃描等復(fù)制手段

4、保存和匯編本學(xué)位論文,可以公布論文的全部內(nèi)容。同時本人保證畢業(yè)后結(jié)合學(xué)位論文研究課題再撰寫的論文一律注明作者第一署名單位為哈爾濱工程大學(xué)。涉密學(xué)位論文待解密后適用本聲明。本論文(□在授予學(xué)位后即可□在授予學(xué)位12個月后□解密后)由哈爾濱工程大學(xué)送交有關(guān)部門進行保存、匯編等。作者(簽字):導(dǎo)師(簽字):日期:年月日年月日基于深度學(xué)習(xí)的圖像目標(biāo)識別研究摘要目標(biāo)識別是計算機視覺一個重要的研究領(lǐng)域。隨著中國城市化的進程不斷加快,智慧城市,智能交通系統(tǒng)成為了發(fā)展的趨勢,這對目標(biāo)識別的快速性、準(zhǔn)確性提出了迫切的需求。深度學(xué)習(xí)憑借其強大的特征學(xué)習(xí)能力已在計算機視覺的多個領(lǐng)域取得了令人矚目的成績

5、。因此,基于深度學(xué)習(xí)模型的目標(biāo)識別算法成為近年來的研究熱點。本文圍繞如何利用深度學(xué)習(xí)的方法進行圖像目標(biāo)的識別和定位開展了一系列研究:(1)對常用的目標(biāo)識別算法進行了對比,闡述了各類算法的原理,分析了它們各自的優(yōu)缺點,總結(jié)歸納了它們在候選區(qū)域選擇、特征提取、特征分類這三個問題上的聯(lián)系與區(qū)別。(2)研究了YOLO算法的原理。以tiny-yolo模型為基礎(chǔ),設(shè)計了改進模型m-yolo。m-yolo模型通過增加卷積層的數(shù)量來提高模型的特征提取能力;同時,為了保證改進模型在識別速度上不會下降,在模型中加入了NIN(networkinnetwork)卷積層來降低模型的參數(shù)數(shù)量和模型的復(fù)雜度,

6、并對NIN卷積層在改進模型中的作用原理進行了闡述。實驗表明,改進后的模型提高了識別的準(zhǔn)確率和定位的精確性。(3)使用了遷移學(xué)習(xí)的策略來提高模型的性能。通過實驗對隨機初始化網(wǎng)絡(luò)參數(shù)的模型和使用了預(yù)訓(xùn)練模型初始化網(wǎng)絡(luò)參數(shù)的模型進行對比。實驗表明,使用了預(yù)訓(xùn)練模型初始化網(wǎng)絡(luò)參數(shù)的模型提高了識別的準(zhǔn)確率和定位的精確性。(4)對卷積層的激活函數(shù)ReLU和Leaky函數(shù)的性能進行了研究,通過實驗確定了在本文描述的車輛識別任務(wù)中Leaky函數(shù)的性能優(yōu)于ReLU函數(shù)。(5)針對不同數(shù)量的固定邊界框(AnchorBox)對模型性能的影響進行了研究。使用無監(jiān)督學(xué)習(xí)算法k-means對車輛數(shù)據(jù)集中標(biāo)注

7、好的邊界框的寬和高進行聚類,來獲得大小和形狀合適的固定邊界框。對具有不同AnchorBox數(shù)量的模型進行訓(xùn)練。最后,通過實驗確定最佳的固定邊界框數(shù)量。關(guān)鍵詞:深度學(xué)習(xí);目標(biāo)識別;YOLO算法;NIN卷積層;聚類哈爾濱工程大學(xué)碩士學(xué)位論文基于深度學(xué)習(xí)的圖像目標(biāo)識別研究ABSTRACTTargetrecognitionisanimportantfieldofcomputervision.WiththerapiddevelopmentofChina'surbanization,smar

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。