基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類(lèi)

基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類(lèi)

ID:44917229

大小:5.48 MB

頁(yè)數(shù):43頁(yè)

時(shí)間:2019-11-05

基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類(lèi)_第1頁(yè)
基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類(lèi)_第2頁(yè)
基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類(lèi)_第3頁(yè)
基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類(lèi)_第4頁(yè)
基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類(lèi)_第5頁(yè)
資源描述:

《基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類(lèi)》由會(huì)員上傳分享,免費(fèi)在線(xiàn)閱讀,更多相關(guān)內(nèi)容在行業(yè)資料-天天文庫(kù)。

1、萬(wàn)方數(shù)據(jù)專(zhuān)業(yè)學(xué)位碩士學(xué)位論文基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類(lèi)ImageClassificationbasedonConvolutionalNeuralNetworks學(xué)31201004完成日期:2Q!墨么Q壘么圣Q大連理工大學(xué)DalianUniversityofTechnology萬(wàn)方數(shù)據(jù)大連理工大學(xué)學(xué)位論文獨(dú)創(chuàng)性聲明作者鄭重聲明:所呈交的學(xué)位論文,是本人在導(dǎo)師的指導(dǎo)下進(jìn)行研究工作所取得的成果。盡我所知,除文中已經(jīng)注明引用內(nèi)容和致謝的地方外,本論文不包含其他個(gè)人或集體已經(jīng)發(fā)表的研究成果,也不包含其他已申請(qǐng)學(xué)位或其他用途使用過(guò)的成果。與我一同工作的同志對(duì)本研究所做的貢獻(xiàn)均已

2、在論文中做了明確的說(shuō)明并表示了謝意。若有不實(shí)之處,本人愿意承擔(dān)相關(guān)法律責(zé)任。學(xué)位論文題目:型三妾包盤(pán)墨查趁堡堡趟匿越作者簽名:幽日飆一盟肼』月生日萬(wàn)方數(shù)據(jù)大連理工大學(xué)專(zhuān)業(yè)學(xué)位碩士學(xué)位論文摘要深度學(xué)習(xí)(Deeplearning,DL)是機(jī)器學(xué)習(xí)(MachineLearning,ML)的一個(gè)嶄新的領(lǐng)域,它的目的就是讓機(jī)器學(xué)習(xí)更加接近其終極目標(biāo).人工智能。卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)算法中的一種,具有結(jié)構(gòu)簡(jiǎn)單、適應(yīng)性強(qiáng)、訓(xùn)練參數(shù)少而連接多等特點(diǎn),近年來(lái)被廣泛應(yīng)用在圖像處理和模式識(shí)別等領(lǐng)域。Dropout是一種訓(xùn)練神經(jīng)網(wǎng)絡(luò)的思路,通過(guò)隨機(jī)地將隱藏層的部分神經(jīng)元的輸出值歸零而阻礙特

3、征間的共生作用,降低了神經(jīng)網(wǎng)絡(luò)模型的測(cè)試誤差,進(jìn)而提高了神經(jīng)網(wǎng)絡(luò)模型泛化能力。支持向量機(jī)是一個(gè)分類(lèi)算法,通過(guò)結(jié)構(gòu)風(fēng)險(xiǎn)最小化理論提高模型的泛化能力。Caffe是一個(gè)開(kāi)源的深度學(xué)習(xí)框架,具有執(zhí)行速度快和模塊清晰等特點(diǎn)。本文提出了一個(gè)卷積神經(jīng)網(wǎng)絡(luò)模型MNIST-Net,在模型·的最后一層采用HingeLoss取代傳統(tǒng)的Soft.Max回歸進(jìn)行分類(lèi),在未使用Dropout情況下將MNIST測(cè)試集的峰點(diǎn)準(zhǔn)確率從99.05%提高到99.36%,平均峰點(diǎn)準(zhǔn)確率從98.964%提高到99.278%;在使用Dropout的情況下將峰點(diǎn)準(zhǔn)確率從99.14%提高到99.39%,平均峰點(diǎn)準(zhǔn)

4、確率從99.024%提高到99.321%。關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);支持向量機(jī);Dropout;Caffe萬(wàn)方數(shù)據(jù)基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類(lèi)ImageClassificationbasedOI'1ConvolutionalNeuralNetworksAbstractDeeplearningiSanewareaofMachinelearningresearch.whichhasbeenintroducedwiththeobjectiveofmovingmachinelearningclosertooneofitsoriginalgoals:ArtificialIntell

5、igence.Convolutionalneuralnetworks(CNNs),whichisoneofdeeplearningalgorithmsthatiswidelyusedinimageprocessingandpatternrecognitionwiththecharacteristicsofsimplicity,strongadaptabilityandfewparameters.Dropoutisanovelneuralnetworktrainingmethod,whichrandomlyomitshaIfofthefeaturedetectorso

6、neachtrainingcasetoreducetesterrorandimprovethegeneralityofthenetworks.Supportvectormachineisoneclassificationalgorithm,whichimprovesthegeneralizationabilityofmodelthroughstructuralriskminimization.CaflfeiSadeeplearningframe.workwithexpression,speed,andmodularityinmind.Inthisarticle,we

7、introducedanewCNNmodelusinghingelOSSasthelastlayerinsteadoftraditionalsoft.Maxregressionandimprovedtopaccuracyfrom99.05%to99。36%andaveragetopaccuracyfrom98.964%to99.278%withoutdropoutandtopaccuracyfrom99.14%to99.39%andtopaccuracyfrom99.024%to99.321%withdropout.KeyWords:CNNs;SVM;Dropo

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁(yè),下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動(dòng)畫(huà)的文件,查看預(yù)覽時(shí)可能會(huì)顯示錯(cuò)亂或異常,文件下載后無(wú)此問(wèn)題,請(qǐng)放心下載。
2. 本文檔由用戶(hù)上傳,版權(quán)歸屬用戶(hù),天天文庫(kù)負(fù)責(zé)整理代發(fā)布。如果您對(duì)本文檔版權(quán)有爭(zhēng)議請(qǐng)及時(shí)聯(lián)系客服。
3. 下載前請(qǐng)仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時(shí)可能由于網(wǎng)絡(luò)波動(dòng)等原因無(wú)法下載或下載錯(cuò)誤,付費(fèi)完成后未能成功下載的用戶(hù)請(qǐng)聯(lián)系客服處理。