資源描述:
《基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法.pdf》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、JournalofComputerApplicationsISSN1001-90812017-01-10計算機(jī)應(yīng)用,2017,37(1):228-232CODENJYIIDUhttp://www.joca.cn文章編號:1001-9081(2017)01-0228-05DOI:10.11772/j.issn.1001-9081.2017.01.0228基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法*高耀東,侯凌燕,楊大利(北京信息科技大學(xué)計算機(jī)學(xué)院,北京100101)(*通信作者電子郵箱bistu2015@gmail.
2、com)摘要:針對圖像自動標(biāo)注中因人工選擇特征而導(dǎo)致信息缺失的缺點,提出使用卷積神經(jīng)網(wǎng)絡(luò)對樣本進(jìn)行自主特征學(xué)習(xí)。為了適應(yīng)圖像自動標(biāo)注的多標(biāo)簽學(xué)習(xí)的特點以及提高對低頻詞匯的召回率,首先改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的損失函數(shù),構(gòu)建一個多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)(CNN-MLL)模型,然后利用圖像標(biāo)注詞間的相關(guān)性對網(wǎng)絡(luò)模型輸出結(jié)果進(jìn)行改善。通過在IAPRTC-12標(biāo)準(zhǔn)圖像標(biāo)注數(shù)據(jù)集上對比了其他傳統(tǒng)方法,實驗得出,基于采用均方誤差函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)(CNN-MSE)的方法較支持向量機(jī)(SVM)方法在平均召回率上提升了12.9%,較反向傳
3、播神經(jīng)網(wǎng)絡(luò)(BPNN)方法在平均準(zhǔn)確率上提升了37.9%;基于標(biāo)注結(jié)果改善的CNN-MLL方法較普通卷積神經(jīng)網(wǎng)絡(luò)的平均準(zhǔn)確率和平均召回率分別提升了23%和20%。實驗結(jié)果表明基于標(biāo)注結(jié)果改善的CNN-MLL方法能有效地避免因人工選擇特征造成的信息缺失同時增加了對低頻詞匯的召回率。關(guān)鍵詞:圖像自動標(biāo)注;多標(biāo)簽學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);損失函數(shù)中圖分類號:TP391.41;TP18文獻(xiàn)標(biāo)志碼:AAutomaticimageannotationmethodusingmulti-labellearningconvolutiona
4、lneuralnetwork*GAOYaodong,HOULingyan,YANGDali(CollegeofComputer,BeijingInformationScienceandTechnologyUniversity,Beijing100101,China)Abstract:Focusingontheshortcomingoftheautomaticimageannotation,thelackofinformationcausedbyartificiallyselectingfeatures,convol
5、utionalneuralnetworkwasusedtolearnthecharacteristicsofsamples.Firstly,inordertoadapttothecharacteristicsofmultilabellearningofautomaticimageannotationandincreasetherecallrateofthelowfrequencywords,thelossfunctionofconvolutionalneuralnetworkwasimprovedandaConvo
6、lutionalNeuralNetworkofMulti-LabelLearning(CNN-MLL)modelwasconstructed.Secondly,thecorrelationbetweentheimageannotationwordswasusedtoimprovetheoutputofthenetworkmodel.ComparedwithothertraditionalmethodsontheTechnicalCommittee12oftheInternationalAssociationforP
7、atternRecognition(IAPRTC-12)benchmarkimageannotationdatabase,theexperimentalresultshowthattheConvolutionalNeuralNetworkusingMeanSquareErrorfunction(CNN-MSE)methodachievestheaveragerecallrateof12.9%morethantheSupportVectorMachine(SVM)method,theaverageaccuracyof
8、37.9%morethantheBackPropagationNeuralNetwork(BPNN)method.AndtheaverageaccuracyrateandaveragerecallrateofmarkedresultsimprovedCNN-MLLmethodis23%and20%higherthanthoseofthetraditional