基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法.pdf

基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法.pdf

ID:49302821

大小:471.64 KB

頁數(shù):5頁

時間:2020-02-29

基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法.pdf_第1頁
基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法.pdf_第2頁
基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法.pdf_第3頁
基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法.pdf_第4頁
基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法.pdf_第5頁
資源描述:

《基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法.pdf》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。

1、JournalofComputerApplicationsISSN1001-90812017-01-10計算機(jī)應(yīng)用,2017,37(1):228-232CODENJYIIDUhttp://www.joca.cn文章編號:1001-9081(2017)01-0228-05DOI:10.11772/j.issn.1001-9081.2017.01.0228基于多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像標(biāo)注方法*高耀東,侯凌燕,楊大利(北京信息科技大學(xué)計算機(jī)學(xué)院,北京100101)(*通信作者電子郵箱bistu2015@gmail.

2、com)摘要:針對圖像自動標(biāo)注中因人工選擇特征而導(dǎo)致信息缺失的缺點,提出使用卷積神經(jīng)網(wǎng)絡(luò)對樣本進(jìn)行自主特征學(xué)習(xí)。為了適應(yīng)圖像自動標(biāo)注的多標(biāo)簽學(xué)習(xí)的特點以及提高對低頻詞匯的召回率,首先改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的損失函數(shù),構(gòu)建一個多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)(CNN-MLL)模型,然后利用圖像標(biāo)注詞間的相關(guān)性對網(wǎng)絡(luò)模型輸出結(jié)果進(jìn)行改善。通過在IAPRTC-12標(biāo)準(zhǔn)圖像標(biāo)注數(shù)據(jù)集上對比了其他傳統(tǒng)方法,實驗得出,基于采用均方誤差函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)(CNN-MSE)的方法較支持向量機(jī)(SVM)方法在平均召回率上提升了12.9%,較反向傳

3、播神經(jīng)網(wǎng)絡(luò)(BPNN)方法在平均準(zhǔn)確率上提升了37.9%;基于標(biāo)注結(jié)果改善的CNN-MLL方法較普通卷積神經(jīng)網(wǎng)絡(luò)的平均準(zhǔn)確率和平均召回率分別提升了23%和20%。實驗結(jié)果表明基于標(biāo)注結(jié)果改善的CNN-MLL方法能有效地避免因人工選擇特征造成的信息缺失同時增加了對低頻詞匯的召回率。關(guān)鍵詞:圖像自動標(biāo)注;多標(biāo)簽學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);損失函數(shù)中圖分類號:TP391.41;TP18文獻(xiàn)標(biāo)志碼:AAutomaticimageannotationmethodusingmulti-labellearningconvolutiona

4、lneuralnetwork*GAOYaodong,HOULingyan,YANGDali(CollegeofComputer,BeijingInformationScienceandTechnologyUniversity,Beijing100101,China)Abstract:Focusingontheshortcomingoftheautomaticimageannotation,thelackofinformationcausedbyartificiallyselectingfeatures,convol

5、utionalneuralnetworkwasusedtolearnthecharacteristicsofsamples.Firstly,inordertoadapttothecharacteristicsofmultilabellearningofautomaticimageannotationandincreasetherecallrateofthelowfrequencywords,thelossfunctionofconvolutionalneuralnetworkwasimprovedandaConvo

6、lutionalNeuralNetworkofMulti-LabelLearning(CNN-MLL)modelwasconstructed.Secondly,thecorrelationbetweentheimageannotationwordswasusedtoimprovetheoutputofthenetworkmodel.ComparedwithothertraditionalmethodsontheTechnicalCommittee12oftheInternationalAssociationforP

7、atternRecognition(IAPRTC-12)benchmarkimageannotationdatabase,theexperimentalresultshowthattheConvolutionalNeuralNetworkusingMeanSquareErrorfunction(CNN-MSE)methodachievestheaveragerecallrateof12.9%morethantheSupportVectorMachine(SVM)method,theaverageaccuracyof

8、37.9%morethantheBackPropagationNeuralNetwork(BPNN)method.AndtheaverageaccuracyrateandaveragerecallrateofmarkedresultsimprovedCNN-MLLmethodis23%and20%higherthanthoseofthetraditional

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。