改進稀疏表示模型的目標跟蹤

改進稀疏表示模型的目標跟蹤

ID:31434541

大?。?29.50 KB

頁數(shù):17頁

時間:2019-01-09

改進稀疏表示模型的目標跟蹤_第1頁
改進稀疏表示模型的目標跟蹤_第2頁
改進稀疏表示模型的目標跟蹤_第3頁
改進稀疏表示模型的目標跟蹤_第4頁
改進稀疏表示模型的目標跟蹤_第5頁
資源描述:

《改進稀疏表示模型的目標跟蹤》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學術(shù)論文-天天文庫

1、改進稀疏表示模型的目標跟蹤  摘要:針對受到光照、遮擋及姿態(tài)變化等引起的目標外觀發(fā)生變化時,目標跟蹤的魯棒性和準確性較差的問題,將稀疏表示引入到粒子濾波框架進行目標跟蹤,提出一種稀疏協(xié)同模型。首先,在目標運動定位模型中,使用灰度強度值表示目標對象;其次,判別模型通過訓練正負模板集獲得最優(yōu)分類特征,并在生成模型中對目標直方圖加權(quán)以提高目標生成效率;然后,將分類判別模型和生成模型集成在協(xié)同模型中,利用重構(gòu)誤差確定目標;最后,通過各模塊獨立更新,減少目標外觀變化對目標跟蹤的影響。實驗結(jié)果表明,所提方法的平均中心誤差僅為7.5像素,

2、且具備良好的抗噪性和實時性?! £P(guān)鍵詞:稀疏表示;目標跟蹤;協(xié)同模型;似然函數(shù);重構(gòu)誤差  中圖分類號:TP391.4  文獻標志碼:A  文章編號:1001-9081(2016)11-3152-09  0引言  目標跟蹤的實質(zhì)是估計目標對象在圖像序列中的狀態(tài)[1-3],是識別、分析、決策等后續(xù)高級處理的基礎(chǔ),其在安全監(jiān)控、交通監(jiān)測、人機交互、軍事領(lǐng)域、醫(yī)學應(yīng)用等領(lǐng)域[4],有著廣泛應(yīng)用?! ∧繕烁櫮P涂煞譃榕袆e模型(DiscriminantModel,DM)和生成模型(GenerativeModel,17GM)兩種。判別

3、模型將跟蹤問題看成是分類問題,即跟蹤的目的是將圖片中的前景(目標)和背景分開,該類模型跟蹤效率比較理想。Adam等[5]通過局部信息對圖像分塊進行目標跟蹤(FragTracker,F(xiàn)rag);Babenko等[6]提出了基于在線多示例學習的目標跟蹤方法(MultipleInstanceLearning,MIL)。  生成模型主要是尋找與跟蹤目標最相似的區(qū)域,即最優(yōu)化估計目標的狀態(tài),能夠較好地描述目標外觀變化。Kalal等[7]改進的在線學習機制能不斷更新跟蹤模塊(TrackingLearningDetection,TLD)。

4、  為在復(fù)雜情況下,特別是目標發(fā)生劇烈表觀變化時,設(shè)計出一個在動態(tài)場景下有效的目標跟蹤算法或模型。受圖像稀疏表示的影響,在判別模型中:Wright等[8]把識別轉(zhuǎn)化為分類與匹配問題,提出基于稀疏表示的人臉識別;Mei等[9]首次將稀疏表示理論引入粒子濾波框架中通過最小投影誤差跟蹤目標;Zhang等[10]將所有候選目標的線性組合通過目標模板線性表示并由稀疏系數(shù)確定目標位置;Zhang等[11]又在此基礎(chǔ)上優(yōu)化微小模板,降低計算復(fù)雜度;潘晴等[12]構(gòu)造背景字典從而篩選區(qū)分目標及其相鄰背景的特征,提高在復(fù)雜場景中目標識別的魯棒

5、性。基于生成模型:Liu等[13]在稀疏表示的基礎(chǔ)上利用在線特征選擇來減小目標的重建誤差;Bao等[14]改進稀疏模型,主要對瑣碎模板對應(yīng)的系數(shù)進行條件約束;Wang等[15-16]提出使用最小二乘法來對目標跟字典之間的距離進行優(yōu)化,隨后提出一種基于稀疏原型的目標跟蹤算法提高跟蹤效率。17  目前方法中,判別模型嚴重依賴于訓練樣本的選擇,對目標外觀的描述度不高,跟蹤精度欠缺[17];生成模型計算復(fù)雜、時效性低[18]。實際應(yīng)用中,兼顧準確性、魯棒性和實時性仍一個挑戰(zhàn)性課題[13,19]。鑒于以上分析,本文在粒子濾波的框架下提

6、出一種稀疏協(xié)同模型,集合兩種模型的優(yōu)勢,對目標進行跟蹤?! ?實驗結(jié)果與分析  實驗平臺:操作系統(tǒng)為Windows7;CPU為Inteli7-3770;32GBRAM;軟件環(huán)境為Matlab2014a。選取公開視頻序列[18,20-22]中,包含姿態(tài)變化、局部遮擋、光照變化、背景復(fù)雜、平面內(nèi)外旋轉(zhuǎn)、尺度變化等挑戰(zhàn)性視頻序列進行實驗。重點選擇了MIL、TLD、Frag、本文中融合前單個目標判別模型(DiscriminantModel,DM)和目標生成模型(GenerativeModel,GM)5種相關(guān)方法法與本文方法進行對比實

7、驗?! ?.1定性結(jié)果與分析  在測試視頻序列中,綠色短劃線框表示Frag的跟蹤結(jié)果,黃色劃線-點-劃線框表示TLD的跟蹤結(jié)果,藍色劃線-點點-劃線框表示MIL的跟蹤結(jié)果,淺藍色長劃線框表示DM的跟蹤結(jié)果,紫色長虛線框表示GM的跟蹤結(jié)果,紅色實線框表示本文的跟蹤結(jié)果?! ∽藨B(tài)變化、局部遮擋實驗選取Bird視頻序列,共100幀,目標跟蹤對象為飛翔小鳥。相關(guān)算法的目標跟蹤結(jié)果,如圖6所示。17  從圖6可以看出:從#22幀開始Frag跟蹤發(fā)生了漂移,從而無法準確跟蹤,原因在于其跟蹤依據(jù)的是局部信息而不是全局信息導致最終跟蹤失敗。

8、MIL和TLD追蹤器在小鳥轉(zhuǎn)身前只是有少量的漂移;但在#58幀小鳥外觀發(fā)生了較大變化并伴隨著旁邊還有干擾產(chǎn)生局部遮擋時,MIL和TLD漂移量逐漸增大,無法對目標準確定位,導致在#89時TLD丟失了目標。DM在跟蹤過程中隨著小鳥運動引起姿態(tài)變化和局部遮擋的干擾,捕捉到目標的準確度逐漸下降;G

當前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負責整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細閱讀文檔內(nèi)容,確認文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。