基于opencv和haar特征的區(qū)域圖像人數(shù)檢測方法

基于opencv和haar特征的區(qū)域圖像人數(shù)檢測方法

ID:18749256

大?。?09.00 KB

頁數(shù):5頁

時間:2018-09-22

基于opencv和haar特征的區(qū)域圖像人數(shù)檢測方法_第1頁
基于opencv和haar特征的區(qū)域圖像人數(shù)檢測方法_第2頁
基于opencv和haar特征的區(qū)域圖像人數(shù)檢測方法_第3頁
基于opencv和haar特征的區(qū)域圖像人數(shù)檢測方法_第4頁
基于opencv和haar特征的區(qū)域圖像人數(shù)檢測方法_第5頁
資源描述:

《基于opencv和haar特征的區(qū)域圖像人數(shù)檢測方法》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫

1、基于openCV和Haar特征的區(qū)域圖像人數(shù)檢測方法劉子源摘要:選取大量含有人的Haar特征的樣本圖片,利用openCV和Adaboost算法訓(xùn)練分類器,并通過實驗深入分析選取樣本的方法,以及對檢測效果的影響。關(guān)鍵字:Haar特征openCVAdaboost分類器人數(shù)檢測模式識別一、模式識別理論基礎(chǔ)區(qū)域圖像人數(shù)識別,又即圖像人數(shù)檢測,屬于模式識別技術(shù)領(lǐng)域,具體實施方法是通過計算機(jī)或其他設(shè)備來識別某個區(qū)域的靜態(tài)圖片或動態(tài)視頻中的人數(shù)。特征分析模式對于字符和簡單幾何形狀,或具有一些明顯特征的圖像(如人臉等)的再認(rèn),都可提供簡單、快速的方法,所以圖像人數(shù)檢測最好采用該模式。本

2、論文所論述使用的特征方法是Haar特征方法。對于人數(shù)識別來說,該方法更加適用,人數(shù)識別模型的建立更方便,檢測速度更快,性能更好。二、用Haar特征模式進(jìn)行人數(shù)檢測的流程首先,需要一個可以檢測人體特征的Haar特征分類器。通過這個分類器,可以將待識別圖像中含有人體特征的部分分離出來。每當(dāng)檢測到一個含有人的特征的部分,人數(shù)計數(shù)器就會自加1,通過這種方法,可實現(xiàn)區(qū)域圖像的人數(shù)檢測。利用Haar特征分類器做區(qū)域圖像人數(shù)檢測的流程如下:YYNN結(jié)束移動裁剪窗口加載特征分類器獲得待識別圖像調(diào)整裁剪窗口截取待識別圖像截取圖像進(jìn)入分類器是否通過分類器是否檢測完畢記錄信息開始三、訓(xùn)練Ha

3、ar特征分類器1、訓(xùn)練特征分類器的方法訓(xùn)練分類器需要提供相應(yīng)的特征正例樣本和反例樣本。正例樣本要求樣本圖片中含有所要識別的特征信息,反例樣本要求樣本圖片中不可以含有所要識別的特征信息。通過對大量正反樣本進(jìn)行計算,可以最終得出識別分類器。2、特征的選取可以表征人的特征有很多,如:眼睛、鼻子、嘴、人臉、頭部、上半身、全身等等。但是,在實際人數(shù)檢測過程中,有些特征則不能很好的輔助識別人數(shù)。比如在某個識別模型中,所獲取的圖像,并未拍攝到人的正臉,全部是人的側(cè)臉,或后腦部分,則眼睛、鼻子和嘴等特征就完全不起作用。所以,選取適當(dāng)?shù)娜说奶卣鬟M(jìn)行識別,是至關(guān)重要的。同時,在不同的場景模

4、式下,選取的特征也會有所不同。通過對多個公共場所監(jiān)控設(shè)備的配置,以及相應(yīng)監(jiān)控錄像的調(diào)查,最終選取人的從肩部到頭部的上半身像和全身像作為目標(biāo)特征,進(jìn)行樣本收集、處理,和分類器的訓(xùn)練。3、正例樣本的選取通過對監(jiān)控錄像進(jìn)行截圖,要求監(jiān)控攝像頭安放于高于正常人身高的50%及以上的位置,并且盡可能位于道路正中央。將圖片中的人的從肩部到頭部的上半身像,以及全身像部分進(jìn)行圖像裁剪,并統(tǒng)一尺寸,從肩部到頭部的上半身像圖像尺寸為25x25,全身像尺寸為30x60。在裁剪的時候,要求人體的從肩部到頭部的上半身像、全身像不允許被遮擋,并且要求圖像清晰,噪點較少,有效特征部分占裁剪圖像的90%

5、及以上。裁剪之后,按照上述要求統(tǒng)一尺寸,并利用軟件(如Acdsee等)將圖像轉(zhuǎn)換為8位灰度BMP格式。4、反例樣本的選取反例樣本,又稱為負(fù)樣本、背景描述文件,樣本的采集相對于正樣本來說要容易的多。要求采集的負(fù)樣本,絕對不允許含有正例樣本的特征。在尺寸方面,對負(fù)樣本沒有特殊要求,負(fù)樣本圖像的大小只要不小于正樣本就可以,在使用負(fù)樣本時,openCV會自動從負(fù)樣本圖像中摳出一塊和正樣本同樣大小的區(qū)域作為負(fù)樣本。所以,只需將收集到的負(fù)樣本轉(zhuǎn)換成灰度(8位)bmp格式即可。其中,負(fù)樣本最好含有正樣本中的背景部分,以便在訓(xùn)練分類器時,可以更快地將正樣本中的非目標(biāo)特征部分及時地去掉。

6、另外,負(fù)樣本的尺寸越小,openCV訓(xùn)練的時間就越少。5、為每個場景模式訓(xùn)練專屬識別分類器從大量的場所進(jìn)行調(diào)查研究發(fā)現(xiàn),不同場所的布局差異較大,所以很難訓(xùn)練出一個通用的人數(shù)檢測分類器來適應(yīng)各種不同場景模式。這就需要為每個場景模式訓(xùn)練專屬識別分類器。對于某個固定的場所(如醫(yī)院、博物館)來說,其負(fù)樣本大量采用由該場所的監(jiān)控攝像機(jī)拍攝的無人背景圖像,正樣本則盡量在該場所采集,并可以融合其他場所采集到的正樣本,當(dāng)然,這些正樣本中的背景部分可以加入到負(fù)樣本集中。在假設(shè)監(jiān)控環(huán)境盡量穩(wěn)定,比如攝像機(jī)角度、位置不變的情況下,僅僅考慮光線改變這種單一變量,可以快速訓(xùn)練出固定場景模式的專屬

7、分類器,其識別性能必然會超過通用型分類器。6、分類器的訓(xùn)練時間及訓(xùn)練出的分類器大小通過大量訓(xùn)練實驗不難發(fā)現(xiàn),不同的正負(fù)樣本,即便數(shù)目、大小、比例相同,其訓(xùn)練時間也不同。許多分類器訓(xùn)練失敗,絕大多數(shù)原因是因為負(fù)樣本數(shù)目過少,導(dǎo)致Adaboost算法不能跳出死循環(huán)。也有的原因,是因為負(fù)樣本之間重復(fù)部分過多,或者正樣本的尺寸過大,導(dǎo)致訓(xùn)練分類器時內(nèi)存溢出。目前還不能尋找出訓(xùn)練樣本數(shù)目、尺寸、正負(fù)樣本比例與訓(xùn)練時間的函數(shù)關(guān)系。但是通過大量實驗可以證明,在正(負(fù))樣本數(shù)目一定的情況下,負(fù)(正)樣本數(shù)目越多,訓(xùn)練時間越長。并且,正負(fù)樣本尺寸越大,訓(xùn)練

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當(dāng)前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負(fù)責(zé)整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細(xì)閱讀文檔內(nèi)容,確認(rèn)文檔內(nèi)容符合您的需求后進(jìn)行下載,若出現(xiàn)內(nèi)容與標(biāo)題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。