資源描述:
《最新基于膚色模型和Adaboost算法的人幻燈片.ppt》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫。
1、基于膚色模型和Adaboost算法的人報告框架為什么要做人臉檢測?人臉檢測有哪些方法?人臉圖像數(shù)據(jù)庫Adaboost算法膚色模型人臉分割兩種算法的結(jié)合對比實驗該算法的不足之處致謝為什么要做人臉檢測人臉檢測作為人臉信息處理的一個重要內(nèi)容,近年來已經(jīng)成為計算機(jī)視覺與模式識別領(lǐng)域的研究熱點之一.人臉作為一種自然形體具有很強(qiáng)的共性,但由于個體的外貌差異、表情變化以及圖像在采集時受光照、設(shè)備等因素的影響,使得人臉圖像具有比較復(fù)雜而細(xì)致的模式變化.因此,人臉檢測是一個極具挑戰(zhàn)性的模式分類問題,對這個問題的研究具有十分重要的學(xué)術(shù)價值.Ada
2、boost算法一、Adaboost算法簡介Adaboost即AdaptiveBoosting算法是由Freund和Schapire于1995年提出。2001年,ViolaPaul和JonesMichael正式將Adaboost算法用于人臉檢測。Adaboost算法的檢測率很高平均可達(dá)94%以上,是目前比較熱門的人臉檢測算法,但其誤檢率也相對較高(比膚色方法的誤檢率要低得多)。Adaboost算法二、弱學(xué)習(xí)與強(qiáng)學(xué)習(xí)隨機(jī)猜測一個是或否的問題,將會有50%的正確率。如果一個假設(shè)能夠稍微地提高猜測正確的概率,那么這個假設(shè)就是弱學(xué)習(xí)算法
3、。得到這個算法的過程稱為弱學(xué)習(xí)。如果一個假設(shè)能夠顯著地提高猜測正確的概率,那么這個假設(shè)就稱為強(qiáng)學(xué)習(xí)算法。得到這個算法的過程稱為強(qiáng)學(xué)習(xí)。Adaboost算法三、矩形特征對Adaboost人臉檢測算法的速度起著重要的兩方面是特征的選取和特征值的計算。將矩形作為人臉檢測的特征向量,稱為矩形特征。在給定有限的數(shù)據(jù)情況下,基于特征的檢測能夠編碼特定區(qū)域的狀態(tài),而且基于特征的系統(tǒng)比基于象素的系統(tǒng)要快得多。Adaboost算法矩形特征對一些簡單的圖形結(jié)構(gòu),比如邊緣、線段,比較敏感,但是其只能描述特定走向(水平、垂直、對角)的結(jié)構(gòu),因此比較粗
4、略。(如右圖所示)對于一個24X24的檢測窗口,其內(nèi)部的矩形特征的數(shù)量可達(dá)到160000以上。三、矩形特征(續(xù))Adaboost算法三、矩形特征(續(xù))對于某一檢測窗口,由于特征數(shù)量巨大,必須通過特定算法甄選合適的矩形特征(最佳特征),并將其組合成強(qiáng)分類器才能檢測人臉。(如下圖:人眼的水平區(qū)域比面頰上部區(qū)域的灰度要暗一些。)Adaboost算法四、積分圖與特征值計算積分圖的引入可以快速計算出矩形特征。對于圖像內(nèi)一點A(x,y),定義其積分圖為其中i(x’,y’)為點(x’,y’)處的灰度值,對于灰度圖像,其值為0~255.對于彩
5、色圖像,可以先按照人臉檢測彩色空間將其轉(zhuǎn)換為灰度值。Adaboost算法四、積分圖與特征值計算(續(xù))ii(x,y)也可以通過下式迭代求出:其中s(x,y)為點(x,y)及其y方向上所有原始圖像之和,成為“列積分和”,可以定義為:Adaboost算法四、積分圖與特征值計算(續(xù))xy(1,1)yxA(x,y)Adaboost算法四、積分圖與特征值計算(續(xù))xyABCD1234區(qū)域D的像素值=點4的積分圖像值+點1的積分圖像值-點2的積分圖像值-點3的積分圖像值A(chǔ)daboost算法四、積分圖與特征值計算(續(xù))xyAB123456(1
6、,1)此特征模板的特征值為:區(qū)域A的特征值-區(qū)域B的特征值A(chǔ)daboost算法五、Adaboost學(xué)習(xí)算法A.給定一系列訓(xùn)練樣本{(x1,y1),(x2,y2),…(xn,yn)}。其中,xi為輸入訓(xùn)練樣本,yi是分類類別標(biāo)志,yi∈Y={0,1},其中,0表示非人臉圖像,1表示人臉圖像,n為一共的訓(xùn)練樣本數(shù)量。B.指定循環(huán)的次數(shù)T,T將決定最后強(qiáng)分類器中弱分類器的數(shù)目。C.初始化權(quán)值:w1,i=1/2m為非人臉樣本的初始化權(quán)值,1/2n為人臉樣本的初始化權(quán)值,其中,m為負(fù)樣本的個數(shù),n為正樣本的個數(shù)Adaboost算法五、A
7、daboost學(xué)習(xí)算法(續(xù))D.對t=1,…,T:(1)、歸一化權(quán)值:(2)、對每個特征,訓(xùn)練一個弱分類器h(x,f,p,q);計算對應(yīng)所有特征的弱分類器的加權(quán)(qt)錯誤率。(3)、選取具有最小錯誤率的弱分類器h(x,f,p,q)加入到強(qiáng)分類器中。Adaboost算法五、Adaboost學(xué)習(xí)算法(續(xù))(4)、按照這個最佳弱分類器,調(diào)整權(quán)重:其中,表示xi被正確的分類,表示xi被錯誤分類。E.T輪訓(xùn)練完畢,最后得到強(qiáng)分類器為:Adaboost算法Adaboost算法六、基于矩形特征的弱分類器對于每一個檢測窗口,含有大量的矩形特
8、征(一般有上萬個)。在這個龐大的特征集合中只有一小部分特征能夠用來構(gòu)建高效的分類器。我們通過前面的算法,在每一輪循環(huán)中從眾多的矩形特征中選擇最佳矩形特征。最佳特征對應(yīng)的弱分類器的表達(dá)式為:其中,是矩形特征的特征值,為弱分類器的閾值,表示不等式方向,可取。Adaboost算法七