資源描述:
《幾種壓縮感知算法》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在工程資料-天天文庫。
1、WORD格式可編輯.1壓縮感知部分壓縮感知算法主要可分為三類:貪婪迭代算法、凸凸優(yōu)化(或最優(yōu)化逼近方法)和基于貝葉斯框架提出的重構(gòu)算法。由于第三類方法注重信號(hào)的時(shí)間相關(guān)性,不適合圖像處理問題,故目前的研究成果主要集中在前兩類中。目前已實(shí)現(xiàn)6中算法,分別為正交匹配追蹤法(OMP)、迭代硬閾值法(IHT)、分段正交匹配追蹤法(StOMP)、分段弱正交匹配追蹤法(SwOMP)、廣義正交匹配追蹤(GOMP)、基追蹤法(BP)。1.1正交匹配追蹤法(OMP)在正交匹配追蹤OMP中,殘差是總與已經(jīng)選擇過的原子正交的。這意味著
2、一個(gè)原子不會(huì)被選擇兩次,結(jié)果會(huì)在有限的幾步收斂。OMP的算法如下(1)用x表示你的信號(hào),初始化殘差e0=x;(2)選擇與e0內(nèi)積絕對(duì)值最大的原子,表示為φ1;(3)將選擇的原子作為列組成矩陣Φt,定義Φt列空間的正交投影算子為通過從e0減去其在Φt所張成空間上的正交投影得到殘差e1;(4)對(duì)殘差迭代執(zhí)行(2)、(3)步;其中I為單位陣。需要注意的是在迭代過程中Φt為所有被選擇過的原子組成的矩陣,因此每次都是不同的,所以由它生成的正交投影算子矩陣P每次都是不同的。(5)直到達(dá)到某個(gè)指定的停止準(zhǔn)則后停止算法。OMP減
3、去的Pem是em在所有被選擇過的原子組成的矩陣Φt所張成空間上的正交投影,而MP減去的Pem是em在本次被選擇的原子φm所張成空間上的正交投影。經(jīng)OMP算法重構(gòu)后的結(jié)果如下所示:算法的使用時(shí)間如下:專業(yè)知識(shí)分享WORD格式可編輯1.2迭代硬閾值法(IHT)目標(biāo)函數(shù)為這里中的M應(yīng)該指的是M-sparse,S應(yīng)該指的是Surrogate。這里要求:之后我們利用式對(duì)目標(biāo)函數(shù)進(jìn)行變形。接著便是獲得極值點(diǎn):利用該式進(jìn)行迭代可以得到極值點(diǎn),我們需要的是最小值。此時(shí)目標(biāo)函數(shù)的最小值就得到了。此時(shí)便得到我們需要的公式:我們要保證
4、向量y的稀疏度不大于M,即,為了達(dá)到這一目標(biāo),要保留最大的M項(xiàng)(因?yàn)槭瞧椒?,所以要取絕對(duì)值absolutevalue),剩余的置零(注意這里有個(gè)負(fù)號(hào),所以要保留最大的M項(xiàng))。專業(yè)知識(shí)分享WORD格式可編輯IHT算法結(jié)果:IHT算法使用時(shí)間如下:1.3分段正交匹配追蹤法(StOMP)分段正交匹配追蹤(StagewiseOMP)也是由OMP改進(jìn)而來的一種貪心算法,與CoSaMP、SP算法類似,不同之處在于CoSaMP、SP算法在迭代過程中選擇的是與信號(hào)內(nèi)積最大的2K或K個(gè)原子,而StOMP是通過門限閾值來確定原子。此
5、算法的輸入?yún)?shù)中沒有信號(hào)稀疏度K,因此相比于ROMP及CoSaMP有獨(dú)到的優(yōu)勢。StOMP的算法流程:專業(yè)知識(shí)分享WORD格式可編輯專業(yè)知識(shí)分享WORD格式可編輯經(jīng)StOMP算法重構(gòu)后的結(jié)果如下所示:該算法的用時(shí)情況如下:專業(yè)知識(shí)分享WORD格式可編輯1.4分段弱正交匹配追蹤法(SwOMP)分段弱正交匹配追蹤(StagewiseWeakOMP)可以說是StOMP的一種修改算法,它們的唯一不同是選擇原子時(shí)的門限設(shè)置,這可以降低對(duì)測量矩陣的要求。我們稱這里的原子選擇方式為"弱選擇"(WeakSelection),St
6、OMP的門限設(shè)置由殘差決定,這對(duì)測量矩陣(原子選擇)提出了要求,而SWOMP的門限設(shè)置則對(duì)測量矩陣要求較低(原子選擇相對(duì)簡單、粗糙)。SWOMP的算法流程:專業(yè)知識(shí)分享WORD格式可編輯經(jīng)SwOMP算法重構(gòu)后的結(jié)果如下所示:該算法的用時(shí)情況如下:專業(yè)知識(shí)分享WORD格式可編輯1.5廣義正交匹配追蹤法(GOMP)廣義正交匹配追蹤(GeneralizedOMP,gOMP)算法可以看作為OMP算法的一種推廣。OMP每次只選擇與殘差相關(guān)最大的一個(gè),而gOMP則是簡單地選擇最大的S個(gè)。之所以這里表述為"簡單地選擇"是相比于
7、ROMP之類算法的,不進(jìn)行任何其它處理,只是選擇最大的S個(gè)而已。GOMP算法流程如下:專業(yè)知識(shí)分享WORD格式可編輯經(jīng)GOMP算法重構(gòu)后的結(jié)果如下所示:該算法的用時(shí)情況如下:專業(yè)知識(shí)分享WORD格式可編輯1.6基追蹤法(BP)除匹配追蹤類貪婪迭代算法之外,壓縮感知重構(gòu)算法另一大類就是凸優(yōu)化算法或最優(yōu)化逼近方法,這類方法通過將非凸問題轉(zhuǎn)化為凸問題求解找到信號(hào)的逼近,其中最常用的方法就是基追蹤(BasisPursuit,BP),該方法提出使用l1范數(shù)替代l0范數(shù)來解決最優(yōu)化問題,以便使用線性規(guī)劃方法來求解。經(jīng)BP算法
8、重構(gòu)后的結(jié)果如下所示:該算法的用時(shí)情況如下:專業(yè)知識(shí)分享WORD格式可編輯2.推薦壓縮感知算法在CDSN上有很多介紹和資源,這里推薦一個(gè)大神的博客,基本包含了現(xiàn)在常用的所有的壓縮感知算法的介紹,當(dāng)然后很多是沒有完整的代碼資源的,不過初學(xué)者還是可以去學(xué)習(xí)一波。AndyJeehttp://www.cnblogs.com/AndyJee/category/579870.html