資源描述:
《Kernel Regression for Image Processing and Reconstruction核回歸-圖像處理與重構(gòu) 演示文稿.ppt》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在教育資源-天天文庫(kù)。
1、KernelRegressionforImageProcessingandReconstruction1.Introduction(介紹)1.1.背景;操作簡(jiǎn)單和成本效率高導(dǎo)致數(shù)字圖像系統(tǒng)越來(lái)越受歡迎,但是傳統(tǒng)的電影攝像機(jī)的低分辨率仍然是一大缺陷。由于商業(yè)數(shù)字相機(jī)使用的CCD像素(CCD是一種半導(dǎo)體裝置,能夠把光學(xué)影像轉(zhuǎn)化為數(shù)字信號(hào)。CCD上植入的微小光敏物質(zhì)稱作像素)的限制,我們?cè)跀?shù)字圖像中經(jīng)??吹匠闃硬蛔阈?yīng),使用更密集的CCD陣列不但會(huì)增加成本費(fèi)用,而且還會(huì)使得圖像中的噪聲更多。鑒于此,這些年來(lái)
2、,人們開(kāi)始使用圖像處理的方法來(lái)提高數(shù)字圖像的質(zhì)量。本文主要研究核回歸方法,來(lái)試圖恢復(fù)由于成像系統(tǒng)的限制而被破壞了的無(wú)躁的高頻信息,還有退化過(guò)程,比如說(shuō)壓縮。1.2.本文的主要內(nèi)容;(1)提出經(jīng)典的核回歸方法,并說(shuō)明該方法是降噪和插值的一個(gè)有效工具,且建立起與其他的一些方法之間的關(guān)系;(2)將經(jīng)典核回歸推廣到自適應(yīng)的核回歸,并給出它在降噪和插值應(yīng)用中的非常好的結(jié)果;1.3.本文的結(jié)構(gòu);2.Classicalkernelregression(經(jīng)典核回歸)2.1.KernelRegressionin1-D(一
3、維的情形)假設(shè)1維信號(hào)的數(shù)學(xué)模型如下其中表示回歸函數(shù)(未知的),表示在第個(gè)采樣點(diǎn)處的采樣值,表示獨(dú)立同分布零均值噪聲。核回歸的目標(biāo)是通過(guò)觀察數(shù)據(jù)估計(jì)未知回歸函數(shù)(對(duì)于這個(gè)問(wèn)題,大致有兩種估計(jì)方法:一種是參數(shù)估計(jì);經(jīng)典的線性或非線性回歸就屬于這種方法;另一種是非參數(shù)估計(jì):我們知道,并非所有的關(guān)系都能用一個(gè)有限的數(shù)學(xué)式子來(lái)表達(dá):在絕大多數(shù)情況下,;即使引入大量的參數(shù),仍不能減少估計(jì)的誤差,這時(shí)我們就引入了非參數(shù)估計(jì),核回歸即是一種非參數(shù)估計(jì)),同時(shí),該過(guò)程也可以看作是對(duì)目標(biāo)函數(shù)進(jìn)行去噪的過(guò)程。在的形式未確定
4、的情況下,假設(shè)是N階局部平滑的,為了估計(jì)函數(shù)在給定數(shù)據(jù)下任意點(diǎn)處的值,我們可以將函數(shù)在這一點(diǎn)局部展開(kāi)。假設(shè)在采樣點(diǎn)的附近,則有N階泰勒展開(kāi)式:上式說(shuō)明如果把泰勒級(jí)數(shù)作為回歸函數(shù)的局部估計(jì),則估計(jì)參數(shù)就是基于數(shù)據(jù)的回歸函數(shù)的估計(jì),參數(shù)給出了回歸函數(shù)N階微分的局部信息。因?yàn)檫@個(gè)方法是基于局部逼近的,所以一個(gè)符合邏輯的思想就是:給定點(diǎn)附近的采樣點(diǎn)權(quán)重比較遠(yuǎn)采樣點(diǎn)權(quán)重要高。為了體現(xiàn)這種思想,我們通過(guò)下面的優(yōu)化問(wèn)題來(lái)計(jì)算:其中是核函數(shù),它以估計(jì)點(diǎn)為中心,用來(lái)控制各個(gè)采樣點(diǎn)的權(quán)重:距離x越近的點(diǎn),權(quán)值越大。是平滑參
5、數(shù)(標(biāo)量),用來(lái)控制這個(gè)核的尺度。核函數(shù)形式不確定,只需滿足關(guān)于y軸對(duì)稱并在零點(diǎn)取最大值。一般的情況下,我們只考慮情形,特別的選時(shí),我們得到的估計(jì)子為,其形式為:階數(shù)N和平滑h度同時(shí)影響估計(jì)的偏差和方差,一般的,N越小(得到的圖像更光滑),偏差越大,方差越小,h越小,偏差越小,方差越大。2.2.RelatedRegressionMethods(相關(guān)的回歸方法)B-splineregression2.3.KernelRegressionFormulationin2-D(二維的情形)同一維的情況相似,2維信
6、號(hào)的數(shù)學(xué)模型如下:此時(shí)是維的向量,對(duì)應(yīng)的泰勒級(jí)數(shù)為:其中為梯度矩陣,為黑塞矩陣定義為一個(gè)對(duì)稱矩陣的“下三角”部分的半向量化算子,例如則上式簡(jiǎn)化為:對(duì)比兩式,即是我們所要求的像素值,向量和分別為:對(duì)應(yīng)的,從下面的最優(yōu)化問(wèn)題中求得:其中此時(shí)是二維的核函數(shù),是階的平滑矩陣。我們可以把(7)式寫成矩陣的形式,即下面的賦權(quán)最小二乘優(yōu)化問(wèn)題:其中不論階數(shù)為多少,我們的目的是為了估計(jì)出像素值,所以只需估計(jì)出參數(shù)即可,故最小二乘估計(jì)簡(jiǎn)化為:(8)下面我們給出(8)式的一個(gè)更簡(jiǎn)潔更直觀的等價(jià)形式:從(8)式可知是一個(gè)階分
7、塊矩陣:其中是矩陣(一個(gè)矩陣塊),我們計(jì)算到時(shí)上述矩陣的各個(gè)元素值,有利用上述簡(jiǎn)化符號(hào),(8)式就可以表示成局部線性濾波過(guò)程:其中同時(shí)可以計(jì)算出(N=2),如下:同樣利用簡(jiǎn)化符號(hào),則其中4.SmoothingMatrixSelection(平滑矩陣的選擇)從(7)式中回歸核的形狀的定義可以看出,估計(jì)子的性能是依賴于平滑矩陣的,在數(shù)據(jù)是二維的情形下,是階的矩陣,它能擴(kuò)充回歸核的足跡(footprint)以包含足夠的樣本,如圖7所示:交叉驗(yàn)證法是一個(gè)估計(jì)局部平滑矩陣的好方法,但是這個(gè)方法計(jì)算起來(lái)非常困難,我
8、們可以采用一個(gè)簡(jiǎn)單,易于計(jì)算的模型:其中是一個(gè)標(biāo)量,用來(lái)衡量樣本的局部密度(標(biāo)準(zhǔn)的情況下,設(shè)),是全局平滑參數(shù)。上述即為經(jīng)典局部線性核回歸算法。經(jīng)典的回歸算法在圖像平滑區(qū)域可以獲得近似最佳的濾波效果,但對(duì)圖像邊緣附近的像素估計(jì)時(shí),容易造成邊緣模糊。這是由于在圖像邊緣附近存在很多跳變點(diǎn),因此核窗口中包含不連續(xù)的樣本點(diǎn),使得核估計(jì)的結(jié)果存在較大偏差。因此,有必要對(duì)經(jīng)典的核回歸算法進(jìn)行改進(jìn),以達(dá)到更好的去噪效果。3.Data-adaptedker