資源描述:
《信息熵在圖像分割中的應(yīng)用論文》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫。
1、信息熵在圖像分割中的應(yīng)用畢業(yè)論文目錄摘要...........1ABSTRACT2目錄31引言51.1信息熵的概念51.2信息熵的基本性質(zhì)及證明61.2.1單峰性61.2.2對稱性71.2.3漸化性71.2.4展開性71.2.5確定性82基于熵的互信息理論92.1互信息的概述92.2互信息的定義92.3熵與互信息的關(guān)系93信息熵在圖像分割中的應(yīng)用113.1圖像分割的基本概念113.1.1圖像分割的研究現(xiàn)狀113.1.2圖像分割的方法113.2基于改進(jìn)粒子群優(yōu)化的模糊熵煤塵圖像分割123.2.1基本粒子群算法123.2.2改進(jìn)粒子群優(yōu)化算法1
2、33.2.3Morlet變異133.2.4改建粒子群優(yōu)化的圖像分割方法143.2.5實驗結(jié)果及分析163.3一種新信息熵的定義及其在圖像分割中的應(yīng)用193.3.1香農(nóng)熵的概念及性質(zhì)193.3.2一種信息熵的定義及證明19373.3.3信息熵計算復(fù)雜性分析213.3.4二維信息熵閾值法223.3.5二維信息熵閾值法的復(fù)雜性分析243.3.6結(jié)論及分析254信息熵在圖像配準(zhǔn)中的應(yīng)用274.1圖像配準(zhǔn)的基本概述274.2基于互信息的圖像配準(zhǔn)274.3Powell算法284.4變換284.4.1平移變換294.4.2旋轉(zhuǎn)變換304.5基于互信息的圖
3、像配準(zhǔn)的設(shè)計與實現(xiàn)314.5.1總體設(shè)計思路和圖像配準(zhǔn)實現(xiàn)314.5.2直方圖334.5.3聯(lián)合直方圖334.5.4灰度級差值技術(shù)344.4.5優(yōu)化搜索辦法級結(jié)論355結(jié)語37致謝38參考文獻(xiàn)391引言1.1.信息熵的概念1948年,美國科學(xué)家發(fā)表了一篇著名的論文《通信的數(shù)學(xué)理論》。他從研究通信系統(tǒng)傳輸?shù)膶嵸|(zhì)出發(fā),對信息做了科學(xué)的定義,并進(jìn)行了定性和定量的描述。他指出,信息是事物運動狀態(tài)或存在方式的不確定性的描述。其通信系統(tǒng)的模型如下所示:37信源編碼信道信號解碼信宿干擾噪聲圖1.1信息的傳播信息的基本作用就是消除人們對事物的不確定性。信息
4、熵是信息論中用于度量信息量的一個概念。假定是隨機變量的集合,表示其概率密度,計算此隨機變量的信息熵的公式是:表示一對隨機變量的聯(lián)合密度函數(shù),他們的聯(lián)合熵可以表示為:信息熵描述的是信源的不確定性,是信源中所有目標(biāo)的平均信息量。信息量是信息論的中心概念,將熵作為一個隨機事件的不確定性或信息量的量度,它奠定了現(xiàn)代信息論的科學(xué)理論基礎(chǔ),如果一條信息是由個字符連成的字符串組成,并且每個字符有種可能,那么這條信息就有種不同的排列情況,那么可以用度量信息量,但這時的信息量隨著消息的長度按指數(shù)增加,為了使信息量的度量值按線性增加,Hartley給出了取對數(shù)
5、的信息量的定義:(1.1)由上式可以看出,信息量隨著消息的可能性組合增多而增多,如果消息只有一種可能性時即事件為必然事件時,那么消息中包含的信息量為零。因此可以看出,可能收到的不同消息越多,對收到哪條消息的不確定性就越大;相反,收到只有一種可能性的消息,不確定性為零,Hartley對消息的度量實際是對不確定性的度量。Hartley度量方法的不足之處是他所定義信息量是假定所有符號發(fā)生的概率相同,但實際情況各符號并不一定都等概發(fā)生,為此,Shannon用概率加權(quán)來衡量消息出現(xiàn)的可能性,對Hartley的度量方法做出改進(jìn)。設(shè)某一隨機過程中有k種可
6、能的情況,每種情況發(fā)生的概率分別是,,…,,Shannon給出了熵的如下定義:(1.2)當(dāng)所有可能的事件均以相等的概率發(fā)生時,上式就成了Hartley定義的熵,并且這時熵取得最大值,即37(1.3)所以,Hartley熵是,Shannon熵的特殊情形,而Shannon更具有一般性。Shannon熵包含三種含義:第一種含義是度量信息量,事件發(fā)生概率與獲得的信息量成反比,即概率越大,信息量越少,又由式(1.3)知,概率越大,信息量越少,熵越小,所以可用熵的大小來度量信息量,熵越大,信息量越大;第二是度量事件概率分布的分散度,概率集中分布時熵值小
7、,分散性越強,熵越大;三含義是度量事件發(fā)生的不確定性,概率越大,事件的不確定性越小,熵越小。利用上面第三個含義,可以用Shannon熵,來度量圖像包含的信息量,圖像灰度值的概率分布是每灰度值出現(xiàn)的次數(shù)除以圖像中所有灰度值出現(xiàn)的總次數(shù),此時圖像的信息量可依據(jù)這個概率分布來計算,一幅圖像中不同的灰度值較少,各灰度值出現(xiàn)的概率較高,則對應(yīng)的灰度值較低,意味著這幅圖像含有的信息量很少。反之,如果一幅圖像中含有很多不同的灰度值,且各灰度值發(fā)生的概率又基本一致,則它的熵值會很高,那么這幅圖像包含的信息量很大。1.2信息熵的基本性質(zhì)及證明1.2.1單峰性
8、信息熵的單峰性可表述為:先考察由、兩個事件構(gòu)成的概率系統(tǒng),其產(chǎn)生的概率分別為和則該系統(tǒng)的信息通過求極限不難證明:(1)當(dāng)時,這是一種產(chǎn)生的概率為0,產(chǎn)生的概率為1的確定系統(tǒng)。(2