資源描述:
《基于數(shù)據(jù)的學(xué)習(xí)埃爾米特算法與法向量估計(jì)》由會(huì)員上傳分享,免費(fèi)在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫(kù)。
1、中國(guó)科學(xué)技術(shù)大學(xué)博士學(xué)位論文基于數(shù)據(jù)的學(xué)習(xí):埃爾米特算法與法向量估計(jì)姓名:石磊申請(qǐng)學(xué)位級(jí)別:博士專(zhuān)業(yè):數(shù)學(xué)指導(dǎo)教師:周定軒;鄧建松20100419摘要摘摘摘要要要在本文中,我們主要研究學(xué)習(xí)理論中關(guān)于回歸,流形學(xué)習(xí)和數(shù)據(jù)分析的一些算法。我們將詳細(xì)地討論這些算法的設(shè)計(jì),并從逼近論的觀點(diǎn)討論其漸近性質(zhì)。論文的第一部分,在再生核Hilbert空間中最小二乘回歸正則化算法的框架下,我們研究了基于梯度樣本數(shù)據(jù)的學(xué)習(xí)問(wèn)題。在表示定理的幫助下,算法的求解歸結(jié)為求解一個(gè)線性方程組,系數(shù)矩陣中涉及核函數(shù)值的Gramian矩陣以及核函數(shù)偏導(dǎo)數(shù)值的Hessian
2、矩陣。額外的關(guān)于梯度的樣本值可以提高算法的學(xué)習(xí)性能。通過(guò)運(yùn)用采樣算子分析樣本誤差和Sobolev空間中的積分算子分析逼近誤差,我們給出該算法的誤差分析。法向量估計(jì)是處理點(diǎn)云數(shù)據(jù)以及計(jì)算機(jī)圖形學(xué)中曲面重構(gòu)的重要研究課題。在論文的第二部分,我們考慮歐式空間中余維為1的子流形上的法向量估計(jì)問(wèn)題。由于流形是未知的,我們要利用在流形上隨機(jī)采樣得到的樣本點(diǎn)來(lái)估計(jì)法向量。我們提出了一種由核函數(shù)構(gòu)造的學(xué)習(xí)算法,它實(shí)際上是無(wú)監(jiān)督形式的梯度學(xué)習(xí)。算法的求解歸結(jié)為求解一個(gè)線性代數(shù)的特征向量問(wèn)題。在真實(shí)的法向量和采樣分布滿足一定的條件時(shí),我們得到了關(guān)于該算法的誤
3、差估計(jì)。在論文的最后一部分,我們主要討論樣本依賴假設(shè)空間中的正則化回歸問(wèn)題。對(duì)于給定的一組樣本數(shù)據(jù),樣本依賴假設(shè)空間中的函數(shù)定義為由核函數(shù)和樣本數(shù)據(jù)產(chǎn)生的一族基函數(shù)的線性組合,因此空間中的函數(shù)完全取決于其線性組合的系數(shù)。這種核函數(shù)構(gòu)造的假設(shè)空間其依賴樣本的特質(zhì)給學(xué)習(xí)算法帶來(lái)很大的靈活性和自適應(yīng)性。在這種空間里討論的正則化算法與傳統(tǒng)的再生核Hilbert空間中的算法有本質(zhì)的不同:我們所考慮的核函數(shù)不是對(duì)稱(chēng)的,從而不具有半正定性,正則化子作為作用在該空間中函數(shù)上的泛函,被取為其相應(yīng)的組合系數(shù)的??范數(shù)的?次冪。這種不同增加了誤差分析的困難。具
4、體來(lái)說(shuō),我們主要在本文中研究了兩種情況:?=1和?=2。當(dāng)?=1時(shí),?1正則化子經(jīng)常會(huì)使解向量具有稀疏性,從而極大提高算法運(yùn)行的效率。當(dāng)?=2時(shí),相應(yīng)的算法是線性的并且可以通過(guò)一個(gè)線性方程組來(lái)求解。這兩種算法都已經(jīng)被一些文獻(xiàn)研究過(guò)。在本文中,我們利用關(guān)于?2經(jīng)驗(yàn)覆蓋數(shù)的中心I摘要極限定理得到了學(xué)習(xí)算法目前為止最好的收斂階。因?yàn)槲覀兊哪康氖墙o出一種容量相關(guān)的分析方法,對(duì)于在誤差分析中出現(xiàn)的由非對(duì)稱(chēng)核函數(shù)構(gòu)造的函數(shù)空間,我們給出了其中的單位閉球關(guān)于?2經(jīng)驗(yàn)覆蓋數(shù)的性質(zhì),這在我們的分析中起了十分關(guān)鍵的作用。關(guān)關(guān)關(guān)鍵鍵鍵詞詞詞:::埃爾米特學(xué)習(xí)法
5、向量估計(jì)流形學(xué)習(xí)樣本依賴假設(shè)空間系數(shù)正則化算法IIABSTRACTABSTRACTInthisthesis,weinvestigatesomealgorithmsinlearningtheoryforpurposeofregression,manifoldlearninganddataanalysis.Theirdesignandasymptoticperfor-mancewillbediscussedindetailfromtheviewpointofapproximationtheory.Inthe?rstpart,theproble
6、moflearningfromdatainvolvingfunctionvaluesandgradientsisstudiedinaframeworkofleast-squareregularizedregressioninreproduc-ingkernelHilbertspaces.Thealgorithmisimplementedbyalinearsystemwiththecoef?cientmatrixinvolvingbothblockmatricesforgeneratingGraphLaplaciansandHessians
7、.Theadditionaldataforfunctiongradientsimprovelearningperformanceofthealgorithm.ErroranalysisisdonebymeansofsamplingoperatorsforthesampleerrorandintegraloperatorsinSobolevspacesfortheapproximationerror.Normalestimationisanimportanttopicforprocessingpointclouddataandsur-fac
8、ereconstructionincomputergraphics.Inthesecondpartofthethesis,weconsidertheproblemofestimatingnor