基于hadoop的超像素分割算法

基于hadoop的超像素分割算法

ID:31359264

大小:131.00 KB

頁數(shù):17頁

時間:2019-01-09

基于hadoop的超像素分割算法_第1頁
基于hadoop的超像素分割算法_第2頁
基于hadoop的超像素分割算法_第3頁
基于hadoop的超像素分割算法_第4頁
基于hadoop的超像素分割算法_第5頁
資源描述:

《基于hadoop的超像素分割算法》由會員上傳分享,免費在線閱讀,更多相關(guān)內(nèi)容在學(xué)術(shù)論文-天天文庫

1、基于Hadoop的超像素分割算法  摘要:針對高分辨率圖像像素分割時間復(fù)雜度高的問題,提出了超像素分割算法。采用超像素代替原始的像素作為分割的處理基元,將Hadoop分布式的特點與超像素的分塊相結(jié)合。在分片過程中提出了基于多任務(wù)的靜態(tài)與動態(tài)結(jié)合的適應(yīng)性算法,使得Hadoop分布式文件系統(tǒng)(HDFS)的分塊與任務(wù)分發(fā)的基元解耦;在每一個Map節(jié)點任務(wù)中,基于超像素分塊的邊界性對超像素的形成在距離和梯度上進行約束,提出了基于分水嶺的并行化分割算法。在Shuffle過程的超像素塊間合并中提出了兩種合并策略,并進行了比較。在R

2、educe節(jié)點任務(wù)中優(yōu)化了超像素塊內(nèi)合并,完成最終的分割。實驗結(jié)果表明.所提算法在邊緣查全率(BR)和欠分割錯誤率(UR)等分割質(zhì)量指標上優(yōu)于簡單線性迭代聚類(SLIC)算法和標準分割(Ncut)算法,在高分辨率圖像的分割時間上有顯著降低?! £P(guān)鍵詞:Hadoop;圖像分割;超像素;并行算法;MapReduce  中圖分類號:TP391.41  文獻標志碼:A  文章編號:1001-9081(2016)11-2985-08  0引言  在世界多元化發(fā)展的背景下,互聯(lián)網(wǎng)技術(shù)在各個方面都為人們的生活帶來了便利。圖形圖像作為

3、人類與計算機交互最為直觀、便捷的方式,其相應(yīng)的處理以及識別分析能力直接會影響到人們的感官體驗,17而圖像分割作為連接圖像處理與圖像識別、圖像分析的橋梁,也會為接下來的后續(xù)使用帶來極大的性能提升;同時,圖像本身的來源以及背景也隨著成像技術(shù)的進步,逐漸朝著多元化的方向發(fā)展,大尺寸、高分辨率的圖像本身蘊含著多維度的信息,例如生物醫(yī)學(xué)圖像[1]、地理遙感圖像[2]等,如何在準確分割的同時保持較低的消耗時間成為時下研究的熱點?! ∠袼刈鳛閳D像分割的基本單位,是圖像灰度及其基本原色素的編碼,在當今的大數(shù)據(jù)時代背景下,大尺度、高分辨

4、率的圖像如果仍是以像素作為分割基準點,執(zhí)行起來就會非常耗時。超像素在圖像分割中并沒有十分明確的定義,在不同的環(huán)境背景下可以適應(yīng)性地變化,大致可以理解為將某些具有相鄰位置、相近顏色、相似亮度或者相似紋理特征的像素聚合到一起形成的一小塊區(qū)域[3]?! ≡诔袼靥岢龅某跗?,從算法核心的立足點的角度出發(fā)可以大致可分為兩個原型:一是基于圖論的方法,二是基于梯度下降的算法。比較有特點的基于圖論的方法有:2000年Shi等[4]提出的標準分割(Normalizedcut,Ncut)方法、2004年Felzenswalb等[5]提出的

5、graph-based方法、2008年Moore等[6]提出的超像素格方法、2010年Veksler等[7]提出的GCa10andGCb10算法、2011年Liu等[8]提出的基于熵率的方法、2011年Zhang等[9]提出的基于偽布爾優(yōu)化的超像素分割算法、2012年Bergh等[10]提出的基于種子點的算法、2013年王春瑤等[11]提出的基于自適應(yīng)結(jié)構(gòu)塊的超像素算法等。這些算法都是根據(jù)原始圖像的邊界信息或者紋理特征來進行特征標識,17利用相應(yīng)的類似最小生成樹等的算法原型來進行全局最優(yōu)化代價函數(shù)的判定進而對圖像進行分

6、割。而在基于梯度下降的算法中比較有特點的有:1991年被Vincent等[12]提出并一直優(yōu)化至今的分水嶺算法、2002年Comaniciu等[13]提出的Meanshift算法、2008年Vedaldi等[14]提出的快速漂移算法、2009年Levinshtein等[15]提出的水平集膨脹算法以及2010年Achanta等[16]提出的一直被用作比較的簡單線性迭代聚類(SimpleLinearIterativeClustering,SLIC)算法等,這些算法都是基于聚類的模型,利用初始化的種子中心,運用相應(yīng)的優(yōu)化判別

7、方式來確定聚集的判定,最后形成超像素的像素集合。  作為大數(shù)據(jù)時代的衍生物,Hadoop平臺在處理海量數(shù)據(jù)方面有著十分有效的作用。追溯到最初,谷歌的三大論文Bigtables[17]、谷歌文件系統(tǒng)(GoogelFieSystem,GFS)[18]、MapReduce[19]帶來了云計算的變革,Hadoop就是在此基礎(chǔ)上用來對文本數(shù)據(jù)進行存儲和分析。Hadoop的原型是Apache下的Java開源項目Nutch[20]。全球的各大IT公司紛紛為了在云計算行業(yè)上占有一席之地而改革創(chuàng)新,而良好的計算模式和運行框架的誕生也為包

8、括大分辨率圖像在內(nèi)的海量數(shù)據(jù)集的處理帶來了新的可能。因此,如何利用好其拓展性來更有效地解決更多的實際問題將會帶來更快的技術(shù)更新?! ≡诋斍暗拇髷?shù)據(jù)環(huán)境下,將圖像處理與分布式相結(jié)合能達到更令人滿意的結(jié)果。在研究初期,學(xué)者們利用了MapReduce其中的一部分或者僅僅完成了對圖像的簡單處理,例如圖像的灰度處理、特征值提取等,2009年

當前文檔最多預(yù)覽五頁,下載文檔查看全文

此文檔下載收益歸作者所有

當前文檔最多預(yù)覽五頁,下載文檔查看全文
溫馨提示:
1. 部分包含數(shù)學(xué)公式或PPT動畫的文件,查看預(yù)覽時可能會顯示錯亂或異常,文件下載后無此問題,請放心下載。
2. 本文檔由用戶上傳,版權(quán)歸屬用戶,天天文庫負責整理代發(fā)布。如果您對本文檔版權(quán)有爭議請及時聯(lián)系客服。
3. 下載前請仔細閱讀文檔內(nèi)容,確認文檔內(nèi)容符合您的需求后進行下載,若出現(xiàn)內(nèi)容與標題不符可向本站投訴處理。
4. 下載文檔時可能由于網(wǎng)絡(luò)波動等原因無法下載或下載錯誤,付費完成后未能成功下載的用戶請聯(lián)系客服處理。