煤礦救生機器人設計-四連桿履帶式搜救機器人
喜歡這套資料就充值下載吧。資源目錄里展示的都可在線預覽哦。下載后都有,請放心下載,文件全都包含在內,有疑問咨詢QQ:414951605 或 1304139763
1介紹 2
2凸顯當?shù)貓D像區(qū)域檢測 3
3場景識別和定位 5
4基于模糊邏輯的比賽策略 6
5實驗,分析 9
6總結 10
參考 11
基于視覺的場景識別為煤礦救災機器人定位
文摘:提出了一種新的場景識別系統(tǒng)提出了基于模糊邏輯的和隱馬爾可夫模型(HMM),可以應用在煤礦救災機器人定位在緊急情況下。該系統(tǒng)使用單眼相機獲取全方位的圖像我的環(huán)境中機器人定位。采用center-surround差分方法,突出地方形象地區(qū)從圖像中提取天然地標。這些指標的組織利用HMM代表在現(xiàn)場機器人、模糊邏輯策略是用來比賽現(xiàn)場,具有里程碑意義的。通過這種方法,定位問題,這是現(xiàn)場識別問題的系統(tǒng),可以轉化為評價問題,嗯。這些技能的貢獻的系統(tǒng)有能力應付變化的規(guī)模、二維旋轉和觀點。實驗結果也證實了系統(tǒng)具有較高的識別和定位比靜態(tài)和動態(tài)兩種情況下我的環(huán)境。
關鍵詞:機器人位置;場景識別;突出形象;匹配策略、模糊邏輯、隱馬爾可夫模型
1介紹
搜索和救援災區(qū)的領域里機器人是一個新興的、富有挑戰(zhàn)性的課題。救援機器人進入礦山開發(fā)過程中緊急逃生路線定位可能對那些困在里面和確定它是否對人畜安全進入與否。本地化是一個基本問題這一領域。定位方法基于相機可主要分為幾何、拓撲或混合的。以其有效性和可行性,場景識別已成為一個重要的技術拓撲關系的定位
目前多數(shù)場景識別方法為基礎的在全球的圖像特征,有兩種截然不同的階段:培訓的離線和在線匹配。
在訓練階段,機器人收集圖像它工作的環(huán)境中處理圖像特征提取全球代表場景。一些方法被用來分析的data-set圖像和一些基本特征發(fā)現(xiàn),如主成分分析法(PCA)。然而,主成分分析法(PCA)
不是有效的區(qū)分類別的特征。另一種方法使用外觀特征包括顏色、紋理和邊緣密度代表圖像。例如,周劉哲用多維直方圖來描述全球外觀特征。該方法簡單易行,但敏感的規(guī)模和光照變化。事實上,各種各樣的國際形象特點是遭受環(huán)境的變化。
LOWE[5]的篩選方法,提出了一種使用相似性描述符所形成的特點。不變在興趣點的規(guī)模和方向來獲得特征。具有不變特征圖像縮放,平移、旋轉和部分不變光照變化。但篩選可能產生1 000或更多的興趣點,這可能減慢處理器戲劇性的。
在匹配階段,最近的鄰居策略(NN)廣泛應用于它的設施和清晰度[6]。但它無法捕捉的貢獻
個人特征為場景識別。在實驗中,這個神經網絡還不足以很好的表達相似兩種模式之間。此外,所選特征不能代表現(xiàn)場徹底根據(jù)嗎先進的模式識別,使識別不可靠[7]。
在一個復雜的礦山環(huán)境。在這個系統(tǒng)中,我們通過提取顯著提高變性地方形象地區(qū)創(chuàng)建取代整個圖像處理與大的變化,規(guī)模、二維旋轉和觀點。興趣點的數(shù)量是有效降低,使加工容易。模糊識別戰(zhàn)略是為了認識論及的地方神經網絡的,可以增強的貢獻個人特征為場景識別。因為它的部分信息恢復能力,隱馬爾可夫模型采用組織這些地標,可以捕捉結構或他們之間的關系。所以場景識別可以轉化為評價問題,嗯,這使得識別的魯棒性。
2凸顯當?shù)貓D像區(qū)域檢測
研究表明,生物視覺系統(tǒng)生物(像果蠅)經常注重一定的特殊的地區(qū),在現(xiàn)場行為的相關性或地方形象線索,同時觀察環(huán)境[8]。這些區(qū)域可以被看作是自然的創(chuàng)建有效地表示并區(qū)分不同環(huán)境。靈感來自于那些,我們用center-surround差分方法對檢測顯著地區(qū)在多尺度圖像空間。opponencies的顏色和紋理計算到創(chuàng)造凸極地圖。
輸入表格內提供靜態(tài)彩色圖像命名為G0期。多尺度圖像空間G1?輪流以G4(1:1 到 1?:?64)是由方程式。(1)和(2)。
Gn0 = w *Gn?1 (1)
Gn0 n∈Gn= Subsampled[1,4] (2)
在w是一個Gaussion低通濾波器,和“*”表示卷積實現(xiàn)。讓中心是{ G1,G2 }和環(huán)境都{ G3,輪流以G4 }的定義這些材料的特性是opponency尺度之間的差異中心和環(huán)境之間通過引入“Θ”,這意味著環(huán)境插值和嗎然后減去中心像素。
計算opponencies呈現(xiàn)出希望的顏色,它是有必要把RGB空間分成RGBY空間為強調opponencies紅/綠和藍/黃[9]??臻g計算
R=r?(g+b)/2
G=g?(r+b)/2
B=b?(r+g)/2
Y=(r+g)/2?|r?g|/2?b
所以,opponencies計算出的顏色
RG(c, s)=|(R(c)?G(c)) Θ (G(s)?R(s))|
BY(c, s)=|(B(c)?Y(c)) Θ (Y(s)?B(s))|
其中c∈Centers, s∈Surroundings. RG(c, s) 屬于紅和綠的對立; BY(c, s) 屬于藍和黃的對立 計算紋理opponencies,第十二濾波器因為其能力選擇獲得局部最優(yōu)無論是在時間域和頻率域。研究人類心理物理和視覺生理表明,它更像人類的注意力機制[10]。
Gabor定理被定義為h(x, y)=g(x, y)e2πj(ux+vy). 因為第十二過濾是極性的對稱的頻率領域,方向為0?π能覆蓋所用的頻率空間,一般情況下有4個過程其方向為0°, 45°,90° 和 135°紋理4方向計算為
Tθ(x, y)=|Gn(x, y)*hθ(x, y)|
我們可以完成紋理方向的反方向為
T(c, s, θ)=|Tcθ(x, y) Θ Tsθ(x, y)|
其中 c∈Centers, s∈Surroundings, θ∈{0°, 45°, 90°,135°}.
vThen所有opponencies結合根據(jù)方程式。(3)?(5)創(chuàng)造凸極圖s,定義規(guī)范操作的N(),可以發(fā)現(xiàn),在文獻[9]。
在重量w1及w2為此所指示的意義的顏色和紋理。我們也設計算法采用最小均方算法學習w1及參與離線。圖1(b)顯示凸極具有里程碑意義的地區(qū)獲得的位置更輕更凸現(xiàn)出來。
隨訪中,sub-image為中心的顯著位置在年代作為這個具有里程碑意義的地區(qū)。大小的這個具有里程碑意義的地區(qū)可以自適應地確定依據(jù)的變化梯度方向的地方圖像[11]。
移動機器人導航要求自然地標應及時發(fā)現(xiàn)當環(huán)境穩(wěn)定在某種程度上改變。重復性驗證在具有里程碑意義的檢測我們的方法,我們已經做了很多實驗對這種情況的規(guī)模、二維旋轉和觀點變化等。圖2顯示門查它的凸極變化時的觀點。更多的詳細分析和研究結果存在旋轉和比例可以被發(fā)現(xiàn)在我們以前的作品[12]。
3場景識別和定位
不同于其他場景識別系統(tǒng),我們的系統(tǒng)不需要訓練離線。換句話說,我們的場景不是預先分類。當機器人徘徊,場景捕獲間隔固定的時間是用來建造它的頂點的拓撲地圖,代表了機器人定位的地方。雖然這個地圖的幾何布局都被定位系統(tǒng),它是有用的可視化和調試[13]嗎有利于路徑規(guī)劃。所以定位手段搜索最佳匹配的當前場景在地圖上。在本文隱馬爾可夫模型是用來組織從當前場景中提取的地標和創(chuàng)造頂點的拓撲地圖,其局部信息恢復能力。
類似的全景視覺系統(tǒng),機器人看起來讓omni-images周圍。 從每一個形象,突出局部區(qū)域檢測,構成了一個序列,命名為具有里程碑意義的序列的順序是一樣的圖像序列。然后一個隱馬爾可夫模型創(chuàng)建基于這個具有里程碑意義的序列包括k突出地方形象地區(qū),這是作為描述機器人的地方位于。在我們的系統(tǒng)EVI-D70相機有±170°的視野??紤]到重疊效果,我們樣品的環(huán)境每45°到8圖像。 讓8圖像作為隱藏狀態(tài)Si(1≤i≤8),創(chuàng)造了HMM可以說明圖。參數(shù)對,aij和bjk,實現(xiàn)了學習、使用Baulm-Welch算法[14]。 的門檻收斂設置為0.001。至于拓撲地圖的邊緣,我們將它隨著距離的兩個頂點之間的信息。這距離可以根據(jù)odometry計算閱讀資料。
位自身拓撲地圖,機器人必須用“眼睛”的環(huán)境和提取具有里程碑意義的序列,那么搜索在地圖上最好的匹配的頂點(現(xiàn)場。不同于傳統(tǒng)概率定位[15],在我們的系統(tǒng)定位問題可以轉化為評價的問題嗯。頂點以最大的評價值,必須大于一個閾值,作為嗎最佳匹配的頂點,表明最機器人可能的地方。
為評估,首先我們必須準備一份觀察序列順序如下。
根據(jù)相似性計算我們設計了一種新的基于模糊邏輯的比賽策略,可以發(fā)現(xiàn)在接下來的部分里。一旦觀察序列生成、評價過程計算出一個后概率值P(VT)根據(jù)Eqn。(6),在那里是一套隱藏狀態(tài)嗎序列和r指數(shù)一個特殊的隱藏狀態(tài)序列[3]。詳細分析和算法發(fā)現(xiàn)在文獻[4]。
4基于模糊邏輯的比賽策略
一個重要的問題在圖像匹配問題選擇最有效的特征,或描述代表了原始圖像。由于機器人運動,那些提取具有里程碑意義的地區(qū)將會改變像素水平。所以,描述符或特征選擇應不變在某種程度上根據(jù)變化的規(guī)模、旋轉和觀點等。在本文中,我們利用4一般特點,采用社區(qū)簡述如下。GO:梯度方向。已經證明照明和旋轉的變化可能有更少影響[5]。
ASM和ENT:二階矩和角熵,這是兩個紋理描述符。
H亨利:色調,用于描述基本信息的圖像。
另一個關鍵的問題是要選擇一個比賽良好的匹配策略和算法。通常最近的鄰居策略(NN)是用來衡量相似兩種模式之間。但是我們發(fā)現(xiàn)了實驗表明,神經網絡不能充分地展現(xiàn)個人描述符或特征的貢獻相似性度量。圖中所示,輸入圖像圖(a)來自不同的看法圖(b)。但是Figs.4之間的距離(a)和(b)計算Jefferey差異大于圖(c)。
為了解決這個問題,我們設計一個新的比賽給出了一種基于模糊邏輯的微妙的表現(xiàn)每個特征的變化。該算法描述下面。
使用Jefferey圖計算相似度的差異:(a)輸入形象;(b)具有里程碑意義的數(shù)據(jù)庫的索引是6和Jefferey分歧d = 7.305 2;(c)具有里程碑意義的數(shù)據(jù)庫的索引14及其Jefferey分歧d = 4.662
1) 首先所有特征fuzzifyid如下。
在這些方程Nk代表的數(shù)量象素灰度k、Npixels像素的總數(shù)的形象,Nm_GO的像素數(shù)與角度學位 m 在{ GOij },Nm_H在{}。Aij代表灰色價值的像素,μk的平均程度由于通過模糊分類灰色水平鉀、μm k角程度相當于256個和m等于360。
2)相似性地標是計算機使用的個人特征,分別。這關于古今特征相似度在模糊設置{ASM,ENT、GO、H }被定義為
然后我們比較地方形象和每個人都在數(shù)據(jù)庫。拒絕和rmean記錄。3)所有的相似程度的各具特色,融為一體獲得一個判斷,可由Eqn形式化(7)。
依據(jù)權重確定根據(jù)rmean?拒絕各具特色的。經分類,然后王是指定的0.4、0.3、0.2、0.1,分別按順序在數(shù)據(jù)庫中,這個具有里程碑意義的融合相似度高于其他任何作為最好的比賽。這個比賽結果的Figs.4(b)和(c)證明了圖。顯示,該方法能測量兩種模式之間相似度的有效。
5實驗,分析
定位系統(tǒng)已經得到了落實在一個移動機器人,它建立在我們的實驗室。視覺系統(tǒng)由CCD相機和一個frame-grabber下腔靜脈- 4200。 圖像的分辨率設置為400×320和采樣頻率將10幀/ s。計算機系統(tǒng)由1兆赫處理器和512米的記憶,這是所攜帶的機器人。目前該機器人工作的室內環(huán)境。同樣的場景圖像區(qū)域和區(qū)分有效。表1顯示靜態(tài)識別結果環(huán)境包括5 laneways和筒倉。十個場景精選每個環(huán)境和 HMMs創(chuàng)造了每一個場景中。收集20的場景當機器人進入各個環(huán)境后比賽60 HMMs以上。
在表格上,“真相”意味著情景局部場比賽對場景的評價價值是30%比HMM第二高評價)?!安淮_定性”意味著評價HMM的價值大于第二高的評價在10%以下?!板e誤匹配”意味著情景本地化的比賽,錯誤的場景。在桌子上,比錯誤匹配是0。但這是不可能的場景本地化無法匹配任何場景和新序列為依據(jù)被創(chuàng)造出來。此外,“比真理“關于筒倉低,因為顯著的球桿是減少這類環(huán)境。
在這個時期的自動探索,同樣的場景可以結合。這個過程可以概括為:
當定位成功,當前的地標序列添加到隨之而來的觀察序列匹配的頂點un-repeatedly照他們的定位(包括角度的圖像從當?shù)丶巴怀龅暮较驒C器人來)。學習參數(shù)的HMM再一次。方法相比,使用外觀整幅圖像的特點(方法2,M2),我們的系統(tǒng)(M1)使用當?shù)氐娘@著區(qū)域的定位及地圖,這使得它有更多的寬容的規(guī)模、觀點機器人的運動引起的變化,性價比高識別和更少的金額數(shù)拓撲地圖。所以,我們的系統(tǒng)具有較好的性能在動態(tài)環(huán)境下。這些表2中可以看出。Laneways 1、2、4、5運行有些礦工的地方在工作,這拼圖機器人。
6總結
1)局部圖像特征明顯,提取取代整個圖像參與識別,提高公差的變化在規(guī)模、2 D旋轉和觀點的環(huán)境形象。
2)模糊邏輯是用來認識當?shù)氐男蜗?并強調個體特征的貢獻識別,提高了可靠性的地標建筑。
3)HMM用于捕獲結構或那些當?shù)氐膱D像之間的關系,把場景識別問題轉化為評價的問題HMM。
4)從以上實驗結果表明該煤礦救災機器人場景識別系統(tǒng)具有較高比率的識別和定位。
參考
[1] QIAN Shan-hua, GE Shi-rong, WANG Yong-sheng, LIU Chang-qing.
Research status of the disaster rescue robot and its applications to the
mine rescue [J]. Robot, 2006, 28(3): 350?354.
[2] ULRICH I, NOURBAKHSH I. Appearance based place recognition
for topological localization [C]// KHATIB Q. Proc of the IEEE
International Conference on Robotics and Automation. San Francisco,
2000: 1023?1029.
[3] ARTAC M, JOGAN M, LEONARDIS A. Mobile robot localization
using an incremental eigenspace model [C]// DUBEY R V. Proc of
the IEEE International Conference on Robotics and Automation.
Washington, 2002: 1025?1030.
[4] ZHOU C, WEI Y C, TAN T N. Mobile robot self-localization based
on global visual appearance features [C]// LUO R C. Proc of the
IEEE International Conference on Robotics and Automation. Taipei,
2003: 1271?1276.
[5] LOWE D. Object recognition from local scale invariant features [C]//
BOYER K L. Proc of the International Conference on Computer
Vision. Greece, 1999: 1150?1157.
[6] CHEN Yong-sheng, HUNG Yi-ping, YEN Ting-fang, FUH Chioushan.
Fast and versatile algorithm for nearest neighbor search based
on a lower bound tree [J]. Pattern Recognition, 2007, 40(2):
360?375.
[7] RAPTIS S N, TZAFESTAS S G. Fuzzy-probabilistic object
recognition based on edge and texture descriptors fusion [C]// JENG
Mu-de. IEEE International Conference on Systems, Man, and
Cybernetics. Nashville, USA. 2000: 1621?1626.
[8] HEISENBERG M, WOLF R. Studies of brain function [M]. Berlin,
Germany: Springer-Verlag Press, 1984.
[9] EDUARDO T, TORRAS C. Detection of nature landmarks through
multiscale opponent features [C]// LOOG M. Proc of International
Conference on Pattern Recognition. Barcelona, 2000: 3988?3991.
[10] SHENG W, XIA B. Texture segmentation method based on Gabor
ring filtering [J]. Infrared and Laser Engineering, 2003, 32(5):
484?488.
[11] MIKOLAJCZYK K, SCHMID C. Scale and affine invariant interest
point detectors [J]. International Journal of Computer Vision, 2004,
60(1): 63?86.
[12] WANG L, CAI Z X. Saliency based natural landmarks detection
under unknown environments [J]. Pattern Recognition and Artificial
Intelligence, 2006, 1(1): 52?56.
[13] GUILHERME N D, AVINASH C K. Vision for mobile robot
navigation: A survey [J]. IEEE Transaction on Pattern Analysis and
Machine Intelligence, 2002, 24(2): 1?31.
[14] DUDA R, HART P, STORK D. Pattern classification [M]. 2nd ed.
Beijing: China Machine Press, 2004.
[15] VALE A, RIBEIRO M I. A probabilistic approach for the localization
of mobile robots in topological maps [C]// KOVACIC Z. Proc of the
10th Mediterranean Conference on Control and Automation. Lisbon,
Portugal, 2002: 1244?1249.
收藏