基礎(chǔ)信息
權(quán)利要求
說明書
PDF全文
法律信息
引證文獻
著錄項信息
專利名稱 | 多移動機器人的智能空間系統(tǒng)及導航信息獲取方法 |
申請?zhí)?/td> | CN201210384363.0 | 申請日期 | 2012-10-11 |
法律狀態(tài) | 權(quán)利終止 | 申報國家 | 中國 |
公開/公告日 | 2013-02-06 | 公開/公告號 | CN102914303A |
優(yōu)先權(quán) | 暫無 | 優(yōu)先權(quán)號 | 暫無 |
主分類號 | G01C21/00 | IPC分類號 | G;0;1;C;2;1;/;0;0;;;H;0;4;W;8;4;/;1;8查看分類表>
|
申請人 | 江蘇科技大學 | 申請人地址 | 江蘇省鎮(zhèn)江市夢溪路2號
變更
專利地址、主體等相關(guān)變化,請及時變更,防止失效 |
權(quán)利人 | 江蘇科技大學 | 當前權(quán)利人 | 江蘇科技大學 |
發(fā)明人 | 袁明新;申燚;王琪;劉萍;程帥 |
代理機構(gòu) | 南京經(jīng)緯專利商標代理有限公司 | 代理人 | 樓高潮 |
摘要
本發(fā)明公開了一種多移動機器人的智能空間系統(tǒng)及導航信息獲取方法,智能空間系統(tǒng)由分布式視覺系統(tǒng)和基于Zigbee技術(shù)的無線傳感器網(wǎng)絡系統(tǒng)組成。所述方法先基于最大梯度相似曲線和仿射變換模型進行圖像拼接,然后基于大津閾值分割和數(shù)學形態(tài)學進行圖像分割獲得環(huán)境地圖。導航中移動機器人的定位采用以視覺定位為主,以Zigbee和DR(航位推算)組合定位為輔來彌補視覺定位中的視覺盲區(qū)。視覺定位主要基于H IS顏色模型和數(shù)學形態(tài)學,對含有機器人位置和方向標識的圖像進行處理來實現(xiàn)定位。組合定位是利用聯(lián)合卡爾曼濾波器對Zigbee和DR(航位推算)進行信息融合定位。
1.一種多移動機器人的智能空間系統(tǒng)的導航信息獲取方法,所述智能空間系統(tǒng)由分布式視覺系統(tǒng)和基于Zigbee技術(shù)的無線傳感器網(wǎng)絡系統(tǒng)組成;分布式視覺系統(tǒng)由多個CCD攝像機(3)通過萬向支架(2)分布且垂直地安裝在室內(nèi)頂棚(1)上構(gòu)成,多個CCD攝像機(3)再通過視頻線與插在室內(nèi)監(jiān)控主機(6)的PCI插槽內(nèi)的多路圖像采集卡(5)相連;基于Zigbee的無線傳感器網(wǎng)絡系統(tǒng)包括:參考節(jié)點(4)、盲節(jié)點(8)和Zigbee網(wǎng)關(guān)(9),參考節(jié)點(4)掛靠在室內(nèi)四周墻壁上,盲節(jié)點(8)安裝在移動機器人(7)身上,且每個移動機器人(7)都需安裝一個盲節(jié)點(8),Zigbee網(wǎng)關(guān)(9)通過RS232串口與監(jiān)控主機(6)連接;移動機器人(7)將自身的狀態(tài)信息發(fā)送給監(jiān)控主機(6),并接收來自監(jiān)控主機(6)的控制信息;
移動機器人(7)之間進行狀態(tài)信息的無線交互;其特征在于:多移動機器人的智能空間系統(tǒng)的導航信息獲取方法,包括環(huán)境信息獲取方法和機器人定位方法,其中環(huán)境信息獲取方法如下:
采用所述移動機器人(7)先進行室內(nèi)環(huán)境的圖像拼接;然后進行地圖信息獲取;
圖像拼接采用如下步驟:
(1)利用分布式CCD攝像機(3)采集室內(nèi)不同區(qū)域的圖像;
(2)進行圖像預處理:采用5×5的結(jié)構(gòu)元素對步驟(1)采集的圖像進行中值濾波的平滑處理,去除圖像中可能存在的噪聲點得到待拼接圖像;
(3)利用最大梯度相似曲線法確定待拼接圖像各重疊區(qū)域;
(4)利用Harris角點檢測算法在各重疊區(qū)域中提取角點;
(5)利用奇異值分解算法和歐式距離法進行各重疊區(qū)域的角點匹配;
(6)找出各重疊區(qū)域最相似的三對角點,建立各重疊區(qū)域的仿射變換模型;
(7)完成整個室內(nèi)環(huán)境的圖像拼接;
地圖信息獲取采用如下步驟:
1)基于YUV色彩模型,將上述步驟(7)所得的室內(nèi)環(huán)境的拼接圖像轉(zhuǎn)換為灰度拼接圖;
2)根據(jù)大津閾值法求灰度拼接圖的最佳閾值,然后根據(jù)閾值法對灰度拼接圖像進行二值化處理;
3)選擇一個3×3的結(jié)構(gòu)元素,對二值圖像進行形態(tài)學的開運算,再選擇一個5×5的結(jié)構(gòu)元素,對其結(jié)果進行閉運算;
4)完成室內(nèi)可行區(qū)域和非可行區(qū)域的分割,實現(xiàn)移動機器人(7)的環(huán)境地圖信息獲取;
所述機器人定位方法,采用視覺定位,包括機器人的位置坐標定位和航向角定位;
機器人的位置坐標定位采用如下步驟:
a)利用CCD攝像機(3)采集含有移動機器人(7)的彩色圖像;
b)基于彩色像素矢量的歐氏距離,結(jié)合背景圖像,對步驟a)中獲得的彩色圖像進行閾值分割,從而獲得差分二值圖像;
c)運用開運算對二值圖像進行消噪處理,從而獲得比較精確的移動機器人(7)運動目標;
d)對含有移動機器人(7)的二值圖像進行逐行掃描,根據(jù)掃描當前行的線段是否與前一行線段是否相鄰,來判斷是合成連通區(qū)域,還是初始化新的連通區(qū)域;
e)根據(jù)各連通區(qū)域的像素坐標,從而獲得各移動機器人(7)的位置坐標;
機器人的航向角定位采用視覺定位,具體步驟如下:
A)利用CCD攝像機(3)采集貼有方向和標識的T型顏色塊的移動機器人(7)的彩色圖像;
B)將移動機器人(7)彩色圖像從RGB顏色空間轉(zhuǎn)換到HIS顏色空間;
C)根據(jù)預設(shè)定的H和S閾值,對移動機器人(7)的T型顏色塊進行圖像分割;
D)運用開運算和閉運算對分割后圖像進行平滑處理;
E)對T型的標識圖像進行線性擬合,獲得標識顏色塊的斜率,并換算到角度,最后再根據(jù)方向顏色塊進行移動機器人(7)的最終航向角確定。
2.根據(jù)權(quán)利要求1所述的多移動機器人的智能空間系統(tǒng)的導航信息獲取方法,其特征在于:當視覺定位遇到視覺盲區(qū)時,采用Zigbee和航位推算DR組合定位,具體步驟如下:
(a)基于Zigbee無線傳感器網(wǎng)絡系統(tǒng),在RSSI基礎(chǔ)上,利用極大似然法獲得移動機器人(7)的無線定位坐標;
(b)利用距離傳感器(11)和航向傳感器(12)組成的航位推算DR傳感器,獲得DR定位坐標;
(c)分別進行無線定位坐標和DR定位坐標的異常點剔除;
(d)將異常點剔除后的無線定位坐標送入Zigbee子濾波器進行數(shù)字濾波處理,輸出狀態(tài)估計 和狀態(tài)預測協(xié)方差
(e)將異常點剔除后的DR定位坐標送入DR子濾波器進行數(shù)字濾波處理,輸出狀態(tài)估計和狀態(tài)預測協(xié)方差
(f)將 和 送入主濾波器中進行信息融合,得到系統(tǒng)組
合定位的全局最優(yōu)估計Xg(k)和Pg(k),即獲得組合定位坐標;同時根據(jù)“信息分配”原則將它們反饋到Zigbee和DR子濾波器對XZb(k-1),PZb(k-1),XDR(k-1)和PDR(k-1)進行重置。
多移動機器人的智能空間系統(tǒng)及導航信息獲取方法\n技術(shù)領(lǐng)域\n[0001] 本發(fā)明涉及一種多移動機器人的智能空間構(gòu)建,尤其涉及到多移動機器人導航時環(huán)境地圖和定位信息的獲取。\n背景技術(shù)\n[0002] 隨著科學技術(shù)和社會經(jīng)濟的發(fā)展,機器人應用領(lǐng)域正日星月異地發(fā)生著變化。多機器人系統(tǒng)由于內(nèi)在并行性,使得其在空間、時間和功能上實現(xiàn)了單機器人無法完成的的并行任務。為了提高多移動機器人系統(tǒng)的任務執(zhí)行效率,需要向其提供詳細的導航信息。首先是機器人運動空間的環(huán)境信息,主要包含可行區(qū)域和非可行區(qū)域的環(huán)境地圖;其次是移動機器人的定位信息,主要涉及到移動機器人的位姿;最后是信息的交互,這涉及到機器人與監(jiān)控主機之間以及多機器人之間的通信。\n[0003] 為了幫助移動機器人獲取更為完備的導航信息,構(gòu)建智能空間是近年來的主要研究方向。所謂智能空間技術(shù),就是把感知器件、執(zhí)行器件分布地安裝在機器人空間的相應位置,實現(xiàn)機器人對空間內(nèi)人和物的全面感知,從而幫助其在不確定環(huán)境中更加快捷、準確和穩(wěn)定的導航。從目前的研究來看,國內(nèi)外專家主要通過在室內(nèi)安裝諸如人工地標、射頻標簽、CCD傳感器等,并輔以網(wǎng)絡系統(tǒng)來構(gòu)建智能空間。中國專利號為CN102156476的專利文獻公開了“智能空間與護士機器人多傳感器系統(tǒng)及其信息融合方法”,涉及到為護士機器人所構(gòu)建的一種智能空間,該空間主要通過在室內(nèi)安裝人工地標和無線射頻標簽,利用QR-Code和RFID技術(shù)來實現(xiàn)全局定位,通過在護士機器人身上安裝光學編碼器和慣性導航模塊來實現(xiàn)局部定位,通過在護士機器人身上安裝CCD視覺傳感器、激光傳感器、紅外傳感器等來獲取局部環(huán)境信息。該系統(tǒng)存在以下不足:\n[0004] (1)基于智能空間內(nèi)人工地標和無線射頻標簽的識別定位,只能進行全局的粗略定位,且當環(huán)境一旦發(fā)生變換時,需要對地標和標簽進行重新設(shè)置和初始化;\n[0005] (2)護士機器人的精確定位主要是在上述地標和射頻標簽定位基礎(chǔ)上,基于光學編碼器和慣性導航模塊來實現(xiàn)航位推算定位。但光學編碼器存在累積誤差,慣性導航存在漂移,使得定位精度很難保證。\n[0006] (3)護士機器人攜帶的激光傳感器、紅外傳感器不能穿透非透明的障礙物,只能獲取機器人周圍的局部環(huán)境信息,無法得到機器人運動空間的全局信息,不利于機器人進行全局高效導航;\n[0007] (4)護士機器人自身雖然攜帶了CCD視覺傳感器,在用于服務功能之余也用于環(huán)境信息獲取,但獲取的信息仍然是局部的,且立體匹配計算量非常大,對于硬件資源有限的服務機器人而言,其信息處理量過大,實時性很難保證。\n[0008] 總之,該智能空間主要依靠地標和射頻標簽來給服務機器人提供全局的粗略定位信息,功能有限。機器人所需的環(huán)境地圖等導航信息仍要通過機器人自身攜帶的傳感器系統(tǒng)來獲得,增大了服務機器人的負擔,弱化了智能空間作用。此外,該空間主要是針對單機器人系統(tǒng),當室內(nèi)有多個機器人時,如何高效地讓多機器人系統(tǒng)獲取完備的導航信息,如何實現(xiàn)多機器人之間的信息交互等都未提到。\n發(fā)明內(nèi)容\n[0009] 本發(fā)明的目的在于為了給室內(nèi)多移動機器人系統(tǒng)提供完備的導航信息,進而提供一種多移動機器人的智能空間及導航信息獲取方法。\n[0010] 本發(fā)明的智能空間的技術(shù)方案是:智能空間系統(tǒng)由分布式視覺系統(tǒng)和基于Zigbee技術(shù)的無線傳感器網(wǎng)絡系統(tǒng)組成。分布式視覺系統(tǒng)包括安裝在室內(nèi)頂棚的多個CCD攝像機,多路圖像采集卡,以及監(jiān)控主機等。攝像機通過視頻線與安裝在監(jiān)控主機PCI插槽內(nèi)的圖像采集卡相連。基于Zigbee技術(shù)的無線傳感器網(wǎng)絡系統(tǒng)包括以帶有路由功能的CC2430芯片為核心的參考節(jié)點,帶有硬件定位引擎的CC2431芯片為核心的盲節(jié)點,以及裝有CC2430芯片的Zigbee網(wǎng)關(guān)。參考節(jié)點掛靠在室內(nèi)四周墻壁上,盲節(jié)點安裝在移動機器人身上,Zigbee網(wǎng)關(guān)通過RS232串口與監(jiān)控主機相連,從而構(gòu)成一個完整的無線傳感器網(wǎng)絡系統(tǒng)。\n[0011] 本發(fā)明的多移動機器人的智能空間系統(tǒng)的導航信息獲取方法,包括環(huán)境信息獲取方法和機器人定位方法,其中環(huán)境信息獲取方法如下:\n[0012] 采用所述移動機器人所述先進行室內(nèi)環(huán)境的圖像拼接;然后進行地圖信息獲取。\n[0013] 圖像拼接采用如下步驟:\n[0014] (1)利用分布式CCD攝像機采集室內(nèi)不同區(qū)域的圖像;\n[0015] (2)進行圖像預處理:采用5×5的結(jié)構(gòu)元素對步驟(1)采集的圖像進行中值濾波的平滑處理,去除圖像中可能存在的噪聲點得到待拼接圖像;\n[0016] (3)利用最大梯度相似曲線法確定待拼接圖像各重疊區(qū)域;\n[0017] (4)利用Harris角點檢測算法在各重疊區(qū)域中提取角點;\n[0018] (5)利用奇異值分解算法和歐式距離法進行各重疊區(qū)域的角點匹配;\n[0019] (6)找出各重疊區(qū)域最相似的三對角點,建立各重疊區(qū)域的仿射變換模型;\n[0020] (7)完成整個室內(nèi)環(huán)境的圖像拼接。\n[0021] 地圖信息獲取采用如下步驟:\n[0022] (1)基于YUV色彩模型,將上述步驟(7)所得的室內(nèi)環(huán)境的拼接圖像轉(zhuǎn)換為灰度拼接圖;\n[0023] (2)根據(jù)大津閾值法求灰度拼接圖的最佳閾值,然后根據(jù)閾值法對灰度拼接圖像進行二值化處理;\n[0024] (3)選擇一個3×3結(jié)構(gòu)元素,對二值圖像進行形態(tài)學的開運算,再選擇一個5×5結(jié)構(gòu)元素,對其結(jié)果進行閉運算;\n[0025] (4)完成室內(nèi)可行區(qū)域和非可行區(qū)域的分割,實現(xiàn)移動機器人(7)的環(huán)境地圖信息獲取。\n[0026] 所述機器人定位方法,采用視覺定位,包括機器人的位置坐標定位和航向角定位;\n[0027] 機器人位置坐標定位采用如下步驟:\n[0028] a)利用CCD攝像機采集含有移動機器人的彩色圖像;\n[0029] b)基于彩色像素矢量的歐氏距離,結(jié)合背景圖像,對步驟a)中獲得的彩色圖像進行閾值分割,從而獲得差分二值圖像;\n[0030] c)運用開運算對二值圖像進行消噪處理,從而獲得比較精確的移動機器人運動目標;\n[0031] d)對含有移動機器人的二值圖像進行逐行掃描,根據(jù)掃描當前行的線段是否與前一行線段是否相鄰,來判斷是合成連通區(qū)域,還是初始化新的連通區(qū)域;\n[0032] e)根據(jù)各連通區(qū)域的像素坐標,從而獲得各移動機器人的位置坐標。\n[0033] 機器人的航向角定位采用視覺定位,具體步驟如下:\n[0034] A)利用CCD攝像機采集貼有方向和標識的T型顏色塊的移動機器人的彩色圖像;\n[0035] B)將移動機器人彩色圖像從RGB顏色空間轉(zhuǎn)換到HIS顏色空間;\n[0036] C)根據(jù)預設(shè)定的H和S閾值,對移動機器人的T型顏色塊進行圖像分割;\n[0037] D)運用開運算和閉運算對分割后圖像進行平滑處理;\n[0038] E)對T型的標識圖像進行線性擬合,獲得標識顏色塊的斜率,并換算到角度,最后再根據(jù)方向顏色塊進行移動機器人的最終航向角確定。\n[0039] 當視覺定位遇到視覺盲區(qū)時,采用Zigbee和航位推算DR組合定位,具體步驟如下:\n[0040] (a)基于Zigbee無線傳感器網(wǎng)絡系統(tǒng),在RSSI基礎(chǔ)上,利用極大似然法獲得移動機器人的無線定位坐標;\n[0041] (b)利用距離傳感器和航向傳感器組成的航位推算DR傳感器,獲得DR定位坐標;\n[0042] (c)分別進行無線定位坐標和DR定位坐標的異常點剔除;\n[0043] (d)將異常點剔除后的無線定位坐標送入Zigbee子濾波器進行數(shù)字濾波處理,輸出狀態(tài)估計 和狀態(tài)預測協(xié)方差\n[0044] (e)將異常點剔除后的DR定位坐標送入DR子濾波器進行數(shù)字濾波處理,輸出狀態(tài)估計 和狀態(tài)預測協(xié)方差\n[0045] (f)將 和 送入主濾波器中進行信息融合,得到系\n統(tǒng)組合定位的全局最優(yōu)估計Xg(k)和Pg(k),即獲得組合定位坐標;同時根據(jù)“信息分配”原則將它們反饋到Zigbee和DR子濾波器對XZb(k-1),PZb(k-1),XDR(k-1)和PDR(k-1)進行重置。\n[0046] 本發(fā)明利用分布式視覺系統(tǒng)和基于Zigbee技術(shù)的無線傳感器網(wǎng)絡系統(tǒng)構(gòu)建了一種新的智能空間,該空間可以為室內(nèi)多移動機器人系統(tǒng)提供導航時所必需的環(huán)境地圖和定位信息,能實現(xiàn)多機器人與監(jiān)控主機,以及多機器人之間的無線通信,從而完成智能空間內(nèi)的信息交互。與現(xiàn)行研究的其它智能空間相比,首先本發(fā)明不會因室內(nèi)環(huán)境改變而受到影響;其次本智能空間的功能更強大,可以為室內(nèi)多機器人系統(tǒng)提供更豐富和更精確的導航信息,減少了機器人本身攜帶的感知器件,減輕了機器人自身的信息處理負擔,這將有助于提高機器人在其它服務功能方面的處理能力。\n附圖說明\n[0047] 圖1多移動機器人的智能空間模型;\n[0048] 圖2移動機器人基本配置系統(tǒng);\n[0049] 圖3室內(nèi)環(huán)境的圖像拼接算法流程;\n[0050] 圖4室內(nèi)環(huán)境的地圖信息獲取算法流程;\n[0051] 圖5移動機器人的視覺位置定位算法流程;\n[0052] 圖6移動機器人的視覺航向角定位算法流程;\n[0053] 圖7移動機器人的Zigbee無線定位流程;\n[0054] 圖8移動機器人的Zigbee/DR組合定位算法流程;\n[0055] 圖中1.室內(nèi)空間頂棚,2.萬向支架,3.CCD攝像機,4.參考節(jié)點,5.多路圖像采集卡,6.監(jiān)控主機,7.移動機器人,8.盲節(jié)點,9.Zigbee網(wǎng)關(guān),10.微控制器,11.距離傳感器,\n12.航向傳感器,13.近距離檢測傳感器,14.CC2431芯片,15.執(zhí)行機構(gòu)。\n具體實施方式\n[0056] 下面結(jié)合附圖對本發(fā)明的多移動機器人的智能空間及其導航信息獲取方法進行詳細描述:\n[0057] 如圖1所示,智能空間系統(tǒng)包括分布式視覺系統(tǒng)和基于Zigbee的無線傳感器網(wǎng)絡系統(tǒng)。分布式視覺系統(tǒng)的構(gòu)建:分布式CCD攝像機3通過萬向支架2垂直安裝在室內(nèi)頂棚\n1上,CCD攝像機3通過視頻線與多路圖像采集卡5相連,圖像采集卡5安裝在室內(nèi)監(jiān)控主機6的PCI插槽內(nèi)。基于Zigbee的無線傳感器網(wǎng)絡系統(tǒng)包括參考節(jié)點4、Zigbee網(wǎng)關(guān)9和盲節(jié)點8。參考節(jié)點4以帶有路由功能的CC2430芯片為核心,掛靠在室內(nèi)四周墻壁上,一般需要3-8個。盲節(jié)點8以帶有硬件定位引擎的CC2431芯片為核心,安裝在移動機器人7身上,每一個移動機器人7都需安裝一個盲節(jié)點8。Zigbee網(wǎng)關(guān)9通過RS232串口與監(jiān)控主機6連接。\n[0058] 本發(fā)明的智能空間中導航信息交互的技術(shù)方案是:基于Zigbee技術(shù)的無線傳感器網(wǎng)絡系統(tǒng),移動機器人一方面接收來自監(jiān)控主機發(fā)送的導航信息和控制命令;另一方面將自身的狀態(tài)信息反饋給監(jiān)控主機以及智能空間內(nèi)其他移動機器人,從而實現(xiàn)信息交互。\n[0059] 如圖2所示,為了完成智能空間的構(gòu)建以及移動機器人導航信息的獲取,移動機器人7需要進行最基本的配置,即配置距離傳感器11與移動機器人7的微控制器10相連,用來記錄移動機器人7的移動距離。配置航向傳感器12與微控制器10相連,用來記錄移動機器人7運動過程中的方向。利用距離傳感器11和航向傳感器12組成DR(航位推算)傳感器,可以實現(xiàn)移動機器人7的航位推算定位。配置近距離檢測傳感器13與微處理器10相連,用來防止移動機器人7運動過程中的近距離障礙物碰撞。配置具有定位跟蹤引擎功能的CC2431芯片14與微處理器10相連,使其作為盲節(jié)點8來實現(xiàn)移動機器人7的無線定位,從而完成Zigbee無線傳感器網(wǎng)絡系統(tǒng)的完整構(gòu)建。配置執(zhí)行機構(gòu)15與微處理器10相連,主要用來驅(qū)動移動機器人的運動。\n[0060] 本發(fā)明的導航中環(huán)境地圖信息獲取方法的技術(shù)方案是:移動機器人7的環(huán)境地圖是基于分布式視覺系統(tǒng)獲得。監(jiān)控主機首先基于分布式攝像機采集室內(nèi)不同區(qū)域的圖像,然后通過圖像拼接算法進行室內(nèi)環(huán)境拼接,接著再對拼接后圖像進行障礙物分割,從而完成移動機器人7運動空間內(nèi)的環(huán)境地圖信息獲取。\n[0061] 為了獲取移動機器人導航時所需的環(huán)境地圖信息,首先需要利用智能空間中的分布式視覺系統(tǒng)進行室內(nèi)環(huán)境的圖像拼接。如圖3所示,室內(nèi)環(huán)境的圖像拼接包括如下步驟:\n[0062] (1)利用智能空間內(nèi)分布式攝像機3采集室內(nèi)不同區(qū)域的圖像;\n[0063] (2)進行圖像預處理:采用5×5的結(jié)構(gòu)元素對圖像進行中值濾波的平滑處理,去除圖像中可能存在的噪聲點;\n[0064] (3)利用最大梯度相似曲線法進行待拼接圖像重疊區(qū)域的精確確定;\n[0065] (4)利用Harris角點檢測算法在各重疊區(qū)域進行角點提取;\n[0066] (5)利用奇異值分解算法和歐式距離法進行各重疊區(qū)域的角點匹配;\n[0067] (6)找出各重疊區(qū)域最相似的三對角點,建立各重疊區(qū)域的仿射變換模型;\n[0068] (7)完成整個室內(nèi)環(huán)境的圖像拼接。\n[0069] 在獲取了室內(nèi)拼接圖像之后,即可進行移動機器人7的環(huán)境地圖信息提取。如圖\n4所示,室內(nèi)地圖的信息獲取包括如下步驟:\n[0070] (1)基于YUV色彩模型,將將上述步驟(7)所得的室內(nèi)環(huán)境的拼接圖像轉(zhuǎn)換為灰度拼接圖;\n[0071] (2)根據(jù)大津閾值法求取灰度拼接圖的最佳閾值,然后根據(jù)閾值法對灰度拼接圖像進行二值化處理;\n[0072] (3)選擇一個3×3結(jié)構(gòu)元素,對二值圖像進行形態(tài)學的開運算,再選擇一個5×5結(jié)構(gòu)元素,對其結(jié)果進行閉運算;\n[0073] (4)完成室內(nèi)可行區(qū)域和非可行區(qū)域的分割,實現(xiàn)移動機器人的環(huán)境地圖信息獲取。\n[0074] 本發(fā)明的導航中移動機器人定位信息獲取方法的技術(shù)方案是:移動機器人以視覺定位為主,以Zigbee和DR(航位推算)組合定位為輔。視覺定位首先利用攝像機采集到貼有方向和標識的T型顏色塊的移動機器人圖像,然后利用圖像處理技術(shù)進行位置和T型顏色塊的分割,從而獲得移動機器人的位置坐標和航向角,進而實現(xiàn)基于視覺的主定位。\nZigbee和DR(航位推算)組合定位主要是用來彌補視覺定位過程中可能存在的視覺盲區(qū),其首先基于RSSI(接收信號強度指示)模型獲得移動機器人的無線定位坐標,以及基于距離和航向傳感器獲得DR坐標,然后利用聯(lián)合卡爾曼濾波實現(xiàn)兩者坐標的信息融合,從而實現(xiàn)移動機器人的組合定位。\n[0075] 如圖5所示,智能空間系統(tǒng)內(nèi)移動機器人的視覺位置定位算法包括如下步驟:\n[0076] (1)利用CCD攝像機3采集含有移動機器人7的彩色圖像;\n[0077] (2)基于彩色像素矢量的歐氏距離,結(jié)合背景圖像,對步驟(1)中獲得的彩色圖像進行閾值分割,從而獲得差分二值圖像;\n[0078] (3)運用開運算對二值圖像進行消噪處理,從而獲得比較精確的移動機器人7運動目標;\n[0079] (4)對含有移動機器人7的二值圖像進行逐行掃描,根據(jù)掃描當前行的線段是否與前一行線段是否相鄰,來判斷是合成連通區(qū)域,還是初始化新的連通區(qū)域;\n[0080] (5)根據(jù)各連通區(qū)域的像素坐標,從而獲得各移動機器人7的位置坐標。\n[0081] 如圖6所示,智能空間內(nèi)移動機器人的視覺航向角定位方法包括如下步驟:\n[0082] (1)利用CCD攝像機3采集貼有方向和標識的T型顏色塊的移動機器人7的彩色圖像;\n[0083] (2)將移動機器人7彩色圖像從RGB顏色空間轉(zhuǎn)換到HIS顏色空間;\n[0084] (3)根據(jù)預設(shè)定的H和S閾值,對移動機器人7的T型顏色塊進行圖像分割;\n[0085] (4)運用開運算和閉運算對分割后圖像進行平滑處理;\n[0086] (5)對T型的標識圖像進行線性擬合,獲得標識顏色塊的斜率,并換算到角度,最后再根據(jù)方向顏色塊進行移動機器人7的最終航向角確定。\n[0087] 如圖7所示,智能空間系統(tǒng)內(nèi)移動機器人7的Zigbee無線定位流程包括如下步驟:\n[0088] (1)Zigbee網(wǎng)關(guān)9構(gòu)建無線網(wǎng)絡;\n[0089] (2)網(wǎng)絡系統(tǒng)完成智能空間內(nèi)四周所有參考節(jié)點4的配置;\n[0090] (3)網(wǎng)絡系統(tǒng)完成所有移動機器人7身上盲節(jié)點8的配置;\n[0091] (4)所有移動機器人7身上盲節(jié)點8,向四周參考節(jié)點4發(fā)送含X,Y(坐標)和RSSI(接收信號強度指示)的數(shù)據(jù)包請求;\n[0092] (5)所有盲節(jié)點8根據(jù)參考節(jié)點4的XY-RSSI值,利用極大似然估計法得出各自坐標;\n[0093] (6)所有盲節(jié)點8將各自坐標信息發(fā)送給Zigbee網(wǎng)關(guān)9;\n[0094] (7)Zigbee網(wǎng)關(guān)9通過RS232串口將各機器人7的坐標傳送給監(jiān)控主機6。\n[0095] 當移動機器人視覺定位因視覺盲區(qū)無效時,智能空間將采用基于Zigbee/DR的組合定位來彌補。如圖8所示,該組合定位流程包括如下步驟:\n[0096] (1)基于Zigbee無線傳感器網(wǎng)絡系統(tǒng),在RSSI基礎(chǔ)上,利用極大似然法獲得各移動機器人7的無線定位坐標;\n[0097] (2)利用距離傳感器11和慣性導航模塊12組成的DR(航位推算)傳感器,獲得DR定位坐標;\n[0098] (3)分別進行無線定位坐標和DR定位坐標的異常點剔除;\n[0099] (4)將異常點剔除后的無線定位坐標送入Zigbee子濾波器進行數(shù)字濾波處理,輸出狀態(tài)估計 和狀態(tài)預測協(xié)方差\n[0100] (5)將異常點剔除后的DR定位坐標送入DR子濾波器進行數(shù)字濾波處理,輸出狀態(tài)估計 和狀態(tài)預測協(xié)方差\n[0101] (6)將 , 和 送入主濾波器中進行信息融合,得到系統(tǒng)\n組合定位的全局最優(yōu)估計Xg(k)和Pg(k),即獲得組合定位坐標;同時根據(jù)“信息分配”原則將它們反饋到Zigbee和DR子濾波器對XZb(k-1),PZb(k-1),XDR(k-1)和PDR(k-1)進行重置。
法律信息
- 2018-10-09
未繳年費專利權(quán)終止
IPC(主分類): G01C 21/00
專利號: ZL 201210384363.0
申請日: 2012.10.11
授權(quán)公告日: 2015.01.21
- 2015-01-21
- 2013-03-20
實質(zhì)審查的生效
IPC(主分類): G01C 21/00
專利申請?zhí)? 201210384363.0
申請日: 2012.10.11
- 2013-02-06
引用專利(該專利引用了哪些專利)
序號 | 公開(公告)號 | 公開(公告)日 | 申請日 | 專利名稱 | 申請人 |
1
| |
2009-10-21
|
2009-05-07
| | |
2
| | 暫無 |
2009-12-10
| | |
3
| |
2007-04-11
|
2006-10-21
| | |
4
| | 暫無 |
1989-10-03
| | |
被引用專利(該專利被哪些專利引用)
序號 | 公開(公告)號 | 公開(公告)日 | 申請日 | 專利名稱 | 申請人 | 該專利沒有被任何外部專利所引用! |