基于視覺的多機器人協(xié)作基于視覺的多機器人協(xié)作SLAM問題
《基于視覺的多機器人協(xié)作基于視覺的多機器人協(xié)作SLAM問題》由會員分享,可在線閱讀,更多相關(guān)《基于視覺的多機器人協(xié)作基于視覺的多機器人協(xié)作SLAM問題(9頁珍藏版)》請在裝配圖網(wǎng)上搜索。
1、科技導(dǎo)報 2015 ,33(23) www.kjdb.org 基于視覺的多機器人協(xié)作 SLAM 問題 呂強,林輝燦,張洋,馬建業(yè) 裝甲兵工程學(xué)院控制工程系, 北京 100072 視覺 SLAM 僅采用圖像作為外部信息, 用于估計機器人位置的同時構(gòu)建環(huán)境地圖。 SLAM 是機器 人自主性的基本前提, 如今在小動態(tài)環(huán)境采用激光或者聲吶傳感器構(gòu)建 2D 地圖得到較好地解決。然 而動態(tài)、復(fù)雜和大范圍下的 SLAM 仍存在問題, 使用視覺作為基本的外部傳感器是解決問題的一個新 穎熱門的研究方法。在視覺 SLAM 中使用計算機視覺技術(shù), 如特征檢測、特征描述和特征匹配, 圖像識 別和恢復(fù),
2、還存在很多改善的空間。本文在視覺 SLAM 領(lǐng)域的最新技術(shù)的基礎(chǔ)上, 對基于視覺的多機 器人協(xié)作 SLAM 領(lǐng)域的前沿技術(shù)進(jìn)行綜述。 移動機器人的自主導(dǎo)航問題可以 部的閉鎖現(xiàn)象。視覺 SLAM系統(tǒng)成功 器人 SLAM 系統(tǒng)可以提升構(gòu)圖的速度 分為定位、地圖構(gòu)造和路徑規(guī)劃 3 個部 的關(guān)鍵是具備處理上述困難的能力。 和精度,有利于路徑規(guī)劃等探索研究。 分[1] 。定位的任務(wù)是確定機器人在當(dāng)前 該領(lǐng)域的核心問題是多機器人之間的 近10年來,從發(fā)表的論文可以看出一 環(huán)境中的位姿,地圖構(gòu)建的任務(wù)是將對 個清晰的趨勢,就是使用視覺作為唯一 通信拓?fù)洹⑷蝿?wù)規(guī)劃和地圖融合。任務(wù) 環(huán)境的零碎分
3、布觀測整合為一個聯(lián)系 的外部傳感器的感知系統(tǒng)用于解決 規(guī)劃:當(dāng)多個機器人用于共同探索同一 的模型,路徑規(guī)劃的任務(wù)是確定最佳路 徑并導(dǎo)航機器人通過環(huán)境。 [7~11] 。之所以會有這樣的趨 SLAM問題 勢,是因為基于攝像頭的系統(tǒng)既能夠獲 個環(huán)境進(jìn)行研究時, 需要處理好各個機 器人的任務(wù)規(guī)劃問題。做好任務(wù)規(guī)劃 起初定位和地圖構(gòu)建是分開研究 取尺度信息又能夠恢復(fù)環(huán)境的外觀、 顏 可以節(jié)省探索整個研究環(huán)境的時間。 的,后來學(xué)者們意識到二者是相互關(guān)聯(lián) 色和紋理,使得機器人能夠完成更高級 通信拓?fù)涫侵笝C器人之間的通信結(jié)構(gòu), 的。同時定位與地圖構(gòu)建 (simultane? 的
4、功能,如在環(huán)境中識別人員。進(jìn)一步 有完全連接和部分連接等多種通信拓 ous localization and mapping,SLAM)是 指機器人在未知環(huán)境中運動時增量地 說,攝像頭更便宜、 更輕且功耗更低。 不幸的是相機數(shù)據(jù)存在誤差, 由于相機 撲結(jié)構(gòu)。對于完全連接需要使用外部 設(shè)備以克服通信帶寬和距離的限制, 外 構(gòu)建周圍環(huán)境地圖, 同時運用此地圖對 分辨率不足、 光線變化、表面缺乏紋理 部設(shè)備用于將一個機器人的數(shù)據(jù)發(fā)送 機器人自身位姿進(jìn)行估計 [2] 。SLAM是 和快速運動引起圖像模糊等因素。許 給所有的機器人 [15]。部分連接采用兩 多學(xué)者對上述問題
5、進(jìn)行研究并取得不 個機器人之間的一對一通信解決通信 移動機器人系統(tǒng)最基本、 最重要的一項 能力,隨著未知環(huán)境探測的日趨復(fù)雜和 帶寬和距離的限制問題, 機器人僅能使 少成果,比較典型的有 Klein 等基于 BA 非結(jié)構(gòu)化,SLAM 已成為自主移動機器 (bundle adjustmen)t 的 實 時 SLAM 算 用通信范圍內(nèi)的其他機器人的信息。 法,即并行跟蹤和構(gòu)圖 (parallel track? 地圖融合是解決多機器人 SLAM 的關(guān) 人亟待解決的重要基礎(chǔ)性難題 [3,4],并被 視為移動機器人領(lǐng)域的 “圣杯”[5]。當(dāng)攝 像頭作為唯一的感知外部環(huán)境的傳感 [9],
6、Engel 等采 ing and mapping,PTAM) 用直接的方法構(gòu)建大范圍內(nèi)的半稠密 鍵問題,運用共享的信息改進(jìn)全局地圖 的精度和構(gòu)圖范圍, 全局地圖通過聯(lián)合 器用于 SLAM,就稱為視覺 SLAM。準(zhǔn) 地圖,即 LSD- SLAM[12],以及 RGB- D 所有機器人的局部地圖獲得。當(dāng)機器 確的環(huán)境地圖有助于實現(xiàn)高精度的定 位,而精確定位則有利于建立更加真實 可信的環(huán)境地圖 [6],兩者相輔相成。 [13] 和 ORB SLAM[14] 等。RGB- D SLAM SLAM采用一種能夠同時獲取環(huán)境彩 色信息(RGB)和 深度信息(depth)的
7、 人之間的相對位置關(guān)系已知, 只需要根 據(jù)每個機器人的定位和構(gòu)圖進(jìn)行拼接 地圖;而當(dāng)機器人之間的相對位置未知 許多視覺 SLAM 系統(tǒng)在如下的環(huán) 境中容易失?。?外部環(huán)境、動態(tài)環(huán)境、顯 RGB-D 傳感器。 對于單個機器人的 SLAM 系統(tǒng)已 時,需要對每個機器人的地圖進(jìn)行轉(zhuǎn)換 才能進(jìn)行拼接地圖。 經(jīng)有不少的解決方案, 然而多機器人的 總之,雖然需要處理上述難題, 但 著特征太多或太少的環(huán)境、 大尺度環(huán) 是多機器人 SLAM 能夠以更快的速度、 境,以及當(dāng)攝像頭運動不穩(wěn)和部分或全 SLAM相較而言還是一個新領(lǐng)域, 多機 110 2015 世界機器人大會報
8、道特刊 www.kjdb.org 更高的精度探索未知環(huán)境。而且, 多機 器人 SLAM具有更強的容錯能力, 環(huán)境 構(gòu)建就顯得尤為重要。 1.2 相機在 SLAM 中的應(yīng)用 RGB-D 圖像序列和真實攝像機軌跡的 數(shù)據(jù)集用于評估 SLAM 系統(tǒng)的性能 [33]。 條件的惡劣或者變化、 由于錯誤的數(shù)據(jù) 第一個視覺導(dǎo)航的作品采用雙目 基于該數(shù)據(jù)集進(jìn)行了大量的實驗, 結(jié)果 關(guān)聯(lián)或假設(shè)模型引起的算法失敗等問 立體結(jié)構(gòu)相機 [21,22],然而,多數(shù)情況下由 表明其位姿估計平均精度為 9.7 cm和 題,可以通過多機器人系統(tǒng)克服。因 此,近幾年相對單個機器人的 SLAM
9、應(yīng) 于價格昂貴,很難獲取雙目或者三目立 體相機。另一種解決方法是使用一對 3.95 ,平均°每幀的處理時間為 0.35 s, 基本滿足實時運行的要求。 用研究,多機器人的 SLAM 應(yīng)用研究更 自從單目 SLAM的出現(xiàn) [34],僅用一 單目相機,導(dǎo)致需要考慮不懂方面的困 加吸引人和熱門。 難:采用硬件或軟件的方式實現(xiàn)相機同 個相機實現(xiàn)同時定位和地圖構(gòu)建的方 步;每個 CCD傳感器對顏色或光線的 法就變得越來越流行。這是因為通過 1 視覺 SLAM 響應(yīng)略有不同;采取何種幾何結(jié)構(gòu)進(jìn)行 手機、數(shù)碼相機或筆記本等可以輕松獲 校準(zhǔn)等。 得相機,比立體相機更加容易獲取。
10、單 1.1 同時定位和地圖構(gòu)建 在 1985—1990 期 間 ,Chatila 和 不管采用什么類型的相機, 在使用 目方法的硬件簡單靈活經(jīng)濟, 數(shù)據(jù)處理 Smith提出地圖構(gòu)建和定位同時進(jìn)行研 究的問題。不久之后, 該問題有了專業(yè) 之前都必須校準(zhǔn) (手動或者自動 ),校 準(zhǔn) 需要估計相機的內(nèi)部參數(shù)和外部參數(shù), 時間也較短。僅依靠單目并不能直接 獲得足夠的信息計算航標(biāo)的深度, 因此 名 稱 SLAM(simultaneous localization 前者依賴于相機的幾何結(jié)構(gòu) (焦距和光 需要處理航標(biāo)的初始化問題,通常有兩種 and mapping)。有
11、關(guān) SLAM 的歷史可以 參閱 Durrant和Bailey撰寫的有關(guān) SLAM 點),后者由相機在空間中的位置決定 (某個坐標(biāo)系統(tǒng)中的旋轉(zhuǎn)和位移) 。根 解決方案[35,36]。為了從一個相機獲取環(huán) 境的三維信息,需要處理多個觀測圖像 發(fā)展歷程的文章 [16,17]。SLAM 指移動平 據(jù)多視角棋盤校準(zhǔn)圖像, 關(guān)聯(lián)圖像坐標(biāo) 的特征跟蹤問題。 與真實世界坐標(biāo)可獲取參數(shù) [23],也有許多 臺(機器人、運輸載體等 )能夠構(gòu)建所探 工具能夠?qū)崿F(xiàn)相機的校準(zhǔn): OpenCV的 索環(huán)境的全局地圖, 同時利用地圖進(jìn)一 2 圖像數(shù)據(jù)關(guān)聯(lián) 校準(zhǔn)函數(shù)、 Matlab
12、 的相機校準(zhǔn)工具箱 步確定自身位置。 最先進(jìn)的 RGB-D SLAM 系統(tǒng)大多 等。 為了對環(huán)境構(gòu)建地圖, 機器人必須 數(shù)都采用迭代最近點 (iterative closest 擁有用于感知和獲取外部環(huán)境觀測的 傳感器,可分為外部傳感器和內(nèi)部傳感 使用多相機帶有或者不帶有視角 重疊的研究 [24,25],使用特殊鏡頭的相機 point,ICP)算法去匹配點特征, 這些點 特征的空間位置是根據(jù)匹配的傳感器 如廣角 [26] 或者全向 [27] 相機增加視覺范 器兩種。外部傳感器包括聲吶、 激光掃 深度數(shù)據(jù)計算得到的。然而, 特征的深 描儀、相機以及 GPS等
13、,這些傳感器都 圍,進(jìn)而一定程度上減小累積誤差。近 度測量數(shù)據(jù)經(jīng)常被噪聲所干擾, 因為視 幾年出現(xiàn)的 RGB-D 傳感器應(yīng)用于室內(nèi) 存在噪聲和距離受限的問題。此外, 前 覺特征傾向于在實物的邊緣。為了減 3 種傳感器只能獲得環(huán)境的局部視 圖。激光傳感器和聲吶傳感器可以獲 環(huán)境的地圖構(gòu)建,已被驗證是一種非常 有前途的方法 [28,29]。 小估計誤差,高翔等[37]采用了可靠的深 度數(shù)值提取和選擇特征的方法, 如平面 德國弗萊堡大學(xué)的 Engelhard和慕 取精確而稠密的環(huán)境結(jié)構(gòu)信息, 然而, 點特征。平面點特征有利于提高傳統(tǒng) 尼黑技術(shù)大學(xué)的 Sturm等
14、[30]提出了一種 存在的問題是:在復(fù)雜性高的環(huán)境以及 的ICP 的精度和魯棒性, 同時保持合理 基于 RGB- D 傳感器的實時 3D 視覺 物體識別方面均不可用, 質(zhì)量大、體積 的實時應(yīng)用的計算消耗。通過公開數(shù) 大使得難以在飛行機器人或者人型機 器人上應(yīng)用。另一方面, GPS在狹窄街 SLAM 方法,主要包括特征提取和匹 配、位姿估計、位姿修正、位姿圖優(yōu)化 4 據(jù)集的軌跡跟蹤和構(gòu)圖結(jié)果以及實物 機器人的實際試驗, 驗證了一個基于平 個步驟。該方法對 Henry等提出的方 道、城市峽谷、 水下和室內(nèi)等環(huán)境的定 面的RGB-D SLAM的系統(tǒng)的有效性。 法進(jìn)
15、行了 3 點改進(jìn):首先在特征提取時 位精度不能滿足要求。內(nèi)部傳感器能 在單目視覺 SLAM中,絕大多數(shù)采 將SIFT特征替換為 SURF特征,其次在 夠測量機器人的速度、 位置變化和加速 用基于特征的地圖表示, 因此此處主要 位姿圖優(yōu)化時使用 g2o方案代替 TO? 度,例如編碼器、加速度計和磁羅盤等, 對基于特征的運動估計方法進(jìn)行分 但由于存在累積誤差, 并不能保證足夠 的估計精度。 RO,最后在環(huán)境地圖的表示時將點云 地圖轉(zhuǎn)換成 3D 占據(jù)柵格地圖。文獻(xiàn) 析。對該問題的研究, 是計算機視覺領(lǐng) 域中經(jīng)典的從運動恢復(fù)結(jié)構(gòu) (SFM)問 在文獻(xiàn) [18]~
16、[20] 中得到證實, 為了 獲得機器人位置的高精度且魯棒性好 [32] [31]中進(jìn)一步對 SIFT、SURF和ORB 3 種不同的特征描述方法進(jìn)行了研究和 題,也有學(xué)者將其等同于視覺里程計研 究?;?2D 圖像特征的運動估計一般 實驗分析對比,而且針對著色點云地圖 的估計,需要使用信息融合技術(shù)處理多 包括特征檢測、特征匹配和運動估計。 個傳感器的數(shù)據(jù)。然而, 傳感器增加引 存儲量大和計算量大的問題, 使用基于 2.1 特征提取 起的系統(tǒng)的造價過高、 重量增加和功耗 過大等問題, 因此,探索如何僅僅依靠 Octree的地圖構(gòu)建框架 OctoMa
17、p將點 云地圖體素化轉(zhuǎn)換成 3D 占據(jù)柵格地 特征提取對于視覺 SLAM 是最為 關(guān)鍵也最為基礎(chǔ)的一個環(huán)節(jié), 因為后續(xù) 相機作為傳感器實現(xiàn)同時定位和地圖 圖。此外,他們還首次構(gòu)建了一個包含 的所有處理都以此為基礎(chǔ)進(jìn)行。 SIFT[38] 111 科技導(dǎo)報 2015 ,33(23) www.kjdb.org 方法在 10 多年的應(yīng)用中驗證其良好的 方法的優(yōu)點是能夠適用于幀間的變化 多機器人系統(tǒng)需要解決的重要難題。 性能,成功應(yīng)用于視覺特征、 目標(biāo)識別、 較大的情況,缺點是計算效率較低及存 有關(guān)通信拓?fù)浞矫娴木C述, 可以參閱文 圖像匹配和視覺構(gòu)圖等方面 [32]。但由 在
18、匹配不一致。對于匹配不一致的問 獻(xiàn)[49],本文主要關(guān)注多機器人系統(tǒng)的 于采用 128 維向量,相較而言在計算和 題可以采用文獻(xiàn) [38]和[43]的方法提高 地圖融合問題。 匹配過程中運算速度較慢, 不利于在實 匹配一致性。 多機器人系統(tǒng)中, 每個機器人在進(jìn) 時性 要求很高的 SLAM 系統(tǒng)中的應(yīng) 行SLAM 的過程中都有自己的坐標(biāo)系, 2.3 運動估計 用。SURF[39]能夠在保持與 SIFT相同性 能的辨別率的情況下, 提高運算和匹配 Structure from Motion(SFM)技術(shù)能 夠從一系列圖像中計算場景中的 3D 結(jié) 因此由不同機器人創(chuàng)建的地
19、圖不能夠 直接用于融合。學(xué)者們已經(jīng)研究出一 的效率,然而該描述符使用了 64 維向 構(gòu)和相機位置 [44]。標(biāo)準(zhǔn)的流程是提取 些實現(xiàn)地圖融合的方法, 通常情況下, 量的浮點數(shù)據(jù)即 256位,當(dāng)需要存儲數(shù) 輸入圖像的特征, 進(jìn)而特征匹配, 采用 在獲取兩類必備條件的情況下就能夠 以百萬計的描述符時也是不能滿足要 一種稱為捆綁調(diào)整 (bundle adjustment, 實現(xiàn)地圖融合。一是機器人之間互相 求的。 BRIEF[40] 使用二進(jìn)制流作為關(guān) 鍵點特征的描述符, 該方法使用較少的 B A)的非線性優(yōu)化方法, 最小化重投影 誤差[45]。解決 SLM遞增問題的一種方
20、 清楚對方的相對位置, 如當(dāng)機器人相遇 時使用全向相機獲得機器人之間的距 位數(shù)就能夠獲得高性能且計算簡單, 文 法是視覺里程計,該方法僅使用序列圖 離,進(jìn)而計算地圖的轉(zhuǎn)換矩陣 [50]。二是 獻(xiàn)[40]驗證該方法在獲得與 SURF相當(dāng) 像就可以實時計算相機的位姿。 Klein 機器人之間不清楚互相之間的位置, 但 或者更好性能的情況下, 需要的時間更 等發(fā)表的稱為 PTAM 的單目方法, 基于 是各自構(gòu)建的地圖之間有公共的區(qū)域, 少。ORB[32] 是一種基于 BRIEF 的快速 文獻(xiàn)[51]匹配地圖的點特征。 關(guān)鍵幀,采用兩個平行的處理線程, 第 二進(jìn)制描述符,該方法
21、具有旋轉(zhuǎn)不變性 和抗干擾性能, 更加適用于視覺 SLAM 一個線程執(zhí)行的任務(wù)是魯棒地跟蹤很 多特征,另一線程的任務(wù)是生成 3D 地 [52] 則使用 RBPF 濾波對地圖 Gil 等 進(jìn)行融合。 Vidal-Calleja 等[53]使用一個 系統(tǒng)對實時性和精度的要求。 ORB- 圖點。該方法在動態(tài)環(huán)境中和存在相 飛行器與一個地面機器人進(jìn)行合作, 在 [14] 是一個滿足大、 小范圍,室內(nèi)外 SLAM 環(huán)境的實時單目 SLAM系統(tǒng),且可以完 全的自動初始化, 采用適者生存的方法 選擇重構(gòu)點和關(guān)鍵幀, 生成稠密地圖, 似紋理環(huán)境中出現(xiàn)跟蹤失敗 [9]。
22、 [46] 證實為了提高 單目 Strasdat等 SLAM系統(tǒng)的位置精度, 增加特征的數(shù) 量比增加幀的方式更為有效, 同時,BA 半結(jié)構(gòu)化的地形中構(gòu)建地圖。 Bene? [54] 讓 各個機器人 獨立進(jìn)行 dettelli 等 SLAM,生成獨立的地圖。在機器人相 遇時,計算地圖的相似處, 進(jìn)行合并生 該地圖僅當(dāng)場景內(nèi)容改變時才更新, 加 優(yōu)化的方法比濾波器的方法效果更好, 成全局地圖, 然后,每個機器人通過開 強了終生地圖構(gòu)建的能力。 然而,該文章指出濾波器的方法在較高 發(fā)融 合的地圖 開始單個機 器人的 2.2 特征匹配 特征匹配的性能對 SLAM 效果具
23、 有決定性的影響, 為快速獲得高精度的 不確定的 情況下更 有利。理 想的 SLAM系統(tǒng)將同時利用 SFM技術(shù)和概 率濾波器的優(yōu)點 [47]。 [55] 對地震中毀 SLAM 算法。 Michael 等 壞的建筑里采用地面和空中機器人進(jìn) 行協(xié)作建圖進(jìn)行研究, 通過采集多層結(jié) 匹配,主要有兩類算法 [41]:一是灰度匹 構(gòu)的環(huán)境構(gòu)建 3D 地圖。他們提供了協(xié) 配,使用統(tǒng)計模型尋找點匹配; 二是基 3 多機器人協(xié)作 SLAM 作建圖方法的細(xì)節(jié), 并且報告了試驗中 于特征的方法,該方法基于從圖像檢測 多機器人方案相對單個機器人方 分別由單個機器人和機器人團隊構(gòu)建
24、得到的特征(點、線或面)。兩種方法各 案有許多優(yōu)點, 例如,隨著機器人數(shù)量 的地圖。 有千秋,灰度匹配的方法具有更高的精 度但同時消耗更多的計算資源, 目前來 的增加,整個系統(tǒng)執(zhí)行任務(wù)需要的時間 縮短,對錯誤的容忍度增加且地圖的精 [56] 通過微型飛行器的單 Forster等 目相機對準(zhǔn)由地面機器人的深度傳感 看并不滿足視覺 SLAM的實時性要求, 度得到提高。 Marjovi 等[48]對多機器人 器構(gòu)建的地圖, 得到稠密的 3D 重構(gòu)地 另一方面,基于特征的方法需要的計算 在時間上的優(yōu)勢做了闡述, 在不同環(huán)境 圖,如圖 1 所示。他們提出一種用于微 資源
25、較少且抗干擾性能好?;谔卣? 中使用不同數(shù)量的機器人, 以獲得滿意 型飛行器聯(lián)合地面機器人的定位方法, 的方法需要先從圖像中提取特征, 在上 的構(gòu)圖結(jié)果。兩個機器人的系統(tǒng)用于 解決了通過多個機器人上的不同傳感 一節(jié)中已經(jīng)介紹過方法?;谔卣鞯? 器計算得到的 3D 地圖的配準(zhǔn)問題, 由 構(gòu)建地圖,需要的時間是單個機器人的 方法計算兩個幀間的特征匹配, 有兩種 思路:一是先提取前一幀圖像的特征, 然后在局部范圍內(nèi)的圖像檢索尋找對 1/2,盡管存在一些優(yōu)勢, 但是多機器人 SLAM系統(tǒng)需要探索由多個機器人帶 來的問題,例如在線路徑規(guī)劃、 同時定 微型飛行器上的單目相機
26、得到的稠密 的3D 重構(gòu)與地面機器人上的深度傳感 器得到的地圖配準(zhǔn)。一旦配準(zhǔn), 微型飛 應(yīng)點[42],該方法具有的優(yōu)點是算法速度 位和地圖構(gòu)建、 特征提取和數(shù)據(jù)關(guān)聯(lián)。 行器上的稠密重構(gòu)將用于擴充由地面 快,局限性是僅在兩幀圖像變化較小的 然而,這些問題在單個機器人 SLAM 系 機器人計算得到的地圖, 使用航空視角 時候適用;二是對兩幅圖像都進(jìn)行特征 統(tǒng)已經(jīng)得到研究并取得一定的成果, 此 所傳遞的信息進(jìn)行擴充。整體的方法 提取,在根據(jù)提取的特征建立聯(lián)系, 該 外,任務(wù)分配、 通信拓?fù)浜偷貓D融合是 是新穎的,由移動相機得到的現(xiàn)場稠密 112 2015 世界機器人大會報道
27、特刊 www.kjdb.org 重構(gòu),解決了空地聯(lián)合定位問題。 [57] 使用神經(jīng)網(wǎng)絡(luò)拼合地 Saeedi等 圖。他們先從網(wǎng)格地圖中提取特征, 根 據(jù)特征計算兩個地圖間的旋轉(zhuǎn)與平 移。對于增強的自主性的機器人來說, 在沒有 GPS信號的環(huán)境中導(dǎo)航是一項 非常重要的要求。雖然在一些單個機 器人的場景中已經(jīng)得到解決, 但是下一 步的挑戰(zhàn)是為多個機器人設(shè)計有效的 構(gòu)圖和導(dǎo)航算法。實現(xiàn)編隊自主性的 圖 1 空中和地面機器人的定位和構(gòu)圖 關(guān)鍵需求是提供給機器人協(xié)作去精確 的構(gòu)建環(huán)境地圖的能力, 這個問題和協(xié) 作的同時定位和地圖構(gòu)建密切相關(guān), 他 們研究的構(gòu)圖過程擴
28、展到多機器人新 的占有柵格地圖融合算法。地圖融合 通過轉(zhuǎn)換若干單個地圖到 Hough空間 得到,Hough空間里地圖用一種抽象的 形式描述。 Hough變換的特性用于找 圖2 3 個子地圖融合成 1 個全局地圖 到各個地圖之間的公共區(qū)域, 進(jìn)而用于 計算地圖之間的未知變換。他們亦提 完成相應(yīng)的目標(biāo)任務(wù)。 容錯能力也值得進(jìn)一步研究。 出使用 Hough峰來拼合地圖的算法 [58], 融合的結(jié)果如圖 2 所示,其中圖 2(a), 1)聯(lián)合空中多旋翼飛行器和地面 機器人,搭載 RGB-D 、單目或多目等不 3)深度學(xué)習(xí)技術(shù)能夠讓機器自主 理解圖像中存在的特征,
29、并以此為基礎(chǔ) (b)和(c)分別為子地圖, (d)為融合得 同的視覺傳感器,充分發(fā)揮各自的優(yōu)點 去辨別圖像的相似性, 完成閉環(huán)檢測的 到的全局地圖。 任務(wù)。然而深度學(xué)習(xí)技術(shù)在 SLAM 研 獲取更多的環(huán)境信息, 構(gòu)建適用于室內(nèi) 外復(fù)雜動 態(tài)環(huán)境的 多機器人 視覺 究領(lǐng)域中,遠(yuǎn)沒有得到應(yīng)用, 僅僅在一 4 發(fā)展趨勢 機器人在進(jìn)入未知環(huán)境時, 需要對 所處環(huán)境進(jìn)行有效地探測和感知, 獲取 SLAM系統(tǒng)。 2)在多機器人系統(tǒng)的地圖融合工 作中,在子地圖的重疊部分可在優(yōu)化地 些物體識別中得到應(yīng)用 [59,60]。下一步可 以基于視覺的 SLAM 系統(tǒng)中的大量圖
30、像信息,應(yīng)用深度學(xué)習(xí)知識在閉環(huán)檢測 圖精度方面進(jìn)一步研究, 可用于閉環(huán)檢 以及目標(biāo)識別等高級別任務(wù)中。 其在環(huán)境中的姿態(tài)信息, 同時還要構(gòu)建 出環(huán)境地圖。只有在了解環(huán)境真實信 測提高整體系統(tǒng)性能。另外, 對部分機 息的基礎(chǔ)上才能進(jìn)行避障、 路徑規(guī)劃并 器人構(gòu)圖失敗的情況, 如何提高系統(tǒng)的 參考文獻(xiàn) (References ) [1] Stachniss C. Robotic mapping and exploration[M]. Springer Tracts in Advanced Robotics, 2009. [2] Durrant-Whyte H, Bailey T. S
31、imultaneous localization and mapping:part I[J]. Robotics & Automation Magazine, IEEE, 2006, 13(2): 99-110. [3] 陳衛(wèi)東 , 張飛. 移動機器人的同步自定位與地圖創(chuàng)建研究進(jìn)展 [J]. 控制理論與應(yīng)用 , 2005(3): 455-460. [4] 張亮 . 移動機器人同步定位與地圖重建算法研究 [D]. 杭州 : 浙江大學(xué) , 2009. [5] Bailey T, Durrant-Whyte H. Simultaneous localization and mapping (S
32、LAM): Part II[J]. Robotics & Automation Magazine, IEEE, 2006, 13(3): 108-117. [6] 于金霞 , 王璐, 蔡自興 . 未知環(huán)境中移動機器人自定位技術(shù) [M]. 北京: 電子工業(yè)出版社 , 2011. [7] Paz L M, Pini P, Téarsd J Dó, est al. Large-scale 6-DOF SLAM with stereo-in-hand[J]. Robotics, IEEE Transactions on, 2008, 24(5): 946-957. [8] Davison A J
33、, Reid I D, Molton N D, et al. MonoSLAM: Real-time single camera SLAM[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2007, 29(6): 1052-1067. [9] Klein G, Murray D. Parallel tracking and mapping for small AR workspaces[C]//Mixed and Augmented Reality, 2007. ISMAR 2007. 6th IEE
34、E and ACM International Symposium on. IEEE, 2007: 225-234. [10] S á J Me z, Escolano F. 6dof entropy minimization slam[C]//Robotics and Automation, 2006. ICRA 2006. Proceedings 2006 IEEE International Conference on. IEEE, 2006: 1548-1555. [11] Pini P, Téa rsd J Dó. Lsarge-scale slam building con
35、ditionally independent local maps: Application to monocular vision[J]. Robotics, IEEE Transactions on, 2008, 24(5): 1094-1106. 113 科技導(dǎo)報 2015 ,33(23) www.kjdb.org [12] Engel J, Sch?ps T, Cremers D. LSD-SLAM: Large-scale direct monocular SLAM[M]//Computer Vision-ECCV 2014. Springer International P
36、ublishing, 2014: 834-849. [13] Endres F, Hess J, Sturm J, et al. 3-d mapping with an rgb-d camera[J]. Robotics, IEEE Transactions on, 2014, 30(1): 177-187. [14] Mur-Artal R, Montiel J M M, Tardos J D. ORB-SLAM: A versatile and accurate monocular SLAM system[J]. arXiv preprint arXiv:1502.00956, 20
37、15. [15] Ferranti E, Trigoni N, Levene M. Brick& Mortar: an on-line multi-agent exploration algorithm[C]//Robotics and Automation, 2007 IEEE International Conference on. IEEE, 2007: 761-767. [16] Whyte H, Baliey T. Simultaneous Localization and Mapping (SLAM) Part 1 The Essential Algorithms[J]. I
38、EEE Robotics & Automation Magazine, 2006, 13(2): 99-110. [17] Bailey T, Durrant-Whyte H. Simultaneous localization and mapping (SLAM): Part II[J]. IEEE Robotics & Automation Magazine, 2006, 13(3): 108-117. [18] Castellanos J A, Neira J, Tard J Dó. Ms ultisensor fusion for simultaneous localizatio
39、n and map building[J]. Robotics and Automation, IEEE Transactions on, 2001, 17(6): 908-914. [19] Majumder S, Scheding S, Durrant-Whyte H F. Sensor fusion and map building for underwater navigation[C]// Proceedings of Australian Conferenceon Ro? botics and Automation. 2000: 25-30. [20] N ü G,tzWi
40、 eiss S, Scaramuzza D, et al. Fusion of IMU and vision for absolute scale estimation in monocular SLAM[J]. Journal of intelligent & robotic sys? tems, 2011, 61(1-4): 287-299. [21] Se S, Lowe D, Little J. Mobile robot localization and mapping with uncertainty using scale-invariant visual landmarks[
41、J]. The International Journal of Ro? botics Research, 2002, 21(8): 735-758. [22] Olson C F, Matthies L H, Schoppers M, et al. Rover navigation using stereo ego-motion[J]. Robotics and Autonomous Systems, 2003, 43(4): 215-229. [23] Hartley R, Zisserman A. Multiple view geometry in computer vision[
42、M]. Cambridge: Cambridge University Press, 2003. [24] Kaess M, Dellaert F. Probabilistic structure matching for visual SLAM with a multi-camera rig[J]. Computer Vision and Image Understanding, 2010, 114 (2): 286-296. [25] Carrera G, Angeli A, Davison A J. SLAM-based automatic extrinsic calibratio
43、n of a multi-camera rig[C]//Robotics and Automation (ICRA), 2011 IEEE International Conference on. IEEE, 2011: 2652-2659. [26] Davison A J, Cid Y G, Kita N. Real-time 3D SLAM with wide-angle vision[C]//Proc. IFAC/EURON Symp. Intelligent Autonomous Vehicles. 2004: 31- 33. [27] Scaramuzza D, Siegw
44、art R. Appearance-guided monocular omnidirectional visual odometry for outdoor ground vehicles[J]. Robotics, IEEE Transactions on, 2008, 24(5): 1015-1026. [28] Huang A S, Bachrach A, Henry P, et al. Visual odometry and mapping for autonomous flight using an RGB-D camera[C]//International Symposium
45、 on Robotics Research (ISRR). 2011: 1-16. [29] Hu G, Huang S, Zhao L, et al. A robust rgb-d slam algorithm[C]//Intelligent Robots and Systems (IROS), 2012 IEEE/RSJ International Conference on. IEEE, 2012: 1714-1719. [30] Engelhard N, Endres F, Hess J, et al. Real-time 3D visual SLAM with a hand-
46、held RGB-D camera[C/OL]. [2015-09-31]. http://vision.informatik.tu- muenchen.de/_media/spezial/bib/engelhard11euron.pdf. [31] Endres F, Hess J, Engelhard N, et al. An evaluation of the RGB-D SLAM system[C]//Robotics and Automation (ICRA), 2012 IEEE International Confer? ence on. IEEE, 2012: 1691-
47、1696. [32] Rublee E, Rabaud V, Konolige K, et al. ORB: An efficient alternative to SIFT or SURF[C]//Computer Vision (ICCV), 2011 IEEE International Confer? ence on. IEEE, 2011: 2564-2571. [33] Sturm J, Magnenat S, Engelhard N, et al. Towards a benchmark for RGB-D SLAM evaluation[C]. Proc. of the
48、RGB-D Workshop on Advanced Reason? ing with Depth Cameras at Robotics: Science and Systems Conf.(RSS), Los Angeles, USA. 2011, 2: 3. [34] Davison A J. Real-time simultaneous localisation and mapping with a single camera[C]//Computer Vision, 2003. Proceedings. Ninth IEEE International Conference o
49、n. IEEE, 2003: 1403-1410. [35] Lemaire T, Berger C, Jung I K, et al. Vision-based slam: Stereo and monocular approaches[J]. International Journal of Computer Vision, 2007, 74(3): 343-364. [36] Vidal-Calleja T, Bryson M, Sukkarieh S, et al. On the observability of bearing-only SLAM[C]//Robotics an
50、d Automation, 2007 IEEE International Confer? ence on. IEEE, 2007: 4114-4119. [37] Gao X, Zhang T. Robust RGB-D simultaneous localization and mapping using planar point features[J]. Robotics & Autonomous Systems, 2015, 72:1-14. [38] Lowe D G. Distinctive image features from scale-invariant keypoi
51、nts[J]. International Journal of Computer Vision, 2004, 60(2): 91-110. [39] Bay H, Tuytelaars T, Gool L V. SURF: Speeded up robust features[J]. Computer Vision & Image Understanding, 2006, 110(3): 404-417. [40] Lepetit V, Ozuysal M, Trzcinski T, et al. BRIEF: Computing a local binary descriptor ve
52、ry fast[J]. IEEE Transactions on Software Engineering, 2011, 34 (7): 1281-1298. [41] Huijuan Z, Qiong H. Fast image matching based-on improved SURF algorithm[C]//Electronics, Communications and Control (ICECC), 2011 International Conference on. IEEE, 2011: 1460-1463. [42] Chli M, Davison A J. Ac
53、tive matching for visual tracking[J]. Robotics and Autonomous Systems, 2009, 57(12): 1173-1187. [43] Fischler M A, Bolles R C. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM, 1981, 24(6): 381-395. [
54、44] Pollefeys M, Van Gool L, Vergauwen M, et al. Visual modeling with a hand-held camera[J]. International Journal of Computer Vision, 2004, 59(3): 207- 232. 114 2015 世界機器人大會報道特刊 www.kjdb.org [45] Engels C, Stew éH, Ninstius D. Béu nrdle adjustment rules[J]. Photogrammetric computer vision, 2006
55、, 2: 124-131. [46] Strasdat H, Montiel J M M, Davison A J. Real-time monocular slam: Why filter?[C]//Robotics and Automation (ICRA), 2010 IEEE International Confer? ence on. IEEE, 2010: 2657-2664. [47] Fuentes-Pacheco J, Ruiz-Ascencio J, Rend ó n-MJ aMn.c hVai s u a l simultaneous localization an
56、d mapping: a survey[J]. Artificial Intelligence Review, 2015, 43(1): 55-81. [48] Marjovi A, Nunes J G, Marques L, et al. Multi-Robot Exploration and Fire Searching[C]// IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2009:1929-1934. [49] 張國良 , 湯文俊 , 曾靜 , 等. 考慮通信
57、狀況的多機器人 CSLAM 問題綜述 [J]. 自動化學(xué)報 , 2014, 40(10): 2073-2088. [50] Michael N, Shen S, Mohta K, et al. Collaborative mapping of an earthquake-damaged building via ground and aerial robots[J]. Journal of Field Robotics, 2012, 29(5): 832-841. [51] Lee H C, Lee S H, Choi M H, et al. Probabilistic map merg
58、ing for multi-robot RBPF-SLAM with unknown initial poses[J]. Robotica, 2012, 30(2): 205- 220. [52] Gil A, Reinoso O, Ballesta M, et al. Multi-robot visual slam using a rao-blackwellized particle filter. Robotics and Autonomous Systems, 2010, 58(1): 68-80. [53] Vidal-Calleja T A, Berger C, Sola J
59、, et al. Large scale multiple robot visual mapping with heterogeneous landmarks in semi-structured terrain. Robotics and Autonomous Systems, 2011, 59(9): 654-674. [54] Benedettelli D, Garulli A, Giannitrapani A. Cooperative SLAM using M-Space representation of linear features[J]. Robotics and Auto
60、nomous Systems, 2012, 60(10): 1267-1278. [55] Zhou X S, Roumeliotis S. Multi-robot SLAM with unknown initial correspondence: The robot rendezvous case[C]//Intelligent Robots and Systems, 2006 IEEE/RSJ International Conference on. IEEE, 2006: 1785-1792. [56] Forster C, Pizzoli M, Scaramuzza D. Ai
61、r-ground localization and map augmentation using monocular dense reconstruction[C]//Intelligent Robots and Sys? tems (IROS), 2013 IEEE/RSJ International Conference on. IEEE, 2013: 3971-3978. [57] Saeedi S, Paull L, Trentini M, et al. Neural network-based multiple robot simultaneous localization an
62、d mapping[J]. IEEE Transactions on Neural Net? works, 2011, 22(12): 2376-2387. [58] Saeedi S, Paull L, Trentini M, et al. Map merging for multiple robots using Hough peak matching[J]. Robotics and Autonomous Systems, 2014, 62(10): 1408-1424. [59] Kostavelis I, Gasteratos A. Learning spatially se
63、mantic representations for cognitive robot navigation[J]. Robotics and Autonomous Systems, 2013, 61(12): 1460-1475. [60] Bo L, Ren X, Fox D. Learning hierarchical sparse features for rgb-d object recognition[J]. International Journal of Robotics Research, 2014, 33(4): 581- 599. A survey on the c
64、ooperative SLAM problem of multi-robots systems based on visual L üQiang, LIN Huican, ZHANG Yang, MA Jianye Department of Control Engineering, Academy of Armored Forces Engineering, Beijing 100072, China Abstract Visual SLAM using only images as external information estimates the robot position
65、while building the environment map. SLAM is a basic prerequisite for autonomousrobots. Now it has been solved by using a laser or sonar sensor to build 2D map in a small dynamic environment. However, in a dynamic, wide range and complex environment there are still problems to be solved, and the u
66、se of vision as the basic external sensor is a new area of research. The use of computer vision techniques in visual SLAM, such as feature detection, characterization, feature matching, image recognition and recovery, has still much room for improvement. The paper offers a brief overview on visual SLAM about the latest and easy to understand technologies in the field. Multi-robot systems have many advantages over a single robot, which can improve the precision of SLAM system, and better adapt
- 溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2014年護(hù)理工作總結(jié)PPT
- 怎樣最有效地治療復(fù)發(fā)性口腔潰瘍
- 肝炎科普講座
- 24-PPT就象胸罩的10個理由
- 第11章第2節(jié)(3)內(nèi)臟神經(jīng)電子課件 中職 電子教案解剖學(xué)基礎(chǔ)(第4版)
- 真正的英雄課件
- 演示文稿unit10
- 辛棄疾詞兩首(精品)
- 經(jīng)典小米手機的營銷策略
- 稻盛和夫的實學(xué)讀后感
- 高級財務(wù)管理8跨國公司財務(wù)管理
- 第章領(lǐng)導(dǎo)決策
- 歐美高端大氣商業(yè)計劃書企業(yè)介紹產(chǎn)品介紹PPT模板PPT課件
- 練習(xí)1 (3)(教育精品)
- 冷熱源-6吸收式制冷