基于視覺的多機器人協(xié)作基于視覺的多機器人協(xié)作SLAM問題
《基于視覺的多機器人協(xié)作基于視覺的多機器人協(xié)作SLAM問題》由會員分享,可在線閱讀,更多相關《基于視覺的多機器人協(xié)作基于視覺的多機器人協(xié)作SLAM問題(9頁珍藏版)》請在裝配圖網(wǎng)上搜索。
1、科技導報 2015 ,33(23) www.kjdb.org 基于視覺的多機器人協(xié)作 SLAM 問題 呂強,林輝燦,張洋,馬建業(yè) 裝甲兵工程學院控制工程系, 北京 100072 視覺 SLAM 僅采用圖像作為外部信息, 用于估計機器人位置的同時構建環(huán)境地圖。 SLAM 是機器 人自主性的基本前提, 如今在小動態(tài)環(huán)境采用激光或者聲吶傳感器構建 2D 地圖得到較好地解決。然 而動態(tài)、復雜和大范圍下的 SLAM 仍存在問題, 使用視覺作為基本的外部傳感器是解決問題的一個新 穎熱門的研究方法。在視覺 SLAM 中使用計算機視覺技術, 如特征檢測、特征描述和特征匹配, 圖像識 別和恢復,
2、還存在很多改善的空間。本文在視覺 SLAM 領域的最新技術的基礎上, 對基于視覺的多機 器人協(xié)作 SLAM 領域的前沿技術進行綜述。 移動機器人的自主導航問題可以 部的閉鎖現(xiàn)象。視覺 SLAM系統(tǒng)成功 器人 SLAM 系統(tǒng)可以提升構圖的速度 分為定位、地圖構造和路徑規(guī)劃 3 個部 的關鍵是具備處理上述困難的能力。 和精度,有利于路徑規(guī)劃等探索研究。 分[1] 。定位的任務是確定機器人在當前 該領域的核心問題是多機器人之間的 近10年來,從發(fā)表的論文可以看出一 環(huán)境中的位姿,地圖構建的任務是將對 個清晰的趨勢,就是使用視覺作為唯一 通信拓撲、任務規(guī)劃和地圖融合。任務 環(huán)境的零碎分
3、布觀測整合為一個聯(lián)系 的外部傳感器的感知系統(tǒng)用于解決 規(guī)劃:當多個機器人用于共同探索同一 的模型,路徑規(guī)劃的任務是確定最佳路 徑并導航機器人通過環(huán)境。 [7~11] 。之所以會有這樣的趨 SLAM問題 勢,是因為基于攝像頭的系統(tǒng)既能夠獲 個環(huán)境進行研究時, 需要處理好各個機 器人的任務規(guī)劃問題。做好任務規(guī)劃 起初定位和地圖構建是分開研究 取尺度信息又能夠恢復環(huán)境的外觀、 顏 可以節(jié)省探索整個研究環(huán)境的時間。 的,后來學者們意識到二者是相互關聯(lián) 色和紋理,使得機器人能夠完成更高級 通信拓撲是指機器人之間的通信結構, 的。同時定位與地圖構建 (simultane? 的
4、功能,如在環(huán)境中識別人員。進一步 有完全連接和部分連接等多種通信拓 ous localization and mapping,SLAM)是 指機器人在未知環(huán)境中運動時增量地 說,攝像頭更便宜、 更輕且功耗更低。 不幸的是相機數(shù)據(jù)存在誤差, 由于相機 撲結構。對于完全連接需要使用外部 設備以克服通信帶寬和距離的限制, 外 構建周圍環(huán)境地圖, 同時運用此地圖對 分辨率不足、 光線變化、表面缺乏紋理 部設備用于將一個機器人的數(shù)據(jù)發(fā)送 機器人自身位姿進行估計 [2] 。SLAM是 和快速運動引起圖像模糊等因素。許 給所有的機器人 [15]。部分連接采用兩 多學者對上述問題
5、進行研究并取得不 個機器人之間的一對一通信解決通信 移動機器人系統(tǒng)最基本、 最重要的一項 能力,隨著未知環(huán)境探測的日趨復雜和 帶寬和距離的限制問題, 機器人僅能使 少成果,比較典型的有 Klein 等基于 BA 非結構化,SLAM 已成為自主移動機器 (bundle adjustmen)t 的 實 時 SLAM 算 用通信范圍內的其他機器人的信息。 法,即并行跟蹤和構圖 (parallel track? 地圖融合是解決多機器人 SLAM 的關 人亟待解決的重要基礎性難題 [3,4],并被 視為移動機器人領域的 “圣杯”[5]。當攝 像頭作為唯一的感知外部環(huán)境的傳感 [9],
6、Engel 等采 ing and mapping,PTAM) 用直接的方法構建大范圍內的半稠密 鍵問題,運用共享的信息改進全局地圖 的精度和構圖范圍, 全局地圖通過聯(lián)合 器用于 SLAM,就稱為視覺 SLAM。準 地圖,即 LSD- SLAM[12],以及 RGB- D 所有機器人的局部地圖獲得。當機器 確的環(huán)境地圖有助于實現(xiàn)高精度的定 位,而精確定位則有利于建立更加真實 可信的環(huán)境地圖 [6],兩者相輔相成。 [13] 和 ORB SLAM[14] 等。RGB- D SLAM SLAM采用一種能夠同時獲取環(huán)境彩 色信息(RGB)和 深度信息(depth)的
7、 人之間的相對位置關系已知, 只需要根 據(jù)每個機器人的定位和構圖進行拼接 地圖;而當機器人之間的相對位置未知 許多視覺 SLAM 系統(tǒng)在如下的環(huán) 境中容易失?。?外部環(huán)境、動態(tài)環(huán)境、顯 RGB-D 傳感器。 對于單個機器人的 SLAM 系統(tǒng)已 時,需要對每個機器人的地圖進行轉換 才能進行拼接地圖。 經(jīng)有不少的解決方案, 然而多機器人的 總之,雖然需要處理上述難題, 但 著特征太多或太少的環(huán)境、 大尺度環(huán) 是多機器人 SLAM 能夠以更快的速度、 境,以及當攝像頭運動不穩(wěn)和部分或全 SLAM相較而言還是一個新領域, 多機 110 2015 世界機器人大會報
8、道特刊 www.kjdb.org 更高的精度探索未知環(huán)境。而且, 多機 器人 SLAM具有更強的容錯能力, 環(huán)境 構建就顯得尤為重要。 1.2 相機在 SLAM 中的應用 RGB-D 圖像序列和真實攝像機軌跡的 數(shù)據(jù)集用于評估 SLAM 系統(tǒng)的性能 [33]。 條件的惡劣或者變化、 由于錯誤的數(shù)據(jù) 第一個視覺導航的作品采用雙目 基于該數(shù)據(jù)集進行了大量的實驗, 結果 關聯(lián)或假設模型引起的算法失敗等問 立體結構相機 [21,22],然而,多數(shù)情況下由 表明其位姿估計平均精度為 9.7 cm和 題,可以通過多機器人系統(tǒng)克服。因 此,近幾年相對單個機器人的 SLAM
9、應 于價格昂貴,很難獲取雙目或者三目立 體相機。另一種解決方法是使用一對 3.95 ,平均°每幀的處理時間為 0.35 s, 基本滿足實時運行的要求。 用研究,多機器人的 SLAM 應用研究更 自從單目 SLAM的出現(xiàn) [34],僅用一 單目相機,導致需要考慮不懂方面的困 加吸引人和熱門。 難:采用硬件或軟件的方式實現(xiàn)相機同 個相機實現(xiàn)同時定位和地圖構建的方 步;每個 CCD傳感器對顏色或光線的 法就變得越來越流行。這是因為通過 1 視覺 SLAM 響應略有不同;采取何種幾何結構進行 手機、數(shù)碼相機或筆記本等可以輕松獲 校準等。 得相機,比立體相機更加容易獲取。
10、單 1.1 同時定位和地圖構建 在 1985—1990 期 間 ,Chatila 和 不管采用什么類型的相機, 在使用 目方法的硬件簡單靈活經(jīng)濟, 數(shù)據(jù)處理 Smith提出地圖構建和定位同時進行研 究的問題。不久之后, 該問題有了專業(yè) 之前都必須校準 (手動或者自動 ),校 準 需要估計相機的內部參數(shù)和外部參數(shù), 時間也較短。僅依靠單目并不能直接 獲得足夠的信息計算航標的深度, 因此 名 稱 SLAM(simultaneous localization 前者依賴于相機的幾何結構 (焦距和光 需要處理航標的初始化問題,通常有兩種 and mapping)。有
11、關 SLAM 的歷史可以 參閱 Durrant和Bailey撰寫的有關 SLAM 點),后者由相機在空間中的位置決定 (某個坐標系統(tǒng)中的旋轉和位移) 。根 解決方案[35,36]。為了從一個相機獲取環(huán) 境的三維信息,需要處理多個觀測圖像 發(fā)展歷程的文章 [16,17]。SLAM 指移動平 據(jù)多視角棋盤校準圖像, 關聯(lián)圖像坐標 的特征跟蹤問題。 與真實世界坐標可獲取參數(shù) [23],也有許多 臺(機器人、運輸載體等 )能夠構建所探 工具能夠實現(xiàn)相機的校準: OpenCV的 索環(huán)境的全局地圖, 同時利用地圖進一 2 圖像數(shù)據(jù)關聯(lián) 校準函數(shù)、 Matlab
12、 的相機校準工具箱 步確定自身位置。 最先進的 RGB-D SLAM 系統(tǒng)大多 等。 為了對環(huán)境構建地圖, 機器人必須 數(shù)都采用迭代最近點 (iterative closest 擁有用于感知和獲取外部環(huán)境觀測的 傳感器,可分為外部傳感器和內部傳感 使用多相機帶有或者不帶有視角 重疊的研究 [24,25],使用特殊鏡頭的相機 point,ICP)算法去匹配點特征, 這些點 特征的空間位置是根據(jù)匹配的傳感器 如廣角 [26] 或者全向 [27] 相機增加視覺范 器兩種。外部傳感器包括聲吶、 激光掃 深度數(shù)據(jù)計算得到的。然而, 特征的深 描儀、相機以及 GPS等
13、,這些傳感器都 圍,進而一定程度上減小累積誤差。近 度測量數(shù)據(jù)經(jīng)常被噪聲所干擾, 因為視 幾年出現(xiàn)的 RGB-D 傳感器應用于室內 存在噪聲和距離受限的問題。此外, 前 覺特征傾向于在實物的邊緣。為了減 3 種傳感器只能獲得環(huán)境的局部視 圖。激光傳感器和聲吶傳感器可以獲 環(huán)境的地圖構建,已被驗證是一種非常 有前途的方法 [28,29]。 小估計誤差,高翔等[37]采用了可靠的深 度數(shù)值提取和選擇特征的方法, 如平面 德國弗萊堡大學的 Engelhard和慕 取精確而稠密的環(huán)境結構信息, 然而, 點特征。平面點特征有利于提高傳統(tǒng) 尼黑技術大學的 Sturm等
14、[30]提出了一種 存在的問題是:在復雜性高的環(huán)境以及 的ICP 的精度和魯棒性, 同時保持合理 基于 RGB- D 傳感器的實時 3D 視覺 物體識別方面均不可用, 質量大、體積 的實時應用的計算消耗。通過公開數(shù) 大使得難以在飛行機器人或者人型機 器人上應用。另一方面, GPS在狹窄街 SLAM 方法,主要包括特征提取和匹 配、位姿估計、位姿修正、位姿圖優(yōu)化 4 據(jù)集的軌跡跟蹤和構圖結果以及實物 機器人的實際試驗, 驗證了一個基于平 個步驟。該方法對 Henry等提出的方 道、城市峽谷、 水下和室內等環(huán)境的定 面的RGB-D SLAM的系統(tǒng)的有效性。 法進
15、行了 3 點改進:首先在特征提取時 位精度不能滿足要求。內部傳感器能 在單目視覺 SLAM中,絕大多數(shù)采 將SIFT特征替換為 SURF特征,其次在 夠測量機器人的速度、 位置變化和加速 用基于特征的地圖表示, 因此此處主要 位姿圖優(yōu)化時使用 g2o方案代替 TO? 度,例如編碼器、加速度計和磁羅盤等, 對基于特征的運動估計方法進行分 但由于存在累積誤差, 并不能保證足夠 的估計精度。 RO,最后在環(huán)境地圖的表示時將點云 地圖轉換成 3D 占據(jù)柵格地圖。文獻 析。對該問題的研究, 是計算機視覺領 域中經(jīng)典的從運動恢復結構 (SFM)問 在文獻 [18]~
16、[20] 中得到證實, 為了 獲得機器人位置的高精度且魯棒性好 [32] [31]中進一步對 SIFT、SURF和ORB 3 種不同的特征描述方法進行了研究和 題,也有學者將其等同于視覺里程計研 究?;?2D 圖像特征的運動估計一般 實驗分析對比,而且針對著色點云地圖 的估計,需要使用信息融合技術處理多 包括特征檢測、特征匹配和運動估計。 個傳感器的數(shù)據(jù)。然而, 傳感器增加引 存儲量大和計算量大的問題, 使用基于 2.1 特征提取 起的系統(tǒng)的造價過高、 重量增加和功耗 過大等問題, 因此,探索如何僅僅依靠 Octree的地圖構建框架 OctoMa
17、p將點 云地圖體素化轉換成 3D 占據(jù)柵格地 特征提取對于視覺 SLAM 是最為 關鍵也最為基礎的一個環(huán)節(jié), 因為后續(xù) 相機作為傳感器實現(xiàn)同時定位和地圖 圖。此外,他們還首次構建了一個包含 的所有處理都以此為基礎進行。 SIFT[38] 111 科技導報 2015 ,33(23) www.kjdb.org 方法在 10 多年的應用中驗證其良好的 方法的優(yōu)點是能夠適用于幀間的變化 多機器人系統(tǒng)需要解決的重要難題。 性能,成功應用于視覺特征、 目標識別、 較大的情況,缺點是計算效率較低及存 有關通信拓撲方面的綜述, 可以參閱文 圖像匹配和視覺構圖等方面 [32]。但由 在
18、匹配不一致。對于匹配不一致的問 獻[49],本文主要關注多機器人系統(tǒng)的 于采用 128 維向量,相較而言在計算和 題可以采用文獻 [38]和[43]的方法提高 地圖融合問題。 匹配過程中運算速度較慢, 不利于在實 匹配一致性。 多機器人系統(tǒng)中, 每個機器人在進 時性 要求很高的 SLAM 系統(tǒng)中的應 行SLAM 的過程中都有自己的坐標系, 2.3 運動估計 用。SURF[39]能夠在保持與 SIFT相同性 能的辨別率的情況下, 提高運算和匹配 Structure from Motion(SFM)技術能 夠從一系列圖像中計算場景中的 3D 結 因此由不同機器人創(chuàng)建的地
19、圖不能夠 直接用于融合。學者們已經(jīng)研究出一 的效率,然而該描述符使用了 64 維向 構和相機位置 [44]。標準的流程是提取 些實現(xiàn)地圖融合的方法, 通常情況下, 量的浮點數(shù)據(jù)即 256位,當需要存儲數(shù) 輸入圖像的特征, 進而特征匹配, 采用 在獲取兩類必備條件的情況下就能夠 以百萬計的描述符時也是不能滿足要 一種稱為捆綁調整 (bundle adjustment, 實現(xiàn)地圖融合。一是機器人之間互相 求的。 BRIEF[40] 使用二進制流作為關 鍵點特征的描述符, 該方法使用較少的 B A)的非線性優(yōu)化方法, 最小化重投影 誤差[45]。解決 SLM遞增問題的一種方
20、 清楚對方的相對位置, 如當機器人相遇 時使用全向相機獲得機器人之間的距 位數(shù)就能夠獲得高性能且計算簡單, 文 法是視覺里程計,該方法僅使用序列圖 離,進而計算地圖的轉換矩陣 [50]。二是 獻[40]驗證該方法在獲得與 SURF相當 像就可以實時計算相機的位姿。 Klein 機器人之間不清楚互相之間的位置, 但 或者更好性能的情況下, 需要的時間更 等發(fā)表的稱為 PTAM 的單目方法, 基于 是各自構建的地圖之間有公共的區(qū)域, 少。ORB[32] 是一種基于 BRIEF 的快速 文獻[51]匹配地圖的點特征。 關鍵幀,采用兩個平行的處理線程, 第 二進制描述符,該方法
21、具有旋轉不變性 和抗干擾性能, 更加適用于視覺 SLAM 一個線程執(zhí)行的任務是魯棒地跟蹤很 多特征,另一線程的任務是生成 3D 地 [52] 則使用 RBPF 濾波對地圖 Gil 等 進行融合。 Vidal-Calleja 等[53]使用一個 系統(tǒng)對實時性和精度的要求。 ORB- 圖點。該方法在動態(tài)環(huán)境中和存在相 飛行器與一個地面機器人進行合作, 在 [14] 是一個滿足大、 小范圍,室內外 SLAM 環(huán)境的實時單目 SLAM系統(tǒng),且可以完 全的自動初始化, 采用適者生存的方法 選擇重構點和關鍵幀, 生成稠密地圖, 似紋理環(huán)境中出現(xiàn)跟蹤失敗 [9]。
22、 [46] 證實為了提高 單目 Strasdat等 SLAM系統(tǒng)的位置精度, 增加特征的數(shù) 量比增加幀的方式更為有效, 同時,BA 半結構化的地形中構建地圖。 Bene? [54] 讓 各個機器人 獨立進行 dettelli 等 SLAM,生成獨立的地圖。在機器人相 遇時,計算地圖的相似處, 進行合并生 該地圖僅當場景內容改變時才更新, 加 優(yōu)化的方法比濾波器的方法效果更好, 成全局地圖, 然后,每個機器人通過開 強了終生地圖構建的能力。 然而,該文章指出濾波器的方法在較高 發(fā)融 合的地圖 開始單個機 器人的 2.2 特征匹配 特征匹配的性能對 SLAM 效果具
23、 有決定性的影響, 為快速獲得高精度的 不確定的 情況下更 有利。理 想的 SLAM系統(tǒng)將同時利用 SFM技術和概 率濾波器的優(yōu)點 [47]。 [55] 對地震中毀 SLAM 算法。 Michael 等 壞的建筑里采用地面和空中機器人進 行協(xié)作建圖進行研究, 通過采集多層結 匹配,主要有兩類算法 [41]:一是灰度匹 構的環(huán)境構建 3D 地圖。他們提供了協(xié) 配,使用統(tǒng)計模型尋找點匹配; 二是基 3 多機器人協(xié)作 SLAM 作建圖方法的細節(jié), 并且報告了試驗中 于特征的方法,該方法基于從圖像檢測 多機器人方案相對單個機器人方 分別由單個機器人和機器人團隊構建
24、得到的特征(點、線或面)。兩種方法各 案有許多優(yōu)點, 例如,隨著機器人數(shù)量 的地圖。 有千秋,灰度匹配的方法具有更高的精 度但同時消耗更多的計算資源, 目前來 的增加,整個系統(tǒng)執(zhí)行任務需要的時間 縮短,對錯誤的容忍度增加且地圖的精 [56] 通過微型飛行器的單 Forster等 目相機對準由地面機器人的深度傳感 看并不滿足視覺 SLAM的實時性要求, 度得到提高。 Marjovi 等[48]對多機器人 器構建的地圖, 得到稠密的 3D 重構地 另一方面,基于特征的方法需要的計算 在時間上的優(yōu)勢做了闡述, 在不同環(huán)境 圖,如圖 1 所示。他們提出一種用于微 資源
25、較少且抗干擾性能好?;谔卣? 中使用不同數(shù)量的機器人, 以獲得滿意 型飛行器聯(lián)合地面機器人的定位方法, 的方法需要先從圖像中提取特征, 在上 的構圖結果。兩個機器人的系統(tǒng)用于 解決了通過多個機器人上的不同傳感 一節(jié)中已經(jīng)介紹過方法?;谔卣鞯? 器計算得到的 3D 地圖的配準問題, 由 構建地圖,需要的時間是單個機器人的 方法計算兩個幀間的特征匹配, 有兩種 思路:一是先提取前一幀圖像的特征, 然后在局部范圍內的圖像檢索尋找對 1/2,盡管存在一些優(yōu)勢, 但是多機器人 SLAM系統(tǒng)需要探索由多個機器人帶 來的問題,例如在線路徑規(guī)劃、 同時定 微型飛行器上的單目相機
26、得到的稠密 的3D 重構與地面機器人上的深度傳感 器得到的地圖配準。一旦配準, 微型飛 應點[42],該方法具有的優(yōu)點是算法速度 位和地圖構建、 特征提取和數(shù)據(jù)關聯(lián)。 行器上的稠密重構將用于擴充由地面 快,局限性是僅在兩幀圖像變化較小的 然而,這些問題在單個機器人 SLAM 系 機器人計算得到的地圖, 使用航空視角 時候適用;二是對兩幅圖像都進行特征 統(tǒng)已經(jīng)得到研究并取得一定的成果, 此 所傳遞的信息進行擴充。整體的方法 提取,在根據(jù)提取的特征建立聯(lián)系, 該 外,任務分配、 通信拓撲和地圖融合是 是新穎的,由移動相機得到的現(xiàn)場稠密 112 2015 世界機器人大會報道
27、特刊 www.kjdb.org 重構,解決了空地聯(lián)合定位問題。 [57] 使用神經(jīng)網(wǎng)絡拼合地 Saeedi等 圖。他們先從網(wǎng)格地圖中提取特征, 根 據(jù)特征計算兩個地圖間的旋轉與平 移。對于增強的自主性的機器人來說, 在沒有 GPS信號的環(huán)境中導航是一項 非常重要的要求。雖然在一些單個機 器人的場景中已經(jīng)得到解決, 但是下一 步的挑戰(zhàn)是為多個機器人設計有效的 構圖和導航算法。實現(xiàn)編隊自主性的 圖 1 空中和地面機器人的定位和構圖 關鍵需求是提供給機器人協(xié)作去精確 的構建環(huán)境地圖的能力, 這個問題和協(xié) 作的同時定位和地圖構建密切相關, 他 們研究的構圖過程擴
28、展到多機器人新 的占有柵格地圖融合算法。地圖融合 通過轉換若干單個地圖到 Hough空間 得到,Hough空間里地圖用一種抽象的 形式描述。 Hough變換的特性用于找 圖2 3 個子地圖融合成 1 個全局地圖 到各個地圖之間的公共區(qū)域, 進而用于 計算地圖之間的未知變換。他們亦提 完成相應的目標任務。 容錯能力也值得進一步研究。 出使用 Hough峰來拼合地圖的算法 [58], 融合的結果如圖 2 所示,其中圖 2(a), 1)聯(lián)合空中多旋翼飛行器和地面 機器人,搭載 RGB-D 、單目或多目等不 3)深度學習技術能夠讓機器自主 理解圖像中存在的特征,
29、并以此為基礎 (b)和(c)分別為子地圖, (d)為融合得 同的視覺傳感器,充分發(fā)揮各自的優(yōu)點 去辨別圖像的相似性, 完成閉環(huán)檢測的 到的全局地圖。 任務。然而深度學習技術在 SLAM 研 獲取更多的環(huán)境信息, 構建適用于室內 外復雜動 態(tài)環(huán)境的 多機器人 視覺 究領域中,遠沒有得到應用, 僅僅在一 4 發(fā)展趨勢 機器人在進入未知環(huán)境時, 需要對 所處環(huán)境進行有效地探測和感知, 獲取 SLAM系統(tǒng)。 2)在多機器人系統(tǒng)的地圖融合工 作中,在子地圖的重疊部分可在優(yōu)化地 些物體識別中得到應用 [59,60]。下一步可 以基于視覺的 SLAM 系統(tǒng)中的大量圖
30、像信息,應用深度學習知識在閉環(huán)檢測 圖精度方面進一步研究, 可用于閉環(huán)檢 以及目標識別等高級別任務中。 其在環(huán)境中的姿態(tài)信息, 同時還要構建 出環(huán)境地圖。只有在了解環(huán)境真實信 測提高整體系統(tǒng)性能。另外, 對部分機 息的基礎上才能進行避障、 路徑規(guī)劃并 器人構圖失敗的情況, 如何提高系統(tǒng)的 參考文獻 (References ) [1] Stachniss C. Robotic mapping and exploration[M]. Springer Tracts in Advanced Robotics, 2009. [2] Durrant-Whyte H, Bailey T. S
31、imultaneous localization and mapping:part I[J]. Robotics & Automation Magazine, IEEE, 2006, 13(2): 99-110. [3] 陳衛(wèi)東 , 張飛. 移動機器人的同步自定位與地圖創(chuàng)建研究進展 [J]. 控制理論與應用 , 2005(3): 455-460. [4] 張亮 . 移動機器人同步定位與地圖重建算法研究 [D]. 杭州 : 浙江大學 , 2009. [5] Bailey T, Durrant-Whyte H. Simultaneous localization and mapping (S
32、LAM): Part II[J]. Robotics & Automation Magazine, IEEE, 2006, 13(3): 108-117. [6] 于金霞 , 王璐, 蔡自興 . 未知環(huán)境中移動機器人自定位技術 [M]. 北京: 電子工業(yè)出版社 , 2011. [7] Paz L M, Pini P, Téarsd J Dó, est al. Large-scale 6-DOF SLAM with stereo-in-hand[J]. Robotics, IEEE Transactions on, 2008, 24(5): 946-957. [8] Davison A J
33、, Reid I D, Molton N D, et al. MonoSLAM: Real-time single camera SLAM[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2007, 29(6): 1052-1067. [9] Klein G, Murray D. Parallel tracking and mapping for small AR workspaces[C]//Mixed and Augmented Reality, 2007. ISMAR 2007. 6th IEE
34、E and ACM International Symposium on. IEEE, 2007: 225-234. [10] S á J Me z, Escolano F. 6dof entropy minimization slam[C]//Robotics and Automation, 2006. ICRA 2006. Proceedings 2006 IEEE International Conference on. IEEE, 2006: 1548-1555. [11] Pini P, Téa rsd J Dó. Lsarge-scale slam building con
35、ditionally independent local maps: Application to monocular vision[J]. Robotics, IEEE Transactions on, 2008, 24(5): 1094-1106. 113 科技導報 2015 ,33(23) www.kjdb.org [12] Engel J, Sch?ps T, Cremers D. LSD-SLAM: Large-scale direct monocular SLAM[M]//Computer Vision-ECCV 2014. Springer International P
36、ublishing, 2014: 834-849. [13] Endres F, Hess J, Sturm J, et al. 3-d mapping with an rgb-d camera[J]. Robotics, IEEE Transactions on, 2014, 30(1): 177-187. [14] Mur-Artal R, Montiel J M M, Tardos J D. ORB-SLAM: A versatile and accurate monocular SLAM system[J]. arXiv preprint arXiv:1502.00956, 20
37、15. [15] Ferranti E, Trigoni N, Levene M. Brick& Mortar: an on-line multi-agent exploration algorithm[C]//Robotics and Automation, 2007 IEEE International Conference on. IEEE, 2007: 761-767. [16] Whyte H, Baliey T. Simultaneous Localization and Mapping (SLAM) Part 1 The Essential Algorithms[J]. I
38、EEE Robotics & Automation Magazine, 2006, 13(2): 99-110. [17] Bailey T, Durrant-Whyte H. Simultaneous localization and mapping (SLAM): Part II[J]. IEEE Robotics & Automation Magazine, 2006, 13(3): 108-117. [18] Castellanos J A, Neira J, Tard J Dó. Ms ultisensor fusion for simultaneous localizatio
39、n and map building[J]. Robotics and Automation, IEEE Transactions on, 2001, 17(6): 908-914. [19] Majumder S, Scheding S, Durrant-Whyte H F. Sensor fusion and map building for underwater navigation[C]// Proceedings of Australian Conferenceon Ro? botics and Automation. 2000: 25-30. [20] N ü G,tzWi
40、 eiss S, Scaramuzza D, et al. Fusion of IMU and vision for absolute scale estimation in monocular SLAM[J]. Journal of intelligent & robotic sys? tems, 2011, 61(1-4): 287-299. [21] Se S, Lowe D, Little J. Mobile robot localization and mapping with uncertainty using scale-invariant visual landmarks[
41、J]. The International Journal of Ro? botics Research, 2002, 21(8): 735-758. [22] Olson C F, Matthies L H, Schoppers M, et al. Rover navigation using stereo ego-motion[J]. Robotics and Autonomous Systems, 2003, 43(4): 215-229. [23] Hartley R, Zisserman A. Multiple view geometry in computer vision[
42、M]. Cambridge: Cambridge University Press, 2003. [24] Kaess M, Dellaert F. Probabilistic structure matching for visual SLAM with a multi-camera rig[J]. Computer Vision and Image Understanding, 2010, 114 (2): 286-296. [25] Carrera G, Angeli A, Davison A J. SLAM-based automatic extrinsic calibratio
43、n of a multi-camera rig[C]//Robotics and Automation (ICRA), 2011 IEEE International Conference on. IEEE, 2011: 2652-2659. [26] Davison A J, Cid Y G, Kita N. Real-time 3D SLAM with wide-angle vision[C]//Proc. IFAC/EURON Symp. Intelligent Autonomous Vehicles. 2004: 31- 33. [27] Scaramuzza D, Siegw
44、art R. Appearance-guided monocular omnidirectional visual odometry for outdoor ground vehicles[J]. Robotics, IEEE Transactions on, 2008, 24(5): 1015-1026. [28] Huang A S, Bachrach A, Henry P, et al. Visual odometry and mapping for autonomous flight using an RGB-D camera[C]//International Symposium
45、 on Robotics Research (ISRR). 2011: 1-16. [29] Hu G, Huang S, Zhao L, et al. A robust rgb-d slam algorithm[C]//Intelligent Robots and Systems (IROS), 2012 IEEE/RSJ International Conference on. IEEE, 2012: 1714-1719. [30] Engelhard N, Endres F, Hess J, et al. Real-time 3D visual SLAM with a hand-
46、held RGB-D camera[C/OL]. [2015-09-31]. http://vision.informatik.tu- muenchen.de/_media/spezial/bib/engelhard11euron.pdf. [31] Endres F, Hess J, Engelhard N, et al. An evaluation of the RGB-D SLAM system[C]//Robotics and Automation (ICRA), 2012 IEEE International Confer? ence on. IEEE, 2012: 1691-
47、1696. [32] Rublee E, Rabaud V, Konolige K, et al. ORB: An efficient alternative to SIFT or SURF[C]//Computer Vision (ICCV), 2011 IEEE International Confer? ence on. IEEE, 2011: 2564-2571. [33] Sturm J, Magnenat S, Engelhard N, et al. Towards a benchmark for RGB-D SLAM evaluation[C]. Proc. of the
48、RGB-D Workshop on Advanced Reason? ing with Depth Cameras at Robotics: Science and Systems Conf.(RSS), Los Angeles, USA. 2011, 2: 3. [34] Davison A J. Real-time simultaneous localisation and mapping with a single camera[C]//Computer Vision, 2003. Proceedings. Ninth IEEE International Conference o
49、n. IEEE, 2003: 1403-1410. [35] Lemaire T, Berger C, Jung I K, et al. Vision-based slam: Stereo and monocular approaches[J]. International Journal of Computer Vision, 2007, 74(3): 343-364. [36] Vidal-Calleja T, Bryson M, Sukkarieh S, et al. On the observability of bearing-only SLAM[C]//Robotics an
50、d Automation, 2007 IEEE International Confer? ence on. IEEE, 2007: 4114-4119. [37] Gao X, Zhang T. Robust RGB-D simultaneous localization and mapping using planar point features[J]. Robotics & Autonomous Systems, 2015, 72:1-14. [38] Lowe D G. Distinctive image features from scale-invariant keypoi
51、nts[J]. International Journal of Computer Vision, 2004, 60(2): 91-110. [39] Bay H, Tuytelaars T, Gool L V. SURF: Speeded up robust features[J]. Computer Vision & Image Understanding, 2006, 110(3): 404-417. [40] Lepetit V, Ozuysal M, Trzcinski T, et al. BRIEF: Computing a local binary descriptor ve
52、ry fast[J]. IEEE Transactions on Software Engineering, 2011, 34 (7): 1281-1298. [41] Huijuan Z, Qiong H. Fast image matching based-on improved SURF algorithm[C]//Electronics, Communications and Control (ICECC), 2011 International Conference on. IEEE, 2011: 1460-1463. [42] Chli M, Davison A J. Ac
53、tive matching for visual tracking[J]. Robotics and Autonomous Systems, 2009, 57(12): 1173-1187. [43] Fischler M A, Bolles R C. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM, 1981, 24(6): 381-395. [
54、44] Pollefeys M, Van Gool L, Vergauwen M, et al. Visual modeling with a hand-held camera[J]. International Journal of Computer Vision, 2004, 59(3): 207- 232. 114 2015 世界機器人大會報道特刊 www.kjdb.org [45] Engels C, Stew éH, Ninstius D. Béu nrdle adjustment rules[J]. Photogrammetric computer vision, 2006
55、, 2: 124-131. [46] Strasdat H, Montiel J M M, Davison A J. Real-time monocular slam: Why filter?[C]//Robotics and Automation (ICRA), 2010 IEEE International Confer? ence on. IEEE, 2010: 2657-2664. [47] Fuentes-Pacheco J, Ruiz-Ascencio J, Rend ó n-MJ aMn.c hVai s u a l simultaneous localization an
56、d mapping: a survey[J]. Artificial Intelligence Review, 2015, 43(1): 55-81. [48] Marjovi A, Nunes J G, Marques L, et al. Multi-Robot Exploration and Fire Searching[C]// IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2009:1929-1934. [49] 張國良 , 湯文俊 , 曾靜 , 等. 考慮通信
57、狀況的多機器人 CSLAM 問題綜述 [J]. 自動化學報 , 2014, 40(10): 2073-2088. [50] Michael N, Shen S, Mohta K, et al. Collaborative mapping of an earthquake-damaged building via ground and aerial robots[J]. Journal of Field Robotics, 2012, 29(5): 832-841. [51] Lee H C, Lee S H, Choi M H, et al. Probabilistic map merg
58、ing for multi-robot RBPF-SLAM with unknown initial poses[J]. Robotica, 2012, 30(2): 205- 220. [52] Gil A, Reinoso O, Ballesta M, et al. Multi-robot visual slam using a rao-blackwellized particle filter. Robotics and Autonomous Systems, 2010, 58(1): 68-80. [53] Vidal-Calleja T A, Berger C, Sola J
59、, et al. Large scale multiple robot visual mapping with heterogeneous landmarks in semi-structured terrain. Robotics and Autonomous Systems, 2011, 59(9): 654-674. [54] Benedettelli D, Garulli A, Giannitrapani A. Cooperative SLAM using M-Space representation of linear features[J]. Robotics and Auto
60、nomous Systems, 2012, 60(10): 1267-1278. [55] Zhou X S, Roumeliotis S. Multi-robot SLAM with unknown initial correspondence: The robot rendezvous case[C]//Intelligent Robots and Systems, 2006 IEEE/RSJ International Conference on. IEEE, 2006: 1785-1792. [56] Forster C, Pizzoli M, Scaramuzza D. Ai
61、r-ground localization and map augmentation using monocular dense reconstruction[C]//Intelligent Robots and Sys? tems (IROS), 2013 IEEE/RSJ International Conference on. IEEE, 2013: 3971-3978. [57] Saeedi S, Paull L, Trentini M, et al. Neural network-based multiple robot simultaneous localization an
62、d mapping[J]. IEEE Transactions on Neural Net? works, 2011, 22(12): 2376-2387. [58] Saeedi S, Paull L, Trentini M, et al. Map merging for multiple robots using Hough peak matching[J]. Robotics and Autonomous Systems, 2014, 62(10): 1408-1424. [59] Kostavelis I, Gasteratos A. Learning spatially se
63、mantic representations for cognitive robot navigation[J]. Robotics and Autonomous Systems, 2013, 61(12): 1460-1475. [60] Bo L, Ren X, Fox D. Learning hierarchical sparse features for rgb-d object recognition[J]. International Journal of Robotics Research, 2014, 33(4): 581- 599. A survey on the c
64、ooperative SLAM problem of multi-robots systems based on visual L üQiang, LIN Huican, ZHANG Yang, MA Jianye Department of Control Engineering, Academy of Armored Forces Engineering, Beijing 100072, China Abstract Visual SLAM using only images as external information estimates the robot position
65、while building the environment map. SLAM is a basic prerequisite for autonomousrobots. Now it has been solved by using a laser or sonar sensor to build 2D map in a small dynamic environment. However, in a dynamic, wide range and complex environment there are still problems to be solved, and the u
66、se of vision as the basic external sensor is a new area of research. The use of computer vision techniques in visual SLAM, such as feature detection, characterization, feature matching, image recognition and recovery, has still much room for improvement. The paper offers a brief overview on visual SLAM about the latest and easy to understand technologies in the field. Multi-robot systems have many advantages over a single robot, which can improve the precision of SLAM system, and better adapt
- 溫馨提示:
1: 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
2: 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
3.本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
5. 裝配圖網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。