女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一種新的單目視覺里程計深度學習系統

3D視覺工坊 ? 來源:泡泡機器人SLAM ? 作者:泡泡機器人 ? 2022-10-20 09:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要

大家好,今天為大家帶來的文章:Deep Patch VisualOdometry 我們提出了一種新的單目視覺里程計深度學習系統(Deep Patch Visual Odometry, DPVO)。DPVO在一個RTX-3090 GPU上僅使用4GB內存,以2 -5倍的實時速度運行時是準確和健壯的。我們在標準基準上進行評估,并在準確性和速度上超越所有之前的工作(經典的或學習過的)。



poYBAGNQonaAGGYxAAE_41hGFyA111.jpg
圖1 深度斑塊視覺里程計(DPVO)。相機姿態和稀疏三維重建(上)是通過迭代修正補丁軌跡隨著時間

主要工作與貢獻

與之前的深度學習系統相比,我們的方法的新穎之處在于在單一體系結構中緊密集成了三個關鍵成分:(1)基于補丁關聯,(2)循環迭代更新,(3)可微束調整?;谘a丁的關聯提高了密集流的效率和魯棒性。循環迭代更新和可區分的bundle調整允許端到端學習可靠的特征匹配。 DPVO準確、高效、實現簡單。

在顯卡(RTX-3090)上,它只需要4GB內存就能運行2倍實時。我們還提供了一個在EuRoC數據集[2]上以100fps運行的模型,同時仍然優于之前的工作。對于每一幀,運行時間是恒定的,不依賴于相機運動的程度。該系統的實現非常簡單,代碼量非常少。無需對底層VO實現或邏輯進行任何必要的更改,就可以輕松地交換新的網絡架構。我們希望DPVO可以作為未來深度VO和SLAM系統發展的試驗臺。

算法流程

我們的網絡是在線訓練和評估的。一個接一個地添加新的幀,并在關鍵幀的局部窗口中進行優化。我們的方法有兩個主要模塊:patch提取器(3.1)和更新模塊(3.2)。補丁提取器從傳入幀中提取稀疏的圖像補丁集合。更新模塊試圖通過使用循環神經網絡跟蹤這些補丁與包調整交替迭代更新。

3772bf04-5003-11ed-a3b6-dac502259ad0.png

圖2 更新操作符的原理圖。從補丁圖的邊緣提取相關特征,并與上下文特征一起注入到隱藏狀態中。我們應用了卷積、消息傳遞和轉換塊。因子頭產生軌跡修正,由束調整層用于更新相機姿勢和補丁深度。

2. 方法

我們介紹了DPVO,一種新的基于補丁的深度VO系統,它克服了這些限制。我們方法的核心部分是深度補丁表示(圖1)。我們使用神經網絡從傳入幀中提取補丁集合。然后使用循環神經網絡跟蹤每個補丁通過時間交替補丁軌跡更新與可微束調整層。我們在合成數據上對整個系統進行端到端訓練,但在真實視頻上表現出很強的泛化能力。

2.1 特征和補丁提取

我們使用一對殘差網絡從輸入圖像中提取特征。一個網絡提取匹配特征,另一個網絡提取上下文特征。每個網絡的第一層是一個跨步2的7 × 7卷積,后面是兩個1/2分辨率的剩余塊(維64)和兩個1/4分辨率的剩余塊(維128),這樣最終的特征映射是輸入分辨率的1/4。匹配網絡和上下文網絡的結構是相同的,除了匹配網絡使用實例規格化,而上下文網絡不使用規格化。

我們用一個四乘四步濾波器對匹配特征進行平均池化,構建了一個兩級特征金字塔。我們為每一幀存儲匹配的特征。此外,我們還從匹配和上下文特征映射中提取補丁。在隨機抽取斑塊質心的基礎上,采用雙線性插值方法進行特征提取。 與DROID-SLAM不同的是,我們從未顯式地構建相關卷。相反,我們同時存儲幀和補丁特征映射,這樣相關特征就可以實時計算

2.2 更新操作

更新操作符的目的是更新姿勢和補丁。這是通過修改patch軌跡來實現的,如圖1所示。我們在圖2中提供了操作符的概覽示意圖,并詳細介紹了下面的各個組件。圖中的每個“+”操作都是一個殘留連接,然后是層歸一化。更新操作符作用于補丁圖,補丁圖中的每條邊都用一個隱藏狀態(維度為384)進行擴充。當添加一條新邊時,隱藏狀態初始化為0。

2.2.1 關聯操作

對于補丁圖中的每條邊(i, j),我們計算相關特征。我們首先使用Eqn. 2對幀j中的patch i進行重投影:xij = ωij(T, P)。給定patch特征g∈Rp×p×D,幀特征f∈RH×W ×D,對于patch i中的每個像素(u, v),我們計算其與幀j中像素(u, v)重投影為中心的像素網格的相關性,使用內積:

37915f72-5003-11ed-a3b6-dac502259ad0.png

2.2.2 可微的束調整

圖2中的這一層在補丁圖上全局運行,并輸出深度和相機姿勢的更新。預測因子(δ, Σ)用于定義優化目標 379ede40-5003-11ed-a3b6-dac502259ad0.png

2.2 訓練與監督

DPVO是使用PyTorch實現的。我們用TartanAir數據集訓練我們的網絡。在每個訓練序列上,我們使用地面真值姿態和深度來預計算所有幀對之間的光流大小。在訓練過程中,我們對幀對幀光流大小在16px到72px之間的軌跡進行采樣。這確保了訓練實例通常是困難的,但不是不可能的。 我們對姿態和光流(即軌跡更新)進行監督,監督更新操作符的每個中間輸出,并在每次更新之前從梯度帶中分離姿態和補丁。

2.2.2 pose監督

我們使用Umeyama對齊算法[30]縮放預測軌跡以匹配地面真相。然后對每一對姿態(i, j)進行誤差監督


37b181e4-5003-11ed-a3b6-dac502259ad0.png

2.2.3 Flow監督

此外,我們還監測了每個補丁和幀之間的誘導光流和地真光流之間的距離,從每個補丁被提取的幀的兩個時間戳。每個補丁誘導一個p×p流場。我們取所有p × p誤差中的最小值。

2.2.4訓練

我們訓練長度為15的序列。前8幀用于初始化,后7幀每次添加一幀。我們在訓練期間展開更新操作符的18次迭代。對于前1k的訓練步驟,我們用地面真相固定姿勢,只要求網絡估計補丁的深度。然后,該網絡被要求估計姿勢和深度。 37e0a438-5003-11ed-a3b6-dac502259ad0.png

圖3 VO系統概述。

2.3 VO System

在本節中,我們將介紹將我們的網絡變成一個完整的可視化里程表系統所必需的幾個關鍵實現細節。系統的邏輯主要用Python實現,瓶頸操作如包調整和可視化用c++和CUDA實現。與其他VO系統相比,DPVO非常簡單,需要最少的設計選擇

初始化:我們使用8幀進行初始化。我們添加新的補丁和幀,直到累積了8幀,然后運行更新操作符的12次迭代。需要一些相機運動進行初始化;因此,我們只在前一幀中積累平均流量大小至少為8像素的幀。

擴展:當添加一個新框架時,我們提取特征和補丁。新框架的姿態初始化使用恒速運動模型。補丁的深度初始化為從前3幀中提取的所有補丁的中值深度。

優化:在添加邊緣之后,我們運行更新操作符的一次迭代,然后是兩次包調整迭代。除了最后10個關鍵幀,我們修復了所有的姿勢。所有補丁的逆深度都是自由參數。一旦補丁落在優化窗口之外,將從優化中刪除。

關鍵幀:最近的3幀總是被作為關鍵幀。在每次更新之后,我們計算關鍵幀t?5和t?3之間的光流大小。如果小于64px,我們刪除t?4處的關鍵幀。當一個關鍵幀被移除時,我們在它的鄰居之間存儲相對的姿態,這樣完整的姿態軌跡可以被恢復以進行評估

可視化:使用單獨的可視化線程交互式地可視化重構。我們的可視化工具是使用穿山甲庫實現的。它直接從PyTorch張量中讀取,避免了所有不必要的內存拷貝從CPU到GPU。這意味著可視化工具的開銷非常小——僅僅使整個系統的速度降低了大約10%。

實驗結果

3716aa0c-5003-11ed-a3b6-dac502259ad0.png ? 38071b18-5003-11ed-a3b6-dac502259ad0.png

圖4 示例重建:TartanAir(左)和ETH3D(右)

38340150-5003-11ed-a3b6-dac502259ad0.png

圖5 TartanAir[34]驗證分離的結果。我們的方法的AUC為0.80,而DROID-SLAM的AUC為0.71,運行速度是DROID-SLAM的4倍

384feb68-5003-11ed-a3b6-dac502259ad0.png38a6abe2-5003-11ed-a3b6-dac502259ad0.png38d20cec-5003-11ed-a3b6-dac502259ad0.png?





審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 濾波器
    +關注

    關注

    162

    文章

    8132

    瀏覽量

    181871
  • 神經網絡
    +關注

    關注

    42

    文章

    4814

    瀏覽量

    103427
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4937

    瀏覽量

    131133
  • SLAM
    +關注

    關注

    24

    文章

    440

    瀏覽量

    32473

原文標題:DPVO:深度patch視覺里程計(arXiv 2022)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    目視覺在智能駕駛領域的應用

    圍繞“雙目智駕應用”,我們將推出系列文章深入解析雙目視覺如何跨越技術鴻溝,在中國智駕的沃土上生根發芽,探索其賦能未來出行的無限可能。
    的頭像 發表于 07-09 16:21 ?135次閱讀

    【「# ROS 2智能機器人開發實踐」閱讀體驗】視覺實現的基礎算法的應用

    結合IMU(慣性測量單元)進行多傳感器融合。 三、總結與展望 技術融合趨勢 機器人視覺與SLAM的結合(如視覺慣性里程計VIO)是當前研究熱點,未來可能進步結合語義SLAM,讓機
    發表于 05-03 19:41

    一種新型激光雷達慣性視覺里程計系統介紹

    針對具有挑戰性的光照條件和惡劣環境,本文提出了LIR-LIVO,這是一種輕量級且穩健的激光雷達-慣性-視覺里程計系統。通過采用諸如利用深度
    的頭像 發表于 04-28 11:18 ?331次閱讀
    <b class='flag-5'>一種</b>新型激光雷達慣性<b class='flag-5'>視覺</b><b class='flag-5'>里程計</b><b class='flag-5'>系統</b>介紹

    一種基于點、線和消失點特征的目SLAM系統設計

    本文提出了一種穩健的目視覺SLAM系統,該系統同時利用點、線和消失點特征來進行精確的相機位姿估計和地圖構建,有效解決了傳統基于點特征的SL
    的頭像 發表于 03-21 17:07 ?439次閱讀
    <b class='flag-5'>一種</b>基于點、線和消失點特征的<b class='flag-5'>單</b>目SLAM<b class='flag-5'>系統</b>設計

    【AIBOX 應用案例】深度估計

    ?Firefly所推出的NVIDIA系列的AIBOX可實現深度估計,該技術是一種從單張或者多張圖像預測場景深度信息的技術,廣泛應用于計算機視覺領域,尤其是在三維重建、場景理解和環境感知
    的頭像 發表于 03-19 16:33 ?398次閱讀
    【AIBOX 應用案例】<b class='flag-5'>單</b>目<b class='flag-5'>深度</b>估計

    用于任意排列多相機的通用視覺里程計系統

    如何讓多相機視覺SLAM系統更易于部署且對環境更具魯棒性?本文提出了一種適用于任意排列多相機的通用視覺里程計
    的頭像 發表于 12-13 11:22 ?746次閱讀
    用于任意排列多相機的通用<b class='flag-5'>視覺</b><b class='flag-5'>里程計</b><b class='flag-5'>系統</b>

    NPU在深度學習中的應用

    設計的硬件加速器,它在深度學習中的應用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學習算法優化的處理器,它與傳統的CPU和G
    的頭像 發表于 11-14 15:17 ?1875次閱讀

    一種基于深度學習的二維拉曼光譜算法

    近日,天津大學精密儀器與光電子工程學院的光子芯片實驗室提出了一種基于深度學習的二維拉曼光譜算法,成果以“Rapid and accurate bacteria identification
    的頭像 發表于 11-07 09:08 ?713次閱讀
    <b class='flag-5'>一種</b>基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的二維拉曼光譜算法

    基于旋轉平移解耦框架的視覺慣性初始化方法

    精確和魯棒的初始化對于視覺慣性里程計(VIO)至關重要,因為不良的初始化會嚴重降低姿態精度。
    的頭像 發表于 11-01 10:16 ?953次閱讀
    基于旋轉平移解耦框架的<b class='flag-5'>視覺</b>慣性初始化方法

    AI干貨補給站 | 深度學習與機器視覺的融合探索

    ,幫助從業者積累行業知識,推動工業視覺應用的快速落地。本期亮點預告本期將以“深度學習與機器視覺的融合探索”為主題,通過講解深度
    的頭像 發表于 10-29 08:04 ?570次閱讀
    AI干貨補給站 | <b class='flag-5'>深度</b><b class='flag-5'>學習</b>與機器<b class='flag-5'>視覺</b>的融合探索

    AI大模型與深度學習的關系

    AI大模型與深度學習之間存在著密不可分的關系,它們互為促進,相輔相成。以下是對兩者關系的介紹: 深度學習是AI大模型的基礎 技術支撐 :
    的頭像 發表于 10-23 15:25 ?2854次閱讀

    一種完全分布式的點線協同視覺慣性導航系統

    在本文中,我們提出了一種完全分布式的點線協同視覺慣性導航系統。我們通過蒙特卡羅模擬和真實環境數據集,在稠密特征或稀疏特征環境下將所提出的算法與其他四算法進行了比較。所有結果表明,我們
    的頭像 發表于 09-30 14:45 ?887次閱讀
    <b class='flag-5'>一種</b>完全分布式的點線協同<b class='flag-5'>視覺</b>慣性導航<b class='flag-5'>系統</b>

    PyTorch深度學習開發環境搭建指南

    PyTorch作為一種流行的深度學習框架,其開發環境的搭建對于深度學習研究者和開發者來說至關重要。在Windows操作
    的頭像 發表于 07-16 18:29 ?2460次閱讀

    基于Python的深度學習人臉識別方法

    基于Python的深度學習人臉識別方法是個涉及多個技術領域的復雜話題,包括計算機視覺深度學習
    的頭像 發表于 07-14 11:52 ?1681次閱讀

    深度學習中反卷積的原理和應用

    深度學習的廣闊領域中,反卷積(Deconvolution,也稱作Transposed Convolution)作為一種重要的圖像上采樣技術,扮演著至關重要的角色。特別是在計算機視覺
    的頭像 發表于 07-14 10:22 ?4763次閱讀
    主站蜘蛛池模板: 自贡市| 铁力市| 铜山县| 保定市| 逊克县| 滁州市| 盖州市| 普定县| 诏安县| 克拉玛依市| 阿图什市| 建水县| 新泰市| 石柱| 新民市| 茂名市| 榆树市| 巨野县| 惠安县| 肃北| 隆安县| 同仁县| 通道| 威远县| 长岭县| 沙洋县| 茶陵县| 原阳县| 乡城县| 扎鲁特旗| 湖南省| 河北省| 乾安县| 莫力| 体育| 大兴区| 行唐县| 平昌县| 新丰县| 宜黄县| 金寨县|