女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何在復雜天氣環境下進行視覺自主導航

新機器視覺 ? 來源:CPNT Lab ? 作者:CPNT Lab ? 2022-12-01 10:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

01、背景

作為計算機視覺中的一項基礎任務,目標檢測受到了廣泛的關注。在惡劣的天氣下,尤其是在霧天環境下,大氣中存在很多渾濁介質(如顆粒、水滴等),傳統相機可見光難以穿透顆粒介質,因此惡劣天氣下的數據非常罕見,現有的檢測架構依賴于未失真的傳感器流,而惡劣天氣下傳感器會產生非對稱的失真,使得戶外場景圖像出現退化和降質,清晰度低和對比度低,細節特征模糊不清等特點,對于在高質量圖像下訓練的目標檢測模型,往往無法準確的定位目標,是當前目標檢測任務中的一大挑戰,同時也是當前如何在復雜天氣環境下進行視覺自主導航的一大挑戰。為解決這個問題,Bijelic提出了一個新的多模式數據集,該數據集是在北歐10,000 多公里的行駛中獲得的。此數據集是惡劣天氣下的第一個大型的多模式數據集,且具有10 萬個激光雷達、相機、雷達和門控NIR傳感器的標簽。同時Bijelic提出了一種深層融合網絡,可進行穩健的融合,而無需涵蓋所有非對稱失真的大量標記訓練數據。從提議級融合出發,提出了一種由測量熵驅動的自適應融合特征的單鏡頭模型。

02、數據集介紹

bc73c788-70b6-11ed-8abf-dac502259ad0.png

為了評估惡劣天氣中的目標檢測,Bijelic進行了實地測試,構建了一個大型的汽車數據集,該數據集提供了用于多模式數據的2D 和3D 檢測邊界框,并對罕見惡劣天氣情況下的天氣,光照和場景類型進行了精細分類。表中比較了提出的數據集和最近的大規模汽車數據集,例如Waymo,NuScenes,KITTI和BDD數據集。與NuScenes和BDD相比,該數據集不僅包含在晴朗天氣條件下的實驗數據,還包含在大雪,雨天和霧中的實驗數據。

bcaef7a4-70b6-11ed-8abf-dac502259ad0.png

所有實驗數據分別在德國,瑞典,丹麥和芬蘭獲得,在不同的天氣和光照條件下覆蓋了10,000km 的距離。以10Hz 的幀速率共收集了140 萬幀。每第100 幀都經過手動標記,以平衡場景類型的覆蓋范圍。生成的注釋包含5500個晴天,1000個濃霧,1 000個薄霧,4000個雪/雨。本數據集具體包含文件如下圖所示。

bcf98260-70b6-11ed-8abf-dac502259ad0.png

對于該數據集的使用,目前由于作者還未開源融合網絡,暫時只能使用源數據,但是也算為后續惡劣天氣下的多傳感器融合3D目標檢測提供了真實環境下的數據集。若僅針對于純圖像2D目標檢測或3D檢測來說,該數據集中可用于驗證作用,或者以混合數據形式作為訓練集,但是僅使用該數據集做為驗證和訓練可能不足以支撐網絡學習。正如下圖數據集具體標簽所示,其標簽主要包括五類,藍色為注釋標簽,紅色為該標簽所包括的類別。注意若使用該數據集為訓練集,其他數據集為驗證集要重新歸一標簽,與其他數據集標簽重合度較低,重新清洗數據也是使用該數據集的一個難點。

bd238722-70b6-11ed-8abf-dac502259ad0.png

03、自適應多模式單次融合

1、網絡架構

數據表示。相機分支使用常規的三平面RGB 輸入,而對于激光雷達和雷達分支,本文的方法與最近的鳥瞰(BeV)投影方案或原始點云表示不同。BeV 投影或點云輸入不允許進行深度的早期融合,因為早期圖層中的特征表示與相機特征天生不同。因此,現有的BeV 融合方法只能在建議匹配區域之后進行提升空間中的特征融合,而不能提前。圖中可視化了本文提出的輸入數據編碼,該編碼有助于進行深度多模態融合。深度,高度和脈沖強度作為激光雷達網絡的輸入,而不是僅使用樸素的深度輸入編碼。對于雷達網絡,假設雷達在與圖像平面正交和與水平圖像尺寸平行的2D 平面中進行掃描。因此,考慮沿垂直圖像軸雷達的不變性,并沿垂直軸復制掃描。使用單應性映射將門控圖像轉換為RGB 相機的圖像平面。本文所提出的輸入編碼使用不同流之間的逐像素對應,可以實現與位置和強度相關的融合,用零值來編碼缺失的測量樣本。

特征提取。作為每個流中的特征提取堆棧,本文使用了改進的VGG主干。將通道數量減少一半,并在conv4 層上切斷網絡,使用conv4-10中的六個要素層作為SSD 檢測層的輸入。特征圖隨尺寸減小,實現了一個用于不同比例檢測的特征金字塔。如結構圖所示,不同特征提取堆棧的激活進行了交換。為了使融合更加可靠,為每個特征交換塊提供了傳感器熵。首先對熵進行卷積,應用Sigmoid與來自所有傳感器的級聯輸入特征相乘,最后級聯輸入熵。熵的折疊和Sigmoid的應用在區間[0,1] 中生成一個乘法矩陣,這可以根據可用信息分別縮放每個傳感器的級聯特征。具有低熵的區域可以被衰減,而富熵的區域可以在特征提取中被放大。這樣能夠在特征提取堆棧中實現自適應融合特征

bd53c4b4-70b6-11ed-8abf-dac502259ad0.png

2、實驗

在惡劣天氣的實驗測試數據上驗證所提出的融合模型。將這種方法與現有的單傳感器輸入和融合的檢測器,以及域自適應方法進行比較。由于訓練數據獲取存在天氣偏向,僅使用提出的數據集的晴朗天氣部分進行訓練,使用Bijelic提出新的多模式天氣數據集作為測試集來評估檢測性能。結果如圖所示。

bd7d9640-70b6-11ed-8abf-dac502259ad0.png

總體而言,由圖中可看到隨著霧密度的增加,特別是在嚴重失真的情況下,該文所提出的自適應融合模型的性能優于所有其他方法,與次佳的特征融合變體相比,它提高了9.69%的幅度。但是在有霧條件下,激光雷達的性能也同樣具有很大的局限性,在僅激光雷達情況下的檢測率,AP下降了45.38%。此外,它還對相機-激光雷達融合模型AVOD,Concat SSD 和Fusion SSD產生了重大影響。它使得學習到的冗余不再成立,這些方法甚至低于僅使用圖像的方法。

04、結論

所提出的數據集解決了自動駕駛中的一個關鍵問題:場景中的多傳感器融合和其中注釋數據稀少且由于自然的天氣偏向而難以獲取的圖像數據。為后續的研究者引入了一個新穎的惡劣天氣數據集,涵蓋了不同天氣情況下的相機、激光雷達、雷達、門控NIR 和FIR 傳感器數據。同時提出的一個實時的深度多模態融合網絡不同于提案層的融合,而是由測量熵驅動自適應融合。

該方法一定程度上改進惡劣天氣條件下智能自主駕駛車輛在戶外環境下進行精確的視覺感知能力,同時也能為后續視覺導航在復雜天氣環境下進行精確建圖提供高精度的目標定位。

雖然該數據集提出一定程度上填補了多模態數據集的缺失,但是由于自然偏向的問題,惡劣天氣采集到的圖像還是較少,仍然不適用于網絡的訓練,如何解決惡劣天氣條件下數據集稀少或者降低深度學習網絡對于數據樣本的依賴性仍亟待改進。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2565

    文章

    52869

    瀏覽量

    766372
  • 計算機
    +關注

    關注

    19

    文章

    7653

    瀏覽量

    90622
  • 數據集
    +關注

    關注

    4

    文章

    1223

    瀏覽量

    25392

原文標題:基于多模態自適應熵驅動融合的惡劣天氣自動駕駛視覺感知技術研究

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    智能軟件+硬件解決方案克服實時立體視覺中的挑戰

    現出色,特別適用于工業機器人應用。從料箱撿取到自主導航,立體視覺使得各種機器人應用成為可能。然而,在實時應用場景中部署立體視覺系統時,常常面臨以下幾個挑戰:圖像處理
    的頭像 發表于 05-16 17:04 ?191次閱讀
    智能軟件+硬件解決方案克服實時立體<b class='flag-5'>視覺</b>中的挑戰

    【「# ROS 2智能機器人開發實踐」閱讀體驗】視覺實現的基礎算法的應用

    閱讀心得體會:ROS2機器人視覺與地圖構建技術 通過對本書第7章(ROS2視覺應用)和第8章(ROS2地圖構建)的學習,我對機器人視覺感知和自主導航的核心技術有了更深入的理解。以下是我
    發表于 05-03 19:41

    【「# ROS 2智能機器人開發實踐」閱讀體驗】+ROS2應用案例

    這一部分內容,我掌握了如何在ROS 2中實現SLAM,這對于提高機器人的自主導航能力具有重要意義。 其他內容概述 除了二維碼識別和SLAM技術,書中還介紹了其他視覺應用和地圖構建的內容,如
    發表于 04-27 11:42

    【「# ROS 2智能機器人開發實踐」閱讀體驗】+內容初識

    、Gazebo仿真(含RGBD相機/激光雷達仿真)、實物機器人運動控制,實現\"仿真→實物\"的無縫銜接 高階應用篇(7-9章) 聚焦視覺SLAM、自主導航等前沿場景,提供完整項目鏈路(如
    發表于 04-27 11:24

    智慧路燈如何應對極端天氣

    引言 在氣候變化的大背景,極端天氣愈發頻繁,如狂風暴雨、高溫酷暑、暴雪嚴寒等。這些極端天氣對城市基礎設施構成嚴峻挑戰,叁仟智慧路燈作為智慧城市建設的關鍵一環也不例外。叁仟智慧路燈不僅要在正常
    的頭像 發表于 03-19 17:20 ?326次閱讀

    DLP6500想調用API進行自主二次開發,怎么構建開發環境

    請問一,我購置了DLP6500型號產品,想利用該產品進行開發,實現高速投影的功能。 但是我現在只找到了GUI界面,請問一,如果我想調用API進行
    發表于 03-03 07:03

    何在惡劣環境選擇和應用雷達傳感器

    作者:Kenton Williston 投稿人:DigiKey 北美編輯 在戶外和工業應用以及其他惡劣環境中,超聲波傳感器等遙感技術可能會受到干擾。惡劣天氣、灰塵、碎屑和復雜的感測環境
    的頭像 發表于 01-26 22:00 ?638次閱讀
    如<b class='flag-5'>何在</b>惡劣<b class='flag-5'>環境</b><b class='flag-5'>下</b>選擇和應用雷達傳感器

    機器人“大腦+小腦”范式:算力魔方賦能智能自主導航

    和實時調整。 這種分工明確的架構不僅提高了機器人的自主性和適應性,還為機器人在復雜環境中的應用提供了更多可能。 一, 算力魔方 ? : 機 器人“大腦”的強大算力支撐 在“大腦+小腦”的架構中,“大腦”的重要性不言而喻。
    的頭像 發表于 01-20 13:35 ?540次閱讀

    NaVILA:加州大學與英偉達聯合發布新型視覺語言模型

    日前,加州大學的研究人員攜手英偉達,共同推出了一款創新的視覺語言模型——NaVILA。該模型在機器人導航領域展現出了獨特的應用潛力,為智能機器人的自主導航提供了一種全新的解決方案。 視覺
    的頭像 發表于 12-13 10:51 ?658次閱讀

    Xsens Sirius-在嚴苛環境進行3D慣性導航

    海洋深度還是部署海底基礎設施,依靠Xsens在水下世界的深處獲得最佳可靠性和導航精度。自主式水下機器人(AUV)在油氣鉆探和開采、海洋勘測和水生環境監測等領域發揮
    的頭像 發表于 11-23 01:09 ?502次閱讀
    Xsens Sirius-在嚴苛<b class='flag-5'>環境</b>中<b class='flag-5'>進行</b>3D慣性<b class='flag-5'>導航</b>

    復雜環境多無人智能車輛協同調控

    摘要: 該文對多無人智能車以領航-跟隨法在復雜環境運動的編隊控制問題進行了探討,通過采用閉環控制律設計了一種編隊控制器和編隊控制方案,該編隊控制器的優點在于其主要考慮智能車之間的距離
    的頭像 發表于 11-16 10:12 ?1290次閱讀
    <b class='flag-5'>復雜</b><b class='flag-5'>環境</b><b class='flag-5'>下</b>多無人智能車輛協同調控

    Bumblebee X 立體相機提升工業自動化中的立體深度感知

    深度感知對倉庫機器人應用至關重要,尤其是在自主導航、物品拾取與放置、庫存管理等方面。通過將深度感知與各種類型的3D數據(如體積數據、點云、紋理等)相結合,倉庫機器人可以在錯綜復雜環境中實現自主
    的頭像 發表于 11-09 01:09 ?829次閱讀
    Bumblebee X 立體相機提升工業自動化中的立體深度感知

    agv叉車激光導航和二維碼導航有什么區別?適用什么場景?選哪種比較好?

    無人叉車激光導航和二維碼導航在多個方面存在顯著差異,以下是它們的主要區別: 一、原理不同 激光導航:利用激光雷達掃描地面環境,實時獲取機器人當前位置和周圍
    的頭像 發表于 10-15 17:45 ?896次閱讀
    agv叉車激光<b class='flag-5'>導航</b>和二維碼<b class='flag-5'>導航</b>有什么區別?適用什么場景?選哪種比較好?

    SLAM:機器人如何在未知地形環境進行導航

    的傳統導航方法需要預先準備好的地圖,但在未知地區,如果不穿越該區域,就不可能獲得這樣的地圖。這是機器人技術領域的一個典型難題,通常被稱為“雞和蛋”的問題。機器人如何在沒有地圖的情況下在未知環境
    的頭像 發表于 10-02 16:37 ?1482次閱讀

    一種完全分布式的點線協同視覺慣性導航系統

    在本文中,我們提出了一種完全分布式的點線協同視覺慣性導航系統。我們通過蒙特卡羅模擬和真實環境數據集,在稠密特征或稀疏特征環境將所提出的算法
    的頭像 發表于 09-30 14:45 ?880次閱讀
    一種完全分布式的點線協同<b class='flag-5'>視覺</b>慣性<b class='flag-5'>導航</b>系統
    主站蜘蛛池模板: 苍梧县| 鄯善县| 营山县| 高雄市| 左贡县| 福清市| 普安县| 阿城市| 宁阳县| 筠连县| 荣成市| 南丰县| 鄂州市| 全州县| 三亚市| 同仁县| 保亭| 财经| 江都市| 青田县| 兰西县| 铜陵市| 喀喇| 彩票| 伊宁市| 贺兰县| 隆德县| 高台县| 乌恰县| 贺州市| 汕头市| 遂川县| 黄浦区| 青海省| 通江县| 冷水江市| 靖安县| 荃湾区| 东安县| 上饶市| 怀来县|