女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于PoseDiffusion相機(jī)姿態(tài)估計(jì)方法

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-07-23 15:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

介紹

一般意義上,相機(jī)姿態(tài)估計(jì)通常依賴于如手工的特征檢測匹配、RANSAC和束調(diào)整(BA)。在本文中,作者提出了PoseDiffusion,這是一種新穎的相機(jī)姿態(tài)估計(jì)方法,它將深度學(xué)習(xí)與基于對應(yīng)關(guān)系的約束結(jié)合在一起,因此能夠在稀疏視圖和密集視圖狀態(tài)下以高精度重建相機(jī)位置,他們在概率擴(kuò)散框架內(nèi)公式化了SfM問題,對給定輸入圖像的相機(jī)姿態(tài)的條件分布進(jìn)行建模,用Diffusion模型來輔助進(jìn)行姿態(tài)估計(jì)。在兩個(gè)真實(shí)世界的數(shù)據(jù)集上證明了其方法比經(jīng)典的SfM中的姿態(tài)估計(jì)和基于學(xué)習(xí)的方法有顯著的改進(jìn),同時(shí)可以在不需要進(jìn)一步訓(xùn)練的情況下在數(shù)據(jù)集之間進(jìn)行泛化。

明確一下,該方法同時(shí)估計(jì)相機(jī)內(nèi)外參,不同于視覺定位(估計(jì)相機(jī)外參,即旋轉(zhuǎn)矩陣R和平移向量t)。

0cb54d14-2752-11ee-962d-dac502259ad0.png

什么是擴(kuò)散模型?

擴(kuò)散模型是一類生成模型,受非平衡熱力學(xué)的啟發(fā),通過擴(kuò)散步驟的馬爾可夫鏈近似數(shù)據(jù)分布,在圖像、視頻,3D點(diǎn)云生成方面都取得了令人印象深刻的成果。它們能夠準(zhǔn)確生成各種高質(zhì)量的樣本。

擴(kuò)散模型的目標(biāo)是通過捕捉從數(shù)據(jù)到簡單分布的擴(kuò)散過程的逆過程來學(xué)習(xí)復(fù)雜的數(shù)據(jù)分布,通常是通過加噪聲和去噪來實(shí)現(xiàn)。加噪聲處理通過一系列步驟將數(shù)據(jù)樣本x逐漸轉(zhuǎn)換為噪聲,然后對模型進(jìn)行訓(xùn)練以學(xué)習(xí)去噪過程。

去噪擴(kuò)散概率模型(DDPM)專門將噪聲處理定義為高斯。給定T個(gè)步驟的方差表,噪聲變換定義如下:

方差表被設(shè)置為使得xT遵循各向同性高斯分布,即。定義αt=1?βt和,則存在一個(gè)閉式解,在給定數(shù)據(jù)x0的情況下直接對xt進(jìn)行采樣:

如果βt足夠小,則反向仍然是高斯的。因此,它可以通過模型Dθ來近似:

為什么可以使用擴(kuò)散模型來進(jìn)行姿態(tài)估計(jì)任務(wù)?

一方面擴(kuò)散模型在建模復(fù)雜分布(例如,在圖像、視頻和點(diǎn)云上)方面都取得了成功,另一方面擴(kuò)散模型的隨機(jī)采樣過程已被證明可以有效地駕馭復(fù)雜分布的對數(shù)似然,因此非常適合復(fù)雜的BA優(yōu)化。擴(kuò)散過程的另一個(gè)好處是,它可以一步一步地訓(xùn)練,而不需要在整個(gè)優(yōu)化過程中展開梯度。

方法

基于擴(kuò)散模型的Bundle Adjustment(BA)

PoseDiffusion對給定圖像I的樣本x(即相機(jī)參數(shù))的條件概率分布p(x|I)進(jìn)行建模。根據(jù)擴(kuò)散模型(如上所述),通過去噪過程對p(x| I)進(jìn)行建模,更具體地說,p(x|I)首先通過在N個(gè)場景的大訓(xùn)練集 of 上訓(xùn)練擴(kuò)散模型Dθ來估計(jì),該場景具有真實(shí)值圖像批Ij和它們的相機(jī)參數(shù)xj。在推斷時(shí),對于一組新的觀測圖像I,對p(x|I)進(jìn)行采樣,以估計(jì)相應(yīng)的相機(jī)參數(shù)x。注意,與獨(dú)立于I的噪聲處理不同,去噪處理以輸入圖像集I為條件,即

將去噪Dθ實(shí)現(xiàn)為transfomer Trans,

這里,Trans接受輸入圖像Ii的有噪姿態(tài)元組、擴(kuò)散時(shí)間t和特征嵌入。去噪器輸出相應(yīng)的去噪相機(jī)參數(shù)的元組,在訓(xùn)練時(shí),Dθ受到監(jiān)督,具有以下去噪損失:

訓(xùn)練后的去噪器Dθ被用來對pθ(x|I)進(jìn)行采樣,這解決了在給定輸入圖像I的情況下推斷相機(jī)參數(shù)x的任務(wù)。更詳細(xì)地說,在DDPM采樣之后,從隨機(jī)相機(jī)開始,在每次迭代中,下一步通過下式采樣:

幾何引導(dǎo)的采樣

前饋網(wǎng)絡(luò)需要將圖像直接映射到相機(jī)參數(shù)的空間。考慮到深度網(wǎng)絡(luò)在回歸精確量(即旋轉(zhuǎn)矩陣和平移向量)方面很糟糕,通過利用兩視圖幾何約束,提取場景圖像之間可靠的2D對應(yīng)關(guān)系,并指導(dǎo)DDPM采樣迭代以便估計(jì)的姿態(tài)滿足對應(yīng)關(guān)系誘導(dǎo)的雙視圖極線約束。

0cc03ab2-2752-11ee-962d-dac502259ad0.png

具體來說,讓表示一對場景圖像的圖像點(diǎn)之間的一組二維對應(yīng),表示相應(yīng)的相機(jī)姿勢。通過Sampson Epipolar Error 來評估相機(jī)和2D對應(yīng)關(guān)系之間的兼容性:

遵循分類器diffusion指導(dǎo)來引導(dǎo)采樣朝著最小化Sampson極線誤差的解決方案進(jìn)行,因此這滿足了圖像-圖像間的極線約束。

在每次采樣迭代中,分類器引導(dǎo)以xt條件引導(dǎo)分布p(I|xt)的梯度擾動預(yù)測的平均值:

假設(shè)攝像機(jī)x上的一致先驗(yàn)允許將p(I|xt)建模為成對Sampson誤差上的獨(dú)立指數(shù)分布的乘積:

當(dāng)所有圖像對之間的Sampson誤差為0(即滿足所有核約束)時(shí),可以獲得最終模型。

實(shí)驗(yàn)

在兩個(gè)真實(shí)世界的數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),討論了模型的設(shè)計(jì)選擇,并與之前的工作進(jìn)行了比較。

考慮了兩個(gè)具有不同統(tǒng)計(jì)數(shù)據(jù)的數(shù)據(jù)集。第一個(gè)是CO3Dv2,其中包含50個(gè)MS-COCO類別中的物體的大約37k個(gè)視頻。

其次,對RealEstate10k進(jìn)行了評估,它包括捕捉房地產(chǎn)內(nèi)部和外部的80k YouTube剪輯視頻。

baseline:

選擇COLMAP作為密集姿態(tài)估計(jì)基線。除了利用RANSAC匹配的SIFT的經(jīng)典版本外,還對COLMAP+SPG進(jìn)行了基準(zhǔn)測試,它建立在與SuperGlue匹配的SuperPoints的基礎(chǔ)上,還與RelPose進(jìn)行了比較,RelPose是當(dāng)前稀疏姿態(tài)估計(jì)的最先進(jìn)技術(shù)。最后為了理解幾何引導(dǎo)采樣的影響,在沒有GGS的情況下實(shí)現(xiàn)了學(xué)習(xí)去噪器。

0cefd6be-2752-11ee-962d-dac502259ad0.png0d1f0efc-2752-11ee-962d-dac502259ad0.png0d362eca-2752-11ee-962d-dac502259ad0.png

還評估了不同方法泛化到不同數(shù)據(jù)的能力。首先,在RelPose之后,對來自CO3Dv2的41個(gè)訓(xùn)練類別進(jìn)行訓(xùn)練,并對剩余的10個(gè)保留類別進(jìn)行評估。其方法優(yōu)于所有基線,表明具有優(yōu)越的泛化性。

0d3feb90-2752-11ee-962d-dac502259ad0.png

同時(shí)該方法還可以用來進(jìn)行新視圖合成,用來幫助nerf

0d615c08-2752-11ee-962d-dac502259ad0.png

總結(jié):

提出了Pose diffusion,這是一種學(xué)習(xí)的相機(jī)估計(jì)器,同時(shí)具有傳統(tǒng)極線幾何約束和擴(kuò)散模型的能力。展示了擴(kuò)散框架如何與相機(jī)參數(shù)估計(jì)任務(wù)兼容。這一經(jīng)典任務(wù)的迭代性質(zhì)反映在去噪擴(kuò)散公式中。此外,圖像對之間的點(diǎn)匹配約束可以用于指導(dǎo)模型并細(xì)化最終預(yù)測。這改進(jìn)了傳統(tǒng)的SfM方法,如COLMAP,以及學(xué)習(xí)的方法。展示了在姿態(tài)預(yù)測精度以及新的視圖合成(COLMAP當(dāng)前最流行的應(yīng)用之一)任務(wù)方面的改進(jìn)。
責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 相機(jī)
    +關(guān)注

    關(guān)注

    4

    文章

    1459

    瀏覽量

    54626
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3513

    瀏覽量

    50314
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25392

原文標(biāo)題:ArXiv2023 | PoseDiffusion:基于Diffusion的姿態(tài)估計(jì)算法,來自Meta AI

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于姿態(tài)校正的人臉檢測方法

    本人提出了一種基于姿態(tài)校正的人臉檢測方法,在此基礎(chǔ)上,提出姿態(tài)角度估計(jì)目標(biāo)函數(shù),并討論了2種尋優(yōu)方法,該
    發(fā)表于 04-13 17:24 ?30次下載
    基于<b class='flag-5'>姿態(tài)</b>校正的人臉檢測<b class='flag-5'>方法</b>

    針對姿態(tài)傳感器的姿態(tài)估計(jì)方法的詳細(xì)資料說明免費(fèi)下載

    針對姿態(tài)傳感器提供不同采樣率和時(shí)延的矢量測量離散時(shí)間樣本的情況,提出了一種姿態(tài)估計(jì)方法。所提出的方法基于輸出預(yù)測器和
    發(fā)表于 12-11 08:00 ?4次下載

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)方法

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)方法通過構(gòu)建特定的神經(jīng)網(wǎng)絡(luò)架構(gòu),將提取的特征信息根據(jù)相應(yīng)的特征融合方法進(jìn)行信息關(guān)聯(lián)處理,最終獲得人體姿態(tài)
    發(fā)表于 03-22 15:51 ?5次下載
    基于深度學(xué)習(xí)的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b><b class='flag-5'>方法</b>

    基于散焦模糊量估計(jì)相機(jī)加權(quán)標(biāo)定方法

    相機(jī)標(biāo)定在計(jì)算機(jī)視覺領(lǐng)域中有著至關(guān)重要的作用。絕大多數(shù)相杋標(biāo)定方法假設(shè)相機(jī)為針孔模型,且需要良好聚焦的圖像來保證相機(jī)內(nèi)外參估計(jì)的準(zhǔn)確性。然而
    發(fā)表于 04-21 15:05 ?16次下載
    基于散焦模糊量<b class='flag-5'>估計(jì)</b>的<b class='flag-5'>相機(jī)</b>加權(quán)標(biāo)定<b class='flag-5'>方法</b>

    基于深度學(xué)習(xí)的二維人體姿態(tài)估計(jì)算法

    近年來人體姿態(tài)估計(jì)作為計(jì)算機(jī)視覺領(lǐng)域的熱點(diǎn),在視頻監(jiān)控、人機(jī)交互、智慧校園等領(lǐng)域具有廣泛的應(yīng)用前景。隨著神經(jīng)網(wǎng)絡(luò)的快速發(fā)展,采用深度學(xué)習(xí)方法進(jìn)行二維人體姿態(tài)
    發(fā)表于 04-27 16:16 ?7次下載
    基于深度學(xué)習(xí)的二維人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>算法

    基于Bagging-SVM集成分類器的頭部姿態(tài)估計(jì)方法

    針對現(xiàn)有常用分類器性能不能滿足頭部姿態(tài)估計(jì)對準(zhǔn)確率的要求,以及光照變化影響頭部姿態(tài)估計(jì)準(zhǔn)確率的問題,提出了一種基于 Bagging-SVM集成分類器的頭部
    發(fā)表于 05-07 10:11 ?4次下載

    基于面部特征點(diǎn)定位的圖像人臉姿態(tài)估計(jì)方法

    針對目前基于學(xué)習(xí)的姿態(tài)估計(jì)方法對訓(xùn)練樣本及設(shè)備要求較高的問題,提出一種基于面部特征點(diǎn)定位的無需訓(xùn)練即能估計(jì)單幅圖像中人臉姿態(tài)
    發(fā)表于 05-24 15:43 ?15次下載

    基于編解碼殘差的人體姿態(tài)估計(jì)方法

    人體姿態(tài)估計(jì)尤其是多人姿態(tài)估計(jì)逐漸滲透到教育、體育等各個(gè)方面,精度高、輕量級的多人姿態(tài)估計(jì)更是當(dāng)
    發(fā)表于 05-28 16:35 ?2次下載

    人臉姿態(tài)檢測|Fine Grained Head Pose Estimation Without Keypoint

    人臉姿態(tài)估計(jì)算法,主要用以估計(jì)輸入人臉塊的三維歐拉角。一般選取的參考系為相機(jī)坐標(biāo)系,即選擇相機(jī)作為坐標(biāo)原點(diǎn)。
    發(fā)表于 02-07 11:44 ?0次下載
    人臉<b class='flag-5'>姿態(tài)</b>檢測|Fine Grained Head Pose Estimation Without Keypoint

    基于OnePose的無CAD模型的物體姿態(tài)估計(jì)

    基于CAD模型的物體姿態(tài)估計(jì):目前最先進(jìn)的物體6DoF姿態(tài)估計(jì)方法可以大致分為回歸和關(guān)鍵點(diǎn)技術(shù)。第一類
    的頭像 發(fā)表于 08-10 11:42 ?1844次閱讀

    一種基于去遮擋和移除的3D交互手姿態(tài)估計(jì)框架

    與被充分研究的單手姿態(tài)估計(jì)任務(wù)不同,交互手3D姿態(tài)估計(jì)是近兩年來剛興起的學(xué)術(shù)方向。現(xiàn)存的工作會直接同時(shí)預(yù)測交互手的左右兩手的姿態(tài),而我們則另
    的頭像 發(fā)表于 09-14 16:30 ?1139次閱讀

    Meta研究:基于頭顯攝像頭進(jìn)行姿態(tài)估計(jì)方法和優(yōu)缺點(diǎn)

    AR/VR體驗(yàn)需要由用戶姿態(tài)的顯式表征所驅(qū)動。特別地,其需要從設(shè)備的角度估計(jì)用戶的姿態(tài),這隱含地對應(yīng)于以自我為中心的角度,亦即與用戶3D頭部和身體姿態(tài)相應(yīng)對的“Egopose/自我
    的頭像 發(fā)表于 05-31 14:49 ?1151次閱讀
    Meta研究:基于頭顯攝像頭進(jìn)行<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>的<b class='flag-5'>方法</b>和優(yōu)缺點(diǎn)

    硬件加速人體姿態(tài)估計(jì)開源分享

    電子發(fā)燒友網(wǎng)站提供《硬件加速人體姿態(tài)估計(jì)開源分享.zip》資料免費(fèi)下載
    發(fā)表于 06-25 10:27 ?0次下載
    硬件加速人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>開源分享

    AI深度相機(jī)-人體姿態(tài)估計(jì)應(yīng)用

    我們非常高興地發(fā)布一個(gè)新的代碼示例,展示虹科AI深度相機(jī)SDK的驚人功能。只需6行源代碼,您就可以實(shí)時(shí)準(zhǔn)確地估計(jì)和跟蹤人體姿態(tài)!我們最新的代碼示例使用AI機(jī)器學(xué)習(xí)技術(shù)來識別和跟蹤人體的關(guān)鍵點(diǎn),使您能
    的頭像 發(fā)表于 07-31 17:42 ?1333次閱讀
    AI深度<b class='flag-5'>相機(jī)</b>-人體<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>應(yīng)用

    基于飛控的姿態(tài)估計(jì)算法作用及原理

    ? 姿態(tài)估計(jì)的作用? 姿態(tài)估計(jì)是飛控算法的一個(gè)基礎(chǔ)部分,而且十分重要。為了完成飛行器平穩(wěn)的姿態(tài)控制,首先需要精準(zhǔn)的
    發(fā)表于 11-13 11:00 ?1786次閱讀
    基于飛控的<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>算法作用及原理
    主站蜘蛛池模板: 雷山县| 阿勒泰市| 柘荣县| 安康市| 晋江市| 涞水县| 仲巴县| 金寨县| 铜梁县| 阿克| 南昌县| 剑河县| 唐海县| 宁都县| 象州县| 西青区| 满洲里市| 太湖县| 应城市| 临高县| 井研县| 镇坪县| 芦山县| 麻江县| 临沭县| 商丘市| 信阳市| 高青县| 繁昌县| 大丰市| 木兰县| 视频| 军事| 富源县| 北海市| 大冶市| 汾西县| 北京市| 钦州市| 泰来县| 天柱县|