女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種全新的數(shù)據(jù)蒸餾方法來加速NeRF

電子工程師 ? 來源:機器之心 ? 作者:Huan Wang ? 2022-08-08 10:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)輻射場 (Neural Radiance Field, or NeRF) [Mildenhall et al., ECCV, 2020] 開啟了用神經(jīng)網(wǎng)絡(luò)表征三維場景的新范式。NeRF 這兩年在學(xué)術(shù)界和工業(yè)界都很火熱, 但 NeRF 一個比較大的缺點是, 渲染速度慢。雖然 NeRF 用的神經(jīng)網(wǎng)絡(luò) (11 層的 MLP) 本身很小, 但是渲染一個像素需要采集一條光線上的很多點(上百個), 這導(dǎo)致渲染一張圖的計算量非常大, 如下圖所示: 用 PyTorch 在單張 NVIDIA V100 顯卡測試, 渲染 400x400 的圖片就需要 6.7s 的時間, 這顯然不利于 NeRF 在業(yè)界落地 (例如各種 AR/VR 設(shè)備, meta universe 等)。

90536e9a-16c2-11ed-ba43-dac502259ad0.png

學(xué)術(shù)界已有不少研究工作來加速 NeRF。比較流行的一種方式是, 給定訓(xùn)練好的 NeRF, 采用更高效的數(shù)據(jù)結(jié)構(gòu)進(jìn)行存儲, 如 Sparse Voxel Octree [Yu et al., ICCV, 2021]. 盡管加速很可觀 (如 [Yu et al., ICCV, 2021] 實現(xiàn)了 3000x 的渲染加速), 但這種數(shù)據(jù)結(jié)構(gòu)也破壞了 NeRF 作為場景表征存儲小的優(yōu)點。譬如, 原始 NeRF 網(wǎng)絡(luò)僅僅 2.4MB 大小就可以存儲一個場景, 而采用 Sparse Voxel Octree 則需要 1.93GB [Yu et al., ICCV, 2021], 這顯然難以在端上應(yīng)用。 因此, 如何加速 NeRF 渲染并維持其存儲小的優(yōu)點 (簡言之: 小且快), 仍然是當(dāng)前的研究熱點, 也是本文的動因。

908ec648-16c2-11ed-ba43-dac502259ad0.png

Arxiv: https://arxiv.org/abs/2203.17261

Code: https://github.com/snap-research/R2L

Webpage: https://snap-research.github.io/R2L/

核心方法 我們所提出的核心方法從整體范式上來說非常簡單: 通過數(shù)據(jù)蒸餾將神經(jīng)輻射場 (NeRF) 轉(zhuǎn)化為神經(jīng)光場(Neural Light Field, or NeLF) -- 從 NeRF 到 NeLF, 所以我們把方法命名為 R2L。 NeLF 與 NeRF 一樣, 都可以作為一個場景的表征. 不同的是:

NeRF 的輸入是場景中的一個點 (該點的坐標(biāo) + 該點所在視線的方向), 輸出是該點的 RGB 和不透明度。NeRF 網(wǎng)絡(luò)的輸出是中間結(jié)果, 并不是圖片上的 RGB 值. 要想得到一個像素的 RGB 值, 需要對該像素對應(yīng)光線上的很多點進(jìn)行積分 (即 Alpha Compositing)。

而 NeLF 的輸入是一條光線, 輸出直接是該光線對應(yīng)圖片上像素值, 不需要 Alpha Compositing 這一步。

對于 Novel View Synthesis 這個任務(wù)來說, NeLF 的優(yōu)勢很明顯: 速度快! 要得到一個像素的 RGB 只需要跑一次網(wǎng)絡(luò), 而 NeRF 則需要跑上百次。

909aa80a-16c2-11ed-ba43-dac502259ad0.png

但它的缺點也很明顯, 主要有兩個缺點: (1)NeLF 網(wǎng)絡(luò)要擬合的目標(biāo)函數(shù)比 NeRF 更難。這一點可以這么理解: 在一張圖片上相鄰兩個像素的 RGB 可能突變 (因為遮擋), 而相鄰兩個像素的光線方向其實差別很小, 這就意味著, 這個函數(shù)的輸入稍微變化一點, 輸出可能劇變, 這種函數(shù)的不連續(xù)性強, 復(fù)雜度高. 相比之下, NeRF 表達(dá)的函數(shù)是空間中的點, 空間中的點由于物理世界的連續(xù)性, 相鄰位置上 RGB 劇變的可能性小, 所以函數(shù)相對簡單。 (2)同樣一堆圖片, 用來訓(xùn)練 NeLF 的話, 樣本量會大幅降低. 一張圖片, 長寬為 H, W, 用來訓(xùn)練 NeLF 的話樣本量就是 H*W, 而訓(xùn)練 NeRF 樣本量是 H*W*K (K 是 NeRF 中的一條光線上的采樣點個數(shù), 在 NeRF 原文中 K=256). 所以, 從 NeRF 到 NeLF 訓(xùn)練樣本量會變?yōu)樵瓉淼?1/K, 這是很大的縮減。 神經(jīng)網(wǎng)絡(luò)有效, 通常需要有大量的訓(xùn)練數(shù)據(jù)。從 NeRF 變?yōu)?NeLF, 一方面要擬合的目標(biāo)函數(shù)變復(fù)雜了, 同時樣本量卻減小了, 無疑雪上加霜. 如何解決這些問題呢? 為了解決上述問題(1), 我們需要用一個更深的網(wǎng)絡(luò)來表征更復(fù)雜的函數(shù), 所以在我們的文章中提出了一個 88 層的深度殘差 MLP (deep residual MLP), 網(wǎng)絡(luò)結(jié)構(gòu)如下:

90c1ad74-16c2-11ed-ba43-dac502259ad0.png

這樣的深層網(wǎng)絡(luò)在之前 NeRF 相關(guān)的工作沒有出現(xiàn)過 (之前的 NeRF 相關(guān)工作大多繼承了原始 NeRF 文章中的網(wǎng)絡(luò)結(jié)構(gòu), 小修小補)。為了能讓它訓(xùn)練起來, 我們引入了殘差結(jié)構(gòu)的設(shè)計。這一點跟 ResNet 的思想一樣, 本身并沒有更多的創(chuàng)新, 但把這一點引入到 NeRF/NeLF 中, 據(jù)我們所知, 本文是第一篇工作。殘差結(jié)構(gòu)的引入很有必要, 因為深度網(wǎng)絡(luò)沒有殘差結(jié)構(gòu)基本訓(xùn)練不起來, 這一點在文中的消融實驗中也得到了證實。 另一個值得注意的創(chuàng)新點是關(guān)于如何表征一條光線。理論上說, 一條光線用一個方向向量就可以確定, 但如果真的只用方向向量去表征, 就會出現(xiàn)上面說的 “輸入很接近, 輸出卻可能劇變” 的情況, 這就無疑會給 NeLF 網(wǎng)絡(luò)的學(xué)習(xí)帶來困難。為了使得 NeLF 網(wǎng)絡(luò)要學(xué)習(xí)的函數(shù)更容易一些, 我們需要增強輸入的差別. 具體來說, 我們采用一條光線上采樣的多個點的坐標(biāo) (如下圖所示), 將其串聯(lián)(concat) 起來成一個向量, 以此作為該光線的表征, 作為我們 NeLF 網(wǎng)絡(luò)的輸入。

90da5ebe-16c2-11ed-ba43-dac502259ad0.png

這種表征非常簡單直接, 同時也很有效。在文中, 我們也展示了它比之前的 NeLF 工作中用到的其他表征 (例如 Plucker 坐標(biāo) [Sitzmann et al, NeurIPS, 2021]) 要更為有效。 為了解決上述問題(2), 我們使用了一個預(yù)訓(xùn)練好的 NeRF 模型來產(chǎn)生大量偽數(shù)據(jù) (pseudo data)。具體來說, 當(dāng) NeRF 對一個場景學(xué)習(xí)完之后, 給定任意一個角度 (ray direction), NeRF 都能返回這個角度下的圖片, 我們就把這些圖片收集起來, 形成了很多 (origin, direction, RGB) triplets。這些 triplets 就是訓(xùn)練我們模型的數(shù)據(jù), loss 函數(shù)是 mean squared error (MSE), 如下所示:

90e8e182-16c2-11ed-ba43-dac502259ad0.png

在我們的實驗中, 我們收集了 10k 張圖片, 是原始數(shù)據(jù)集 (大概 100 張圖片) 的 100 倍, 這些數(shù)據(jù)確保了有充足的樣本去訓(xùn)練 NeLF。文中的消融實驗也表明, 大量偽數(shù)據(jù)對性能至關(guān)重要 (6.9dB PSNR 提升)! 值得一提的是, 如果僅僅是用偽數(shù)據(jù)訓(xùn)練, 我們的模型最優(yōu)也只能復(fù)制 teacher NeRF, 無法超越它。為了能超越, 我們在原始圖片上再微調(diào) (Finetune) 一下模型。這個操作被證明有非常顯著的效果, 使得我們的模型可以顯著超越 teacher NeRF。 實驗效果 總的來說, 我們的模型在 NeRF Synthetic 數(shù)據(jù)集 (圖片尺寸 400x400) 上實現(xiàn)了將近 30x 的加速, 并把 PSNR 大幅提升了 1.4dB, 比同類其他方法更加高效。

91175b0c-16c2-11ed-ba43-dac502259ad0.png

視覺效果圖對比如下, 可以看到, 相比于 NeRF, 我們的模型 (Ours-2, 即在原始數(shù)據(jù)上微調(diào)后的模型)有肉眼可見的提升, 且計算量僅僅是 NeRF 的 1/26。

912cf0d4-16c2-11ed-ba43-dac502259ad0.png

更多結(jié)果請參考我們的文章。代碼已經(jīng)開源: https://github.com/snap-research/R2L, 歡迎嘗試! 總結(jié)與未來工作 本文提出了一種全新的數(shù)據(jù)蒸餾方法來加速 NeRF: 我們使用訓(xùn)練好的 NeRF 模型產(chǎn)生偽數(shù)據(jù), 來訓(xùn)練提出的深度殘差 NeLF 網(wǎng)絡(luò)。該 NeLF 網(wǎng)絡(luò)可以達(dá)到超過 NeRF 的渲染質(zhì)量, 且實現(xiàn)將近 30x 加速, 并維持了存儲小的優(yōu)點。 未來工作方向: (1) 從 NeRF 中可以得到深度信息, 目前我們還沒提供從 NeLF 網(wǎng)絡(luò)中得到深度信息的方法, 這是不錯的探索方向。(2) 如何用更少, 更高質(zhì)量的偽數(shù)據(jù) (譬如進(jìn)行數(shù)據(jù)篩選) 來加速 NeLF 的訓(xùn)練也非常值得探索。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:ECCV 2022|Snap&東北大學(xué)提出R2L:用數(shù)據(jù)蒸餾加速NeRF

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    使用ad9467-250采集低頻信號,請問有什么方法來提高sfdr嗎?

    你好,我現(xiàn)在在使用ad9467-250采集低頻信號,在測試3Mhz部分時sfdr只有86,采樣頻率是102.4Mhz,請問有什么方法來提高sfdr嗎
    發(fā)表于 04-24 06:05

    PDM產(chǎn)品數(shù)據(jù)管理是什么?文詳細(xì)了解三品PDM系統(tǒng)

    在當(dāng)今競爭激烈的商業(yè)環(huán)境中,企業(yè)為了提升自身的競爭力,不斷尋求各種方法來優(yōu)化產(chǎn)品開發(fā)流程、提高生產(chǎn)效率以及降低成本。PDM(產(chǎn)品數(shù)據(jù)管理)系統(tǒng)作為一種強大的工具,正在逐漸成為企業(yè)實現(xiàn)這些目標(biāo)的關(guān)鍵。
    的頭像 發(fā)表于 03-25 14:01 ?392次閱讀

    用ADS1258做了塊采集卡,請問有比較簡單的測試方法來測試我的采集卡的性能和精度嗎?

    您好!我現(xiàn)在用ADS1258做了塊采集卡,請問有比較簡單的測試方法來測試我的采集卡的性能和精度嗎。 我現(xiàn)在用普通的信號發(fā)生器產(chǎn)生了個正弦波,1KHz的頻率,用采集卡采集了16*1024個
    發(fā)表于 02-10 07:49

    大連理工提出基于Wasserstein距離(WD)的知識蒸餾方法

    的機制,應(yīng)用于中間層蒸餾時存在問題,其無法處理不重疊的分布且無法感知底層流形的幾何結(jié)構(gòu)。 為了解決這些問題,大連理工大學(xué)的研究人員提出了一種基于 Wasserstein 距離(WD)的知識蒸餾
    的頭像 發(fā)表于 01-21 09:45 ?613次閱讀

    一種面向飛行試驗的數(shù)據(jù)融合框架

    天地氣動數(shù)據(jù)一致性,針對某外形飛行試驗數(shù)據(jù)開展了典型對象的天地氣動數(shù)據(jù)融合方法研究。結(jié)合數(shù)據(jù)挖掘的隨機森林
    的頭像 發(fā)表于 11-27 11:34 ?809次閱讀
    <b class='flag-5'>一種</b>面向飛行試驗的<b class='flag-5'>數(shù)據(jù)</b>融合框架

    全面總結(jié)動態(tài)NeRF

    1. 摘要 神經(jīng)輻射場(NeRF)是一種新穎的隱式方法,可以實現(xiàn)高分辨率的三維重建和表示。在首次提出NeRF的研究之后,NeRF獲得了強大的
    的頭像 發(fā)表于 11-14 16:48 ?1032次閱讀
    全面總結(jié)動態(tài)<b class='flag-5'>NeRF</b>

    PyTorch GPU 加速訓(xùn)練模型方法

    在深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時間的重要手段。PyTorch作為個流行的深度學(xué)習(xí)框架,提供了豐富的工具和方法來利用GPU進(jìn)行模型訓(xùn)練。 1. 了解GPU加速
    的頭像 發(fā)表于 11-05 17:43 ?1351次閱讀

    一種創(chuàng)新的動態(tài)軌跡預(yù)測方法

    本文提出了一種動態(tài)軌跡預(yù)測方法,通過結(jié)合歷史幀和歷史預(yù)測結(jié)果提高預(yù)測的穩(wěn)定性和準(zhǔn)確性。它引入了歷史預(yù)測注意力模塊,以編碼連續(xù)預(yù)測之間的動態(tài)關(guān)系,并通過三重因子注意力模塊實現(xiàn)了最先進(jìn)的性能。本
    的頭像 發(fā)表于 10-28 14:34 ?1014次閱讀
    <b class='flag-5'>一種</b>創(chuàng)新的動態(tài)軌跡預(yù)測<b class='flag-5'>方法</b>

    一種簡單高效配置FPGA的方法

    本文描述了一種簡單高效配置FPGA的方法,該方法利用微處理器從串行外圍接口(SPI)閃存配置FPGA設(shè)備。這種方法減少了硬件組件、板空間和成本。
    的頭像 發(fā)表于 10-24 14:57 ?1537次閱讀
    <b class='flag-5'>一種</b>簡單高效配置FPGA的<b class='flag-5'>方法</b>

    一種利用wireshark對遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包方法

    一種利用wireshark對遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包方法
    的頭像 發(fā)表于 09-21 08:03 ?4776次閱讀
    <b class='flag-5'>一種</b>利用wireshark對遠(yuǎn)程服務(wù)器/路由器網(wǎng)絡(luò)抓包<b class='flag-5'>方法</b>

    THS4551是否可以通過在Vocm引腳處接入電阻調(diào)整分壓比例的方法來配置輸出共模電壓?

    引腳處接入電阻調(diào)整分壓比例的方法來配置輸出共模電壓。 打個比方,比如 Vs+ = 5V,Vs- = 0V (PD常On)時,是否可以如下圖所示,通過在Vocm和Vs-間接入300k電阻將輸出信號共模電壓調(diào)整值1.66V左右。
    發(fā)表于 08-06 07:14

    一種無透鏡成像的新方法

    使用OAM-HHG EUV光束對高度周期性結(jié)構(gòu)進(jìn)行成像的EUV聚光顯微鏡 為了研究微電子或光子元件中的納米級圖案,一種基于無透鏡成像的新方法可以實現(xiàn)近乎完美的高分辨率顯微鏡。 層析成像是一種強大的無
    的頭像 發(fā)表于 07-19 06:20 ?748次閱讀
    <b class='flag-5'>一種</b>無透鏡成像的新<b class='flag-5'>方法</b>

    NONOS如何檢查是否實際發(fā)送了UDP數(shù)據(jù)包?

    我發(fā)現(xiàn)進(jìn)入深度睡眠通常無法傳輸發(fā)送的最后個 UDP 數(shù)據(jù)包。我現(xiàn)在將睡眠延遲 30 毫秒,這是個黑客。 我寧愿有一種方法來檢查是否可以休眠,或者以其他方式能夠注冊指示
    發(fā)表于 07-12 06:14

    rup是一種什么模型

    部分)開發(fā)的,它基于統(tǒng)建模語言(UML)和面向?qū)ο蟮能浖_發(fā)方法。RUP提供了一種結(jié)構(gòu)化的方法來開發(fā)軟件,它包括系列的階段、迭代和里程碑
    的頭像 發(fā)表于 07-09 10:13 ?2660次閱讀

    干貨分享 數(shù)據(jù)記錄儀自動測量與記錄加速度:振動,顛簸,沖擊和定位

    什么是加速度數(shù)據(jù)記錄儀?我們?nèi)绾斡涗浾駝??顛簸或沖擊是什么意思?我們可以使用什么方法來檢測因沖擊而造成的貨物損壞?“快速峰值”是什么意思?篇文章讓你弄懂所有問題!
    的頭像 發(fā)表于 07-04 14:46 ?710次閱讀
    干貨分享  <b class='flag-5'>數(shù)據(jù)</b>記錄儀自動測量與記錄<b class='flag-5'>加速</b>度:振動,顛簸,沖擊和定位
    主站蜘蛛池模板: 丹江口市| 乌拉特前旗| 南京市| 瑞昌市| 淄博市| 孝昌县| 奉节县| 彭阳县| 广南县| 阳城县| 岳池县| 长子县| 满洲里市| 旺苍县| 宣武区| 桦南县| 县级市| 东光县| 嘉定区| 萍乡市| 双鸭山市| 库伦旗| 池州市| 云梦县| 招远市| 神农架林区| 庆云县| 松溪县| 宁安市| 九江市| 龙井市| 龙泉市| 宝清县| 新乐市| 察隅县| 大悟县| 如皋市| 汉阴县| 江口县| 通山县| 石家庄市|