女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Direct Inversion:三行代碼提升基于擴散的圖像編輯效果

CVer ? 來源:CVer公眾號 ? 2023-10-10 17:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀

本文介紹了由香港中文大學和粵港澳大灣區(qū)數字經濟院聯合提出的基于 Diffusion 的 Inversion 方法 Direct Inversion,可以在現有編輯算法上即插即用,無痛提點。

現有主流編輯算法大多為雙分支結構,一個分支主要負責編輯,另一個分支則負責重要信息保留,Direct Inversion 可以完成(1)對兩分支解耦(2)使兩分支分別發(fā)揮最大效能,因此可以大幅提升現有算法的編輯效果。

同時,為了更加公平公正的進行基于 text 的編輯效果對比,這篇文章提出了 PIE-Bench,一個包含 700 張圖片和 10 個編輯類別的“圖片-編輯指令-編輯區(qū)域”數據集,并提供一系列包含結構保留性、背景保留性、編輯結果與編輯指令一致性、編輯時間四個方面的評測指標。

數值結果和可視化結果共同展示了Direct Inversion的優(yōu)越性。

15664526-6744-11ee-939d-92fbcf53809c.png

主頁:https://idea-research.github.io/DirectInversion/

代碼:https://arxiv.org/abs/2310.01506

論文:https://github.com/cure-lab/DirectInversion

這篇論文是如何發(fā)現過往方法問題,并找到新解決方案的呢?

基于 Diffusion 的編輯在近兩年來一直是文生圖領域的研究重點,也有無數文章從各個角度(比如效果較好的在Stable Diffusion的Attention Map上特征融合)對其進行研究,作者在文章中進行了一個比較全面的相關方法review,并把這些方法從“重要信息保留”和“編輯信息添加”兩個方面分別進行了四分類,具體可以參見原文,此處不再贅述。

這里提到了一個編輯的重點,也就是“重要信息保留”和“編輯信息添加”。事實上,這兩個要點正是編輯所需要完成的兩個任務,比如把圖1的貓變成狗,那紅色的背景和貓的位置需要保留,這就是“重要信息保留”;同時編輯要完成“變成狗”的任務,這就是“編輯信息添加”。

為了完成這兩個任務,最為直覺,也是使用最多的方式就是:使用兩個分支來完成這兩件事,一個用來保留信息,一個用來添加信息。之前的編輯算法大多可以劃分出這兩個分支,但可能隱含在模型中或者沒有顯式割離,也正是在這篇文章中,作者將兩個概念劃分清楚并給出了過往方法的分類。

到現在為止,已經弄清楚了編輯的兩個分支及其各自作用,但編輯不僅僅只需要這兩個分支,還需要重要的一步,也就是Inversion。

156eb3aa-6744-11ee-939d-92fbcf53809c.jpg

圖1 基于 Diffusion 的編輯算法總結

我們都知道,Diffusion是一個把噪聲映射到有用信息(比如圖片)的過程,但 Diffusion 到噪聲的過程是單向的,它并不可逆,不能直接像VAE一樣直接把有用信息再映射回到隱空間,即,可以根據一個噪聲得到圖片,但不能根據一張圖片得到“可以得到這張圖片的噪聲”,但這個噪聲又在編輯中非常重要,因為它是雙分支的起點。

所以大部分人就采用了一種近似的方法,即 DDIM Inversion,它能夠將圖片映射到噪聲,但從這個噪聲得到的新圖片就會稍微偏離原圖片一點(如圖DDIM Inversion上標注的distance),其實如果不給模型文本控制條件,偏離還不太嚴重,但當文本的控制加強時,偏離就會逐漸不可接受。

因此,一系列的 Inversion 方法被提出用來修正這一偏差,比如著名的基于優(yōu)化的 Null-Text Inversion,而在無數方法進行嘗試和探索之后,大家似乎得到了一個 common sense:好的偏離修正必須要包含優(yōu)化過程。所以這篇文章就更加深入的探索了一下基于優(yōu)化的inversion(或者說修正)到底在做什么。

這些方法在優(yōu)化什么?優(yōu)化真的必要嗎?

基于優(yōu)化的Inversion方法通常使用一個模型輸入變量(如Null Text)存儲剛剛提到的偏差,而這一偏差則作為優(yōu)化過程中的loss,通過梯度下降來擬合變量。因此優(yōu)化的過程本質上就是把一個高精度的偏差存儲在了一個低精度的變量中(該變量的數值精度相對 noise latent 更不敏感)。

但這種做法是存在問題的:(1)優(yōu)化相當于在推導過程中訓練,非常消耗時間,比如Null-Text Inversion通常需要兩三分鐘編輯一張圖片;(2)優(yōu)化存在誤差,因此不能完全消除“偏差”,如圖2 Null-Text Inversion/StyleDiffusion中畫出的,保留分支與原始inversion分支之間的偏差只是被縮小并沒有被消除,這就使得重要信息的保護沒有發(fā)揮到最大限度;(3)優(yōu)化得到的變量其實在Diffusion模型訓練過程中并未出現過,因此相當于進行了強制賦值,會影響模型輸入和模型參數之間數據分布的協調。

回到上文提到的雙分支編輯,之前的方法訓練好優(yōu)化的變量之后,就會將其同時送入到編輯分支和保留分支(其實不僅僅是基于優(yōu)化的方法,非基于優(yōu)化的方法也沒有將兩分支解耦),根據上面的分析,其實可以發(fā)現一個很簡單的改進策略:將可編輯分支和保留分支解耦,使兩個分支充分發(fā)揮各自效能。

157971aa-6744-11ee-939d-92fbcf53809c.jpg

圖2 各類 Inversion 方法對比

Direct Inversion

這篇文章通過解耦編輯分支和保留分支,僅用三行代碼就能夠大幅提升現有編輯算法效果(如圖3中偽代碼),具體做法非常簡單,即:將保留分支加回到原始DDIM Inversion路徑,而保持編輯分支不被影響。

15812a1c-6744-11ee-939d-92fbcf53809c.jpg

圖3 偽代碼

PIE-Bench

盡管基于 Diffusion 的編輯在近幾年引起了廣泛關注,但各類編輯方法的評估主要依賴于主觀且不確定性的可視化。因此這篇文章為了系統驗證所提出的Direct Inversion,并對比過往Inversion方法,以及彌補編輯領域的性能標準缺失,構建了一個基準數據集,名為PIE-Bench(Prompt-based Image Editing Benchmark)。

PIE-Bench包括700張圖像,涵蓋了10種不同的編輯類型。這些圖像均勻分布在自然和人工場景(例如繪畫作品)中,分為四個類別:動物、人物、室內和室外。PIE-Bench中的每張圖像都包括五個注釋:源圖像提示語句、目標圖像提示語句、編輯指令、主要編輯部分和編輯掩碼。值得注意的是,編輯掩碼注釋(即使用一個mask指示預期的編輯區(qū)域)在準確的指標計算中至關重要,因為期望編輯僅發(fā)生在指定的區(qū)域內。

158f3080-6744-11ee-939d-92fbcf53809c.jpg

圖4 PIE-Bench

實驗效果

數值結果

在各個編輯算法上對比不同Inversion和Direct Inversion 算法效果

159b49ce-6744-11ee-939d-92fbcf53809c.jpg

Direct Inversion 在多種編輯方法上對比其他 inversion 方法的效果。編輯方法:Prompt-to-Prompt (P2P), MasaCtrl, Pix2Pix-Zero (P2P-Zero), Plug-and-Play (PnP), Inversion方法:DDIM Inversion (DDIM), Null-Text Inversion (NT), Negative-Prompt Inversion (NP), StyleDiffusion (SD)

各類 Inversion 算法運行時間對比

15acca1e-6744-11ee-939d-92fbcf53809c.jpg

運行時間對比

可視化對比

15bcf0f6-6744-11ee-939d-92fbcf53809c.jpg

圖5 Direct Inversion 與四種基于 Diffusion 的編輯方法結合后在各種編輯類別(從上到下依次為:風格轉移、物體替換和顏色變更)上的性能提升,每組結果第一列為未加 Direct Inversion,第二列為添加 Direct Inversion

15c0c5f0-6744-11ee-939d-92fbcf53809c.jpg

圖6 不同 inversion 和編輯技術的可視化結果

更多可視化和消融實驗結果可以參考原論文。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4708

    瀏覽量

    95223
  • 代碼
    +關注

    關注

    30

    文章

    4896

    瀏覽量

    70564
  • 數據集
    +關注

    關注

    4

    文章

    1223

    瀏覽量

    25392

原文標題:簡單有效!Direct Inversion:三行代碼提升基于擴散的圖像編輯效果

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    急求教:能顯示三行字符的液晶有哪些

    能顯示三行字符(可以不是漢字)的液晶有哪些????
    發(fā)表于 05-31 10:02

    請問前三行是什么意思?

    create_page_table @ 設置頁表 bl mmu_init @ 啟動MMU ldr sp, =0xB4000000 @ 重設棧指針,指向SDRAM頂端(使用虛擬地址) ldr pc, =0xB0004000 @ 跳到SDRAM中繼續(xù)執(zhí)行第二部分代碼halt_loop: b halt_loop請問其中
    發(fā)表于 06-13 22:56

    請問這三行代碼是固定這樣寫的嗎?

    u8 IPRADDR=NVIC_Channel/4;//每組只能存4個,得到組地址 u8 IPROFFSET=NVIC_Channel%4;//在組內的偏移 IPROFFSET=IPROFFSET*8+4; //得到偏移的確切位置這三行代碼是固定這樣寫的嗎???????
    發(fā)表于 10-24 21:34

    三行搞定獨立按鍵

    最近自己在做單片機的東西,準備參加比賽,偶然發(fā)現了獨立按鍵的神助攻——三行搞定獨立按鍵,看到網上很多描述的不清晰,自己又花時間整理了一下,話不多說先上代碼:void Key_Read(void
    發(fā)表于 12-07 11:05

    STM32之三行按鍵宏定義

    STM32之三行按鍵按鍵宏定義unsigned char ucTrg= 0;unsigned char ucCont = 0;unsigned char uckey_times = 0
    發(fā)表于 03-02 06:52

    什么是三行按鍵?有什么用

    三行按鍵從出生到現在已經很多個年頭了,經過幾代優(yōu)化,現在有兩個版本,今天分析一下,也在本論壇擴充一下資源。我在本論壇搜索三行按鍵,并沒有相關的帖子。首先說明一下什么是三行按鍵,有什么用,什么好處,以及...
    發(fā)表于 03-02 06:16

    EditGAN圖像編輯框架將影響未來幾代GAN的發(fā)展

      此外, EditGAN 框架可能會影響未來幾代 GAN 的發(fā)展。雖然當前版本的 EditGAN 側重于圖像編輯,但類似的方法也可能用于編輯 3D 形狀和對象,這在為游戲、電影或 metaverse 創(chuàng)建虛擬 3D 內容時非常有用。
    的頭像 發(fā)表于 04-06 16:29 ?1848次閱讀
    EditGAN<b class='flag-5'>圖像編輯</b>框架將影響未來幾代GAN的發(fā)展

    谷歌新作Dreamix:視頻擴散模型是通用視頻編輯器,效果驚艷!

    可以看到,視頻編輯圖像編輯更加具有挑戰(zhàn)性,它需要合成新的動作,而不僅僅是修改視覺外觀。此外還需要保持時間上的一致性。因此,將 SDEdit、Prompt-to-Prompt 等圖像級別的編輯
    的頭像 發(fā)表于 02-09 11:21 ?1870次閱讀

    AI圖像編輯技術DragGAN開源,拖動鼠標即可改變人物笑容

    DragGAN是一個直觀的圖像編輯工具PM系統(www.multiable.com.cn),用戶只需要控制圖像中的像素點和方向,就可以快速調整照片主體的位置、姿態(tài)、表情、大小和角度等。
    的頭像 發(fā)表于 06-29 10:34 ?1275次閱讀

    生成式 AI 研究通過引導式圖像結構控制為創(chuàng)作者賦能

    新的研究正在通過一個文本引導的圖像編輯工具來提升生成式 AI 的創(chuàng)造性潛能。這項創(chuàng)新性的研究提出了一個使用即插即用擴散特征(PnP DFs)的框架,可引導實現逼真而精確的圖像生成。通過
    的頭像 發(fā)表于 07-24 19:30 ?779次閱讀

    伯克利AI實驗室開源圖像編輯模型InstructPix2Pix,簡化生成圖像編輯并提供一致結果

    之前的 AI 圖像編輯能力通常是進行風格轉換,流行的文本到圖像生成模型(如 DALL-E 和 Stable Diffusion)也支持圖像圖像風格轉換操作。然而,使用這些模型進行有針
    的頭像 發(fā)表于 08-28 15:45 ?1162次閱讀
    伯克利AI實驗室開源<b class='flag-5'>圖像編輯</b>模型InstructPix2Pix,簡化生成<b class='flag-5'>圖像編輯</b>并提供一致結果

    來看看他們用代碼寫的“三行詩”

    往期精選 原文標題:來看看他們用代碼寫的“三行詩” 文章出處:【微信公眾號:宏景智駕】歡迎添加關注!文章轉載請注明出處。
    的頭像 發(fā)表于 10-25 15:55 ?577次閱讀
    來看看他們用<b class='flag-5'>代碼</b>寫的“<b class='flag-5'>三行</b>詩”

    Sweetviz: 讓你三行代碼實現探索性數據分析

    Sweetviz是一個開源Python庫,它只需三行代碼就可以生成漂亮的高精度可視化效果來啟動EDA(探索性數據分析)。輸出一個HTML。 它不僅能根據性別、年齡等不同欄目縱向分析數據,還能對每個
    的頭像 發(fā)表于 10-31 10:28 ?1180次閱讀
    Sweetviz: 讓你<b class='flag-5'>三行</b><b class='flag-5'>代碼</b>實現探索性數據分析

    放下你的PhotoShop!無限圖像編輯已開源!

    我們知道擴散模型生成圖像是通過反轉采樣來進行的,重點是識別噪聲。LEDITS++從DDPM反演中提取特征,并提出一種有效的反演方法,大大減少所需的步驟,同時降低重建誤差。當將反向擴散過程公式化為SDE時
    的頭像 發(fā)表于 12-10 10:09 ?1190次閱讀
    放下你的PhotoShop!無限<b class='flag-5'>圖像編輯</b>已開源!

    字節(jié)發(fā)布SeedEdit圖像編輯模型

    近日,字節(jié)跳動公司在其豆包大模型團隊的官方網站上,正式公布了其最新的通用圖像編輯模型——SeedEdit。這款創(chuàng)新性的圖像編輯模型,為用戶提供了前所未有的便捷圖像編輯體驗。 據官方介紹
    的頭像 發(fā)表于 11-12 10:43 ?738次閱讀
    主站蜘蛛池模板: 革吉县| 松江区| 汉源县| 秀山| 安义县| 获嘉县| 丰城市| 临清市| 体育| 宝鸡市| 钟祥市| 兴海县| 东至县| 大竹县| 黔江区| 游戏| 安吉县| 米泉市| 怀宁县| 东莞市| 房山区| 郧西县| 仁怀市| 巴楚县| 渑池县| 金阳县| 张掖市| 东台市| 寻乌县| 仙桃市| 临江市| 全州县| 荣昌县| 巴中市| 双牌县| 灵璧县| 铁岭市| 海门市| 武汉市| 政和县| 乌拉特中旗|