女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度探析7大類深度CNN創(chuàng)新架構(gòu)

電子工程師 ? 來源:cc ? 2019-01-27 11:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種特殊類型的神經(jīng)網(wǎng)絡(luò),在各種競賽基準上表現(xiàn)出了當(dāng)前最優(yōu)結(jié)果。深度 CNN 架構(gòu)在挑戰(zhàn)性基準任務(wù)比賽中實現(xiàn)的高性能表明,創(chuàng)新的架構(gòu)理念以及參數(shù)優(yōu)化可以提高 CNN 在各種視覺相關(guān)任務(wù)上的性能。本綜述將最近的 CNN 架構(gòu)創(chuàng)新分為七個不同的類別,分別基于空間利用、深度、多路徑、寬度、特征圖利用、通道提升和注意力。

引言

通過 1989 年 LeCun 處理網(wǎng)格狀拓撲數(shù)據(jù)(圖像和時間系列數(shù)據(jù))的研究,CNN 首次受到關(guān)注。CNN 被視為理解圖像內(nèi)容的最好技術(shù)之一,并且在圖像識別、分割、檢測和檢索相關(guān)任務(wù)上表現(xiàn)出了當(dāng)前最佳性能。CNN 的成功引起了學(xué)界外的注意。在產(chǎn)業(yè)界,如谷歌、微軟、AT&T、NEC 和 Facebook 這樣的公司都設(shè)立了研究團隊來探索 CNN 的新架構(gòu)。目前,圖像處理競賽中的大多數(shù)領(lǐng)跑者都會采用基于深度 CNN 的模型。

自 2012 年以來,關(guān)于 CNN 架構(gòu)的不同創(chuàng)新被提出來。這些創(chuàng)新可分為參數(shù)優(yōu)化、正則化、結(jié)構(gòu)重組等。但是據(jù)觀察,CNN 網(wǎng)絡(luò)的性能提升應(yīng)主要歸功于處理單元的重構(gòu)和新模塊的設(shè)計。自 AlexNet 在 ImageNet 數(shù)據(jù)集上展現(xiàn)出了非凡的性能后,基于 CNN 的應(yīng)用變得越來越普及。類似地,Zeiler 和 Fergus 介紹了特征分層可視化的概念,這改變了用深度架構(gòu)(如 VGG)在簡單的低空間分辨率中提取特征的趨勢。如今,大多數(shù)新架構(gòu)都是基于 VGG 引入的簡單原則和同質(zhì)化拓撲構(gòu)建的。

另一方面,谷歌團隊引入了一個非常著名的關(guān)于拆分、轉(zhuǎn)換和合并的概念,稱為 Inception 模塊。初始塊第一次使用了層內(nèi)分支的概念,允許在不同空間尺度上提取特征。2015 年,為了訓(xùn)練深度 CNN,Resnet 引入的殘差連接概念變得很有名,并且,后來的大多數(shù)網(wǎng)絡(luò)像 Inception-ResNet,WideResNet,ResNext 等都在使用它。與此類似,一些像 WideResnet、Pyramidal Nets、Xception 這樣的架構(gòu)都引入了多層轉(zhuǎn)換的概念,通過額外的基數(shù)和增加的寬度來實現(xiàn)。因此,研究的重點從參數(shù)優(yōu)化和連接再次調(diào)整,轉(zhuǎn)向了網(wǎng)絡(luò)架構(gòu)設(shè)計(層結(jié)構(gòu))。這引發(fā)了許多像通道提升、空間和通道利用、基于注意力的信息處理等新的架構(gòu)概念。

本文結(jié)構(gòu)如下:

圖 1:文章結(jié)構(gòu)

圖 2:典型模式識別(OR)系統(tǒng)的基本布局。PR 系統(tǒng)分為三個階段:階段 1 和數(shù)據(jù)挖掘相關(guān),階段 2 執(zhí)行預(yù)處理和特征選擇,而階段 3 基于模型選擇、調(diào)參和分析。CNN 有良好的特征提取能力和強大的鑒別能力,因此在一個 PR 系統(tǒng)中,它可以用于特征提取/生成和模型選擇階段。

4 CNN 中的架構(gòu)創(chuàng)新

自 1989 年至今,CNN 架構(gòu)已經(jīng)有了很多不同的改進。CNN 中的所有創(chuàng)新都是通過深度和空間相結(jié)合實現(xiàn)的。根據(jù)架構(gòu)修改的類型,CNN 可以大致分為 7 類:基于空間利用、深度、多路徑、寬度、通道提升、特征圖利用和注意力的 CNN。深度 CNN 架構(gòu)的分類如圖 3 所示。

圖 3:深度 CNN 架構(gòu)分類

4.1 基于空間利用的 CNN

CNN 有大量參數(shù),如處理單元數(shù)量(神經(jīng)元)、層數(shù)、濾波器大小、步幅、學(xué)習(xí)率和激活函數(shù)等。由于 CNN 考慮輸入像素的鄰域(局部性),可以使用不同大小的濾波器來探索不同級別的相關(guān)性。因此,在 2000 年初,研究人員利用空間變換來提升性能,此外,還評估了不同大小的濾波器對網(wǎng)絡(luò)學(xué)習(xí)率的影響。不同大小的濾波器封裝不同級別的粒度;通常,較小的濾波器提取細粒度信息,而較大的濾波器提取粗粒度信息。這樣,通過調(diào)整濾波器大小,CNN 可以在粗粒度和細粒度的細節(jié)上都表現(xiàn)很好。

4.2 基于深度的 CNN

深度 CNN 架構(gòu)基于這樣一種假設(shè):隨著深度的增加,網(wǎng)絡(luò)可以通過大量非線性映射和改進的特征表示更好地逼近目標函數(shù)。網(wǎng)絡(luò)深度在監(jiān)督學(xué)習(xí)的成功中起了重要作用。理論研究已表明,深度網(wǎng)絡(luò)能夠以指數(shù)方式比淺層網(wǎng)絡(luò)更有效地表示特定的 20 個函數(shù)類型。2001 年,Csáji 表示了通用近似定理,指出單個隱藏層足夠逼近任何函數(shù),但這需要指數(shù)級的神經(jīng)元,因而通常導(dǎo)致計算上行不通。在這方面,Bengio 和 elalleau 認為更深的網(wǎng)絡(luò)有潛力在更少的成本下保持網(wǎng)絡(luò)的表現(xiàn)能力。2013 年,Bengio 等人通過 實證表明,對于復(fù)雜的任務(wù),深度網(wǎng)絡(luò)在計算和統(tǒng)計上都更有效。在 2014-ILSVR 競賽中表現(xiàn)最佳的 Inception 和 VGG 則進一步說明,深度是調(diào)節(jié)網(wǎng)絡(luò)學(xué)習(xí)能力的重要維度。

一旦特征被提取,只要其相對于其他位置的近似位置被保留,其提取位置就變得沒那么重要了。池化或下采樣(如卷積)是一種有趣的局部操作。它總結(jié)了感受野附近的類似信息,并輸出了該局部區(qū)域內(nèi)的主要反應(yīng)。作為卷積運算的輸出結(jié)果,特征圖案可能會出現(xiàn)在圖像中的不同位置。

4.3 基于多路徑的 CNN

深度網(wǎng)絡(luò)的訓(xùn)練頗具挑戰(zhàn)性,這也是近來很多深度網(wǎng)絡(luò)研究的主題。深度 CNN 為復(fù)雜任務(wù)提供了高效的計算和統(tǒng)計。但是,更深的網(wǎng)絡(luò)可能會遭遇性能下降或梯度消失/爆炸的問題,而這通常是由增加深度而非過擬合造成的。梯度消失問題不僅會導(dǎo)致更高的測試誤差,還會導(dǎo)致更高的訓(xùn)練誤差。為了訓(xùn)練更深的網(wǎng)絡(luò),多路徑或跨層連接的概念被提出。多路徑或捷徑連接可以通過跳過一些中間層,系統(tǒng)地將一層連接到另一層,以使特定的信息流跨過層??鐚舆B接將網(wǎng)絡(luò)劃分為幾塊。這些路徑也嘗試通過使較低層訪問梯度來解決梯度消失問題。為此,使用了不同類型的捷徑連接,如零填充、基于投影、dropout 和 1x1 連接等。

激活函數(shù)是一種決策函數(shù),有助于學(xué)習(xí)復(fù)雜的模式。選擇適當(dāng)?shù)募せ詈瘮?shù)可以加速學(xué)習(xí)過程。卷積特征圖的激活函數(shù)定義為等式(3)。

4.4 基于寬度的多連接 CNN

2012 至 2015 年,網(wǎng)絡(luò)架構(gòu)的重點是深度的力量,以及多通道監(jiān)管連接在網(wǎng)絡(luò)正則化中的重要性。然而,網(wǎng)絡(luò)的寬度和深度一樣重要。通過在一層之內(nèi)并行使用多處理單元,多層感知機獲得了在感知機上映射復(fù)雜函數(shù)的優(yōu)勢。這表明寬度和深度一樣是定義學(xué)習(xí)原則的一個重要參數(shù)。Lu 等人和 Hanin & Sellke 最近表明,帶有線性整流激活函數(shù)的神經(jīng)網(wǎng)絡(luò)要足夠?qū)挷拍茈S著深度增加保持通用的近似特性。并且,如果網(wǎng)絡(luò)的最大寬度不大于輸入維度,緊致集上的連續(xù)函數(shù)類無法被任意深度的網(wǎng)絡(luò)很好地近似。因此,多層堆疊(增加層)可能不會增加神經(jīng)網(wǎng)絡(luò)的表征能力。與深度架構(gòu)相關(guān)的一個重要問題是,有些層或處理單元可能無法學(xué)習(xí)有用的特征。為了解決這一問題,研究的重點從深度和較窄的架構(gòu)轉(zhuǎn)移到了較淺和較寬的架構(gòu)上。

4.5 基于特征圖(通道特征圖)開發(fā)的 CNN

CNN 因其分層學(xué)習(xí)和自動特征提取能力而聞名于 MV 任務(wù)中。特征選擇在決定分類、分割和檢測模塊的性能上起著重要作用。傳統(tǒng)特征提取技術(shù)中分類模塊的性能要受限于特征的單一性。相較于傳統(tǒng)技術(shù),CNN 使用多階段特征提取,根據(jù)分配的輸入來提取不同類型的特征(CNN 中稱之為特征圖)。但是,一些特征圖有很少或者幾乎沒有目標鑒別作用。巨大的特征集有噪聲效應(yīng),會導(dǎo)致網(wǎng)絡(luò)過擬合。這表明,除了網(wǎng)絡(luò)工程外,特定類別特征圖的選取對改進網(wǎng)絡(luò)的泛化性能至關(guān)重要。在這一部分,特征圖和通道會交替使用,因為很多研究者已經(jīng)用通道這個詞代替了特征圖。

4.6. 基于通道(輸入通道)利用的 CNN

圖像表征在決定圖像處理算法的性能方面起著重要作用。圖像的良好表征可以定義來自緊湊代碼的圖像的突出特征。在不同的研究中,不同類型的傳統(tǒng)濾波器被用來提取單一類型圖像的不同級別信息。這些不同的表征被用作模型的輸入,以提高性能。CNN 是一個很好的特征學(xué)習(xí)器,它能根據(jù)問題自動提取鑒別特征。但是,CNN 的學(xué)習(xí)依賴于輸入表征。如果輸入中缺乏多樣性和類別定義信息,CNN 作為鑒別器的性能就會受到影響。為此,輔助學(xué)習(xí)器的概念被引入到 CNN 中來提升網(wǎng)絡(luò)的輸入表征。

4.7 基于注意力的 CNN

不同的抽象級別在定義神經(jīng)網(wǎng)絡(luò)的鑒別能力方面有著重要的作用。除此之外,選擇與上下文相關(guān)的特征對于圖像定位和識別也很重要。在人類的視覺系統(tǒng)中,這種現(xiàn)象叫做注意力。人類在一次又一次的匆匆一瞥中觀察場景并注意與上下文相關(guān)的部分。在這個過程中,人類不僅注意選擇的區(qū)域,而且推理出關(guān)于那個位置的物體的不同解釋。因此,它有助于人類以更好的方式來抓取視覺結(jié)構(gòu)。類似的解釋能力被添加到像 RNN 和 LSTM 這樣的神經(jīng)網(wǎng)絡(luò)中。上述網(wǎng)絡(luò)利用注意力模塊來生成序列數(shù)據(jù),并且根據(jù)新樣本在先前迭代中的出現(xiàn)來對其加權(quán)。不同的研究者把注意力概念加入到 CNN 中來改進表征和克服數(shù)據(jù)的計算限制問題。注意力概念有助于讓 CNN 變得更加智能,使其在雜亂的背景和復(fù)雜的場景中也能識別物體。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4812

    瀏覽量

    103332
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22695

原文標題:7大類深度CNN架構(gòu)創(chuàng)新綜述

文章出處:【微信號:aicapital,微信公眾號:全球人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    GPU架構(gòu)深度解析

    GPU架構(gòu)深度解析從圖形處理到通用計算的進化之路圖形處理單元(GPU),作為現(xiàn)代計算機中不可或缺的一部分,已經(jīng)從最初的圖形渲染專用處理器,發(fā)展成為強大的并行計算引擎,廣泛應(yīng)用于人工智能、科學(xué)計算
    的頭像 發(fā)表于 05-30 10:36 ?317次閱讀
    GPU<b class='flag-5'>架構(gòu)</b><b class='flag-5'>深度</b>解析

    存儲示波器的存儲深度對信號分析有什么影響?

    存儲深度(Memory Depth)是數(shù)字示波器的核心參數(shù)之一,它直接決定了示波器在單次采集過程中能夠記錄的采樣點數(shù)量。存儲深度對信號分析的影響貫穿時域細節(jié)捕捉、頻域分析精度、觸發(fā)穩(wěn)定性等多個維度
    發(fā)表于 05-27 14:39

    兆易創(chuàng)新人形機器人方案 深度解讀

    三個維度展開深度解讀: 一、核心產(chǎn)品型號與應(yīng)用場景 (一)主控MCU:多場景精準適配 GD32H7系列(高性能計算) 代表型號 :GD32H75E(Cortex-M7內(nèi)核,600MHz主頻) 特性 : 雙發(fā)射6級流水線
    的頭像 發(fā)表于 05-07 15:56 ?435次閱讀

    解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)深度解析

    解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)深度解析 ——立即下載白皮書,搶占智能汽車發(fā)展先機 *附件:解鎖未來汽車電子技術(shù):軟件定義車輛與區(qū)域架構(gòu)深度解析.pdf 為什么這份白皮書值
    的頭像 發(fā)表于 04-27 11:58 ?541次閱讀

    大模型時代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時代 ,AI模型的參數(shù)規(guī)模都在百萬級別,僅需在單張消費顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,
    的頭像 發(fā)表于 04-25 11:43 ?235次閱讀
    大模型時代的<b class='flag-5'>深度</b>學(xué)習(xí)框架

    【AIBOX 應(yīng)用案例】單目深度估計

    ?Firefly所推出的NVIDIA系列的AIBOX可實現(xiàn)深度估計,該技術(shù)是一種從單張或者多張圖像預(yù)測場景深度信息的技術(shù),廣泛應(yīng)用于計算機視覺領(lǐng)域,尤其是在三維重建、場景理解和環(huán)境感知等任務(wù)中起到
    的頭像 發(fā)表于 03-19 16:33 ?393次閱讀
    【AIBOX 應(yīng)用案例】單目<b class='flag-5'>深度</b>估計

    靈汐科技開源深度學(xué)習(xí)應(yīng)用開發(fā)平臺BIDL

    富案例等問題,一直制約著其廣泛應(yīng)用。為了突破這一瓶頸,靈汐科技聯(lián)合腦啟社區(qū)正式宣布開源深度學(xué)習(xí)應(yīng)用開發(fā)平臺BIDL(Brain-inspired Deep Learning)。
    的頭像 發(fā)表于 03-05 09:13 ?884次閱讀
    靈汐科技開源<b class='flag-5'>類</b>腦<b class='flag-5'>深度</b>學(xué)習(xí)應(yīng)用開發(fā)平臺BIDL

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述深度學(xué)習(xí)的歷史和
    的頭像 發(fā)表于 02-14 11:15 ?512次閱讀

    FPGA做深度學(xué)習(xí)能走多遠?

    的發(fā)展前景較為廣闊,但也面臨一些挑戰(zhàn)。以下是一些關(guān)于 FPGA 在深度學(xué)習(xí)中應(yīng)用前景的觀點,僅供參考: ? 優(yōu)勢方面: ? 高度定制化的計算架構(gòu):FPGA 可以根據(jù)深度學(xué)習(xí)算法的特殊需求進行優(yōu)化,例如
    發(fā)表于 09-27 20:53

    深度識別算法包括哪些內(nèi)容

    深度識別算法是深度學(xué)習(xí)領(lǐng)域的一個重要組成部分,它利用深度神經(jīng)網(wǎng)絡(luò)模型對輸入數(shù)據(jù)進行高層次的理解和識別。深度識別算法涵蓋了多個方面的內(nèi)容,主要包括以下幾種類型: 1. 卷積神經(jīng)網(wǎng)絡(luò)(
    的頭像 發(fā)表于 09-10 15:28 ?809次閱讀

    ESP32 深度睡眠

    使用的是ESP32S2 idf 5.2.2 官方代碼歷程deep_sleep 進入深度睡眠 睡眠后功耗為1.9mA,一直降不下去。
    發(fā)表于 07-11 09:50

    為什么深度睡眠期間RTC定時器會丟失呢?

    RTC定時器在深度睡眠期間丟失是否是一種設(shè)計功能?我觀察到以下內(nèi)容(使用 SDK 1.3): The chip is awakened from deep sleep after a timer
    發(fā)表于 07-11 07:17

    圖像分割與語義分割中的CNN模型綜述

    圖像分割與語義分割是計算機視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個具有特定語義含義的區(qū)域或?qū)ο蟆>矸e神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,在圖像分割與語義分割中發(fā)揮著至關(guān)重要的作用。本文將從CNN模型的基本原理、在圖像分
    的頭像 發(fā)表于 07-09 11:51 ?1992次閱讀

    CNN與RNN的關(guān)系?

    深度學(xué)習(xí)的廣闊領(lǐng)域中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是兩種極為重要且各具特色的神經(jīng)網(wǎng)絡(luò)模型。它們各自在圖像處理、自然語言處理等領(lǐng)域展現(xiàn)出卓越的性能。本文將從概念、原理、應(yīng)用場景及代碼示例等方面詳細探討CNN與R
    的頭像 發(fā)表于 07-08 16:56 ?1627次閱讀

    CNN的定義和優(yōu)勢

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)作為深度學(xué)習(xí)領(lǐng)域的核心成員,不僅在學(xué)術(shù)界引起了廣泛關(guān)注,更在工業(yè)界尤其是計算機視覺領(lǐng)域展現(xiàn)出了巨大的應(yīng)用價值。關(guān)于
    的頭像 發(fā)表于 07-05 17:37 ?6021次閱讀
    主站蜘蛛池模板: 梧州市| 深州市| 金坛市| 仪陇县| 罗山县| 五台县| 揭阳市| 哈巴河县| 永善县| 修武县| 湖州市| 东台市| 咸宁市| 九寨沟县| 石城县| 阿尔山市| 青龙| 嘉鱼县| 房山区| 崇左市| 乌恰县| 德庆县| 万盛区| 越西县| 大英县| 德保县| 萝北县| 佳木斯市| 黄浦区| 略阳县| 红河县| 德保县| 南汇区| 安康市| 永城市| 枣庄市| 常熟市| 灵武市| 通海县| 即墨市| 通州区|