女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

信息保留的二值神經(jīng)網(wǎng)絡IR-Net,落地性能和實用性俱佳

倩倩 ? 來源:AI科技大本營 ? 2020-03-27 15:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在CVPR 2020上,商湯研究院鏈接與編譯組和北京航空航天大學劉祥龍老師團隊提出了一種旨在優(yōu)化前后向傳播中信息流的實用、高效的網(wǎng)絡二值化新算法IR-Net。不同于以往二值神經(jīng)網(wǎng)絡大多關注量化誤差方面,本文首次從統(tǒng)一信息的角度研究了二值網(wǎng)絡的前向和后向傳播過程,為網(wǎng)絡二值化機制的研究提供了全新視角。同時,該工作首次在ARM設備上進行了先進二值化算法效率驗證,顯示了IR-Net部署時的優(yōu)異性能和極高的實用性,有助于解決工業(yè)界關注的神經(jīng)網(wǎng)絡二值化落地的核心問題。

動機

二值神經(jīng)網(wǎng)絡因其存儲量小、推理效率高而受到社會的廣泛關注 [1]。然而與全精度的對應方法相比,現(xiàn)有的量化方法的精度仍然存在顯著的下降。

對神經(jīng)網(wǎng)絡的研究表明,網(wǎng)絡的多樣性是模型達到高性能的關鍵[2],保持這種多樣性的關鍵是:(1) 網(wǎng)絡在前向傳播過程中能夠攜帶足夠的信息;(2) 反向傳播過程中,精確的梯度為網(wǎng)絡優(yōu)化提供了正確的信息。二值神經(jīng)網(wǎng)絡的性能下降主要是由二值化的有限表示能力和離散性造成的,這導致了前向和反向傳播的嚴重信息損失,模型的多樣性急劇下降。同時,在二值神經(jīng)網(wǎng)絡的訓練過程中,離散二值化往往導致梯度不準確和優(yōu)化方向錯誤。如何解決以上問題,得到更高精度的二值神經(jīng)網(wǎng)絡?這一問題被研究者們廣泛關注,本文的動機在于:通過信息保留的思路,設計更高性能的二值神經(jīng)網(wǎng)絡。

基于以上動機,本文首次從信息流的角度研究了網(wǎng)絡二值化,提出了一種新的信息保持網(wǎng)絡(IR-Net):(1)在前向傳播中引入了一種稱為Libra參數(shù)二值化(Libra-PB)的平衡標準化量化方法,最大化量化參數(shù)的信息熵和最小化量化誤差;(2) 在反向傳播中采用誤差衰減估計器(EDE)來計算梯度,保證訓練開始時的充分更新和訓練結束時的精確梯度。

IR-Net提供了一個全新的角度來理解二值神經(jīng)網(wǎng)絡是如何運行的,并且具有很好的通用性,可以在標準的網(wǎng)絡訓練流程中進行優(yōu)化。作者使用CIFAR-10和ImageNet數(shù)據(jù)集上的圖像分類任務來評估提出的IR-Net,同時借助開源二值化推理庫daBNN進行了部署效率驗證。

方法設計

高精度二值神經(jīng)網(wǎng)絡訓練的瓶頸主要在于訓練過程中嚴重的信息損失。前向sign函數(shù)和后向梯度逼近所造成的信息損失嚴重影響了二值神經(jīng)網(wǎng)絡的精度。為了解決以上問題,本文提出了一種新的信息保持網(wǎng)絡(IR-Net)模型,它保留了訓練過程中的信息,實現(xiàn)了二值化模型的高精度。

前向傳播中的Libra Parameter Binarization(Libra-PB)

在此之前,絕大多數(shù)網(wǎng)絡二值化方法試圖減小二值化操作的量化誤差。然而,僅通過最小化量化誤差來獲得一個良好的二值網(wǎng)絡是不夠的。因此,Libra-PB設計的關鍵在于:使用信息熵指標,最大化二值網(wǎng)絡前向傳播過程中的信息流。

根據(jù)信息熵的定義,在二值網(wǎng)絡中,二值參數(shù)Qx(x)的熵可以通過以下公式計算:

如果單純地追求量化誤差最小化,在極端情況下,量化參數(shù)的信息熵甚至可以接近于零。因此,Libra-PB將量化值的量化誤差和二值參數(shù)的信息熵同時作為優(yōu)化目標,定義為:

在伯努利分布假設下,當p=0.5時,量化值的信息熵取最大值。

因此,在Libra-PB通過標準化和平衡操作獲得標準化平衡權重,如圖2所示,在Bernoulli分布下,由Libra-PB量化的參數(shù)具有最大的信息熵。有趣的是,對權重的簡單變換也可以極大改善前向過程中激活的信息流。因為此時,各層的二值激活值信息熵同樣可以最大化,這意味著特征圖中信息可以被保留。

在以往的二值化方法中,為了使量化誤差減小,幾乎所有方法都會引入浮點尺度因子來從數(shù)值上逼近原始參數(shù),這無疑將高昂的浮點運算引入其中。在Libra-PB中,為了進一步減小量化誤差,同時避免以往二值化方法中代價高昂的浮點運算,Libra-PB引入了整數(shù)移位標量s,擴展了二值權重的表示能力。

因此最終,針對正向傳播的Libra參數(shù)二值化可以表示如下:

IR-Net的主要運算操作可以表示為:

反向傳播中的Error Decay Estimator(EDE)

由于二值化的不連續(xù)性,梯度的近似對于反向傳播是不可避免的,這種對sign函數(shù)的近似帶來了兩種梯度的信息損失,包括截斷范圍外參數(shù)更新能力下降造成的信息損失,和截斷范圍內近似誤差造成的信息損失。為了更好的保留反向傳播中由損失函數(shù)導出的信息,平衡各訓練階段對于梯度的要求,EDE引入了一種漸進的兩階段近似梯度方法。

第一階段:保留反向傳播算法的更新能力。將梯度估計函數(shù)的導數(shù)值保持在接近1的水平,然后逐步將截斷值從一個大的數(shù)字降到1。利用這一規(guī)則,近似函數(shù)從接近Identity函數(shù)演化到Clip函數(shù),從而保證了訓練早期的更新能力。第二階段:使0附近的參數(shù)被更準確地更新。將截斷保持為1,并逐漸將導數(shù)曲線演變到階梯函數(shù)的形狀。利用這一規(guī)則,近似函數(shù)從Clip函數(shù)演變到sign函數(shù),從而保證了前向和反向傳播的一致性。

各階段EDE的形狀變化如圖3(c)所示。通過該設計,EDE減小了前向二值化函數(shù)和后向近似函數(shù)之間的差異,同時所有參數(shù)都能得到合理的更新。

實驗結果

作者使用了兩個基準數(shù)據(jù)集:CIFAR-10和ImageNet(ILSVRC12)進行了實驗。在兩個數(shù)據(jù)集上的實驗結果表明,IR-Net比現(xiàn)有的最先進方法更具競爭力。

Deployment Efficiency

為了進一步驗證IR-Net在實際移動設備中的部署效率,作者在1.2GHz 64位四核ARM Cortex-A53的Raspberry Pi 3B上進一步實現(xiàn)了IR-Net,并在實際應用中測試了其真實速度。表5顯示,IR-Net的推理速度要快得多,模型尺寸也大大減小,而且IR-Net中的位移操作幾乎不會帶來額外的推理時間和存儲消耗。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡的比較

    BP神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡在多個方面存在顯著差異,以下是對兩者的比較: 一、結構特點 BP神經(jīng)網(wǎng)絡 : BP神經(jīng)網(wǎng)絡是一種多層的前饋神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 02-12 15:53 ?630次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡的學習率

    優(yōu)化BP神經(jīng)網(wǎng)絡的學習率是提高模型訓練效率和性能的關鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡學習率的方法: 一、理解學習率的重要 學習率決定了模型參數(shù)在每次迭代時更新的幅度。過大的學習率可
    的頭像 發(fā)表于 02-12 15:51 ?903次閱讀

    什么是BP神經(jīng)網(wǎng)絡的反向傳播算法

    神經(jīng)網(wǎng)絡(即反向傳播神經(jīng)網(wǎng)絡)的核心,它建立在梯度下降法的基礎上,是一種適合于多層神經(jīng)元網(wǎng)絡的學習算法。該算法通過計算每層網(wǎng)絡的誤差,并將這些誤差反向傳播到前一層,從而調整權重,使得
    的頭像 發(fā)表于 02-12 15:18 ?740次閱讀

    BP神經(jīng)網(wǎng)絡與深度學習的關系

    ),是一種多層前饋神經(jīng)網(wǎng)絡,它通過反向傳播算法進行訓練。BP神經(jīng)網(wǎng)絡由輸入層、一個或多個隱藏層和輸出層組成,通過逐層遞減的方式調整網(wǎng)絡權重,目的是最小化網(wǎng)絡的輸出誤差。
    的頭像 發(fā)表于 02-12 15:15 ?828次閱讀

    人工神經(jīng)網(wǎng)絡的原理和多種神經(jīng)網(wǎng)絡架構方法

    所擬合的數(shù)學模型的形式受到大腦中神經(jīng)元的連接和行為的啟發(fā),最初是為了研究大腦功能而設計的。然而,數(shù)據(jù)科學中常用的神經(jīng)網(wǎng)絡作為大腦模型已經(jīng)過時,現(xiàn)在它們只是能夠在某些應用中提供最先進性能的機器學習模型。近年來,由于
    的頭像 發(fā)表于 01-09 10:24 ?1164次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡</b>架構方法

    一文詳解物理信息神經(jīng)網(wǎng)絡

    物理信息神經(jīng)網(wǎng)絡 (PINN) 是一種神經(jīng)網(wǎng)絡,它將微分方程描述的物理定律納入其損失函數(shù)中,以引導學習過程得出更符合基本物理定律的解。
    的頭像 發(fā)表于 12-05 16:50 ?8016次閱讀
    一文詳解物理<b class='flag-5'>信息</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    卷積神經(jīng)網(wǎng)絡與傳統(tǒng)神經(jīng)網(wǎng)絡的比較

    在深度學習領域,神經(jīng)網(wǎng)絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡是兩種常見的模型。 1. 結構差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 11-15 14:53 ?1820次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡的區(qū)別

    神經(jīng)網(wǎng)絡是機器學習領域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術的發(fā)展,神經(jīng)網(wǎng)絡的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?1103次閱讀

    LSTM神經(jīng)網(wǎng)絡的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(RNN),它能夠學習長期依賴信息。在處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1528次閱讀

    關于卷積神經(jīng)網(wǎng)絡,這些概念你厘清了么~

    神經(jīng)網(wǎng)絡的訓練中非常有效。卷積層使用一種被稱為卷積的數(shù)學運算來識別像素數(shù)組的模式。卷積發(fā)生在隱藏層中,如圖3所示。卷積會重復多次直至達到所需的精度水平。如果要比較的兩個輸入(本例是輸入圖像和濾波器
    發(fā)表于 10-24 13:56

    怎么對神經(jīng)網(wǎng)絡重新訓練

    發(fā)生變化,導致神經(jīng)網(wǎng)絡的泛化能力下降。為了保持神經(jīng)網(wǎng)絡性能,需要對其進行重新訓練。本文將詳細介紹重新訓練神經(jīng)網(wǎng)絡的步驟和方法。 數(shù)據(jù)預處理 數(shù)據(jù)預處理是重新訓練
    的頭像 發(fā)表于 07-11 10:25 ?846次閱讀

    遞歸神經(jīng)網(wǎng)絡和循環(huán)神經(jīng)網(wǎng)絡的模型結構

    遞歸神經(jīng)網(wǎng)絡是一種旨在處理分層結構的神經(jīng)網(wǎng)絡,使其特別適合涉及樹狀或嵌套數(shù)據(jù)的任務。這些網(wǎng)絡明確地模擬了層次結構中的關系和依賴關系,例如語言中的句法結構或圖像中的層次表示。它使用遞歸操作來分層處理
    的頭像 發(fā)表于 07-10 17:21 ?1261次閱讀
    遞歸<b class='flag-5'>神經(jīng)網(wǎng)絡</b>和循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的模型結構

    BP神經(jīng)網(wǎng)絡和卷積神經(jīng)網(wǎng)絡的關系

    BP神經(jīng)網(wǎng)絡(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,簡稱CNN)是兩種在人工智能和機器學習領域
    的頭像 發(fā)表于 07-10 15:24 ?2432次閱讀

    BP神經(jīng)網(wǎng)絡和人工神經(jīng)網(wǎng)絡的區(qū)別

    BP神經(jīng)網(wǎng)絡和人工神經(jīng)網(wǎng)絡(Artificial Neural Networks,簡稱ANNs)之間的關系與區(qū)別,是神經(jīng)網(wǎng)絡領域中一個基礎且重要的話題。本文將從定義、結構、算法、應用及未來發(fā)展等多個方面,詳細闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?2246次閱讀

    基于MATLAB的BP神經(jīng)網(wǎng)絡實現(xiàn)方式

    BP(Back-propagation,反向傳播)神經(jīng)網(wǎng)絡是一種多層前饋神經(jīng)網(wǎng)絡,通過反向傳播算法訓練,以最小化預測與實際之間的誤差。BP神經(jīng)網(wǎng)
    的頭像 發(fā)表于 07-10 15:14 ?1270次閱讀
    主站蜘蛛池模板: 乐清市| 虎林市| 凤凰县| 常熟市| 祁连县| 沙湾县| 辛集市| 福安市| 梁山县| 蒲江县| 南汇区| 中江县| 营山县| 基隆市| 赤壁市| 岚皋县| 西城区| 于都县| 望谟县| 英吉沙县| 保山市| 商水县| 德阳市| 定边县| 白沙| 达尔| 宝清县| 上饶市| 乳山市| 宁武县| 湖州市| 博乐市| 玉门市| 堆龙德庆县| 陵水| 桂平市| 台山市| 惠来县| 安岳县| 晴隆县| 万宁市|