女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

師法自然 淺談深度學習的多重角度

mK5P_AItists ? 來源:電子發(fā)燒友網(wǎng) ? 作者:工程師譚軍 ? 2018-07-10 08:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學習已經(jīng)成熟到可以教給高中生了么?

我思考的這個問題,源于不久前我收到的?封來自某大公司產品經(jīng)理的郵件。

我喜歡將私人通訊郵件公開于眾,所以我將郵件內容摘在下面:

來自:M.

你好 Ali, ...

你如何訓練團隊里的年輕成員,使得他們有更好的直覺和預判?我團隊里的工程師經(jīng)常從其他科研員那「借鑒」超參數(shù)的值,但他們太擔心要自己去調整參數(shù)了。...

我對著這封郵件思考了數(shù)日,卻沒有辦法找到?個有條理的答案。

如果說應該有正確答案的話,我想回復說:也許她的工程師應該要有這種擔心。

如果你是個工程師,你拿到了這個神經(jīng)網(wǎng)絡,然后你被要求去改進這個網(wǎng)絡在某個數(shù)據(jù)集上的表現(xiàn)。你也許會假設這每層都是有它自己的作用和功能,但在深度學習領域,我們目前還沒有統(tǒng)的語言和詞匯去描述這些功效。我們教授深度學習的方法和我們教授其他科學學科的方法很不同。

幾年前我迷上了光學。在光學領域,你會堆疊好幾層不同的組件以處理輸?shù)墓庠础@缦聢D,就是相機的鏡頭:

師法自然 淺談深度學習的多重角度

要設計這樣的系統(tǒng),你從最簡單的組件開始堆疊,這些組件往往以知名的發(fā)明者命名。然后通過仿真,你可 以判斷你的設計是否符合你的要求,然后再添加不同的組件去修正先前設計的缺陷。

緊接著你會各種數(shù)學優(yōu)化過程去調整這些組件的參數(shù),例如鏡面的形狀、位置和傾斜角度等等,去最大程度實現(xiàn)你的設計目標。你就重復如此仿真、修改、調優(yōu)的過程。

這很像我們設計深度網(wǎng)絡的過程。

上圖里所有的 36 個元素都是故意加?這個堆疊的系統(tǒng),以用于修正某項具體的偏差的。這樣的設計需要非常精確的解釋模型去描述什么樣的元素能夠對透過它的光有什么樣的效應。這個模型往往是關于這個元素的作用的,例如說折射、反射、衍射、散射和波前校正。

師法自然 淺談深度學習的多重角度

?們不害怕這樣的設計過程。每年,美國培養(yǎng)的許多?程師都能設計出有的鏡頭,他們并不為這樣的作感到擔心害怕。

這并不是因為光學很容易,而是因為我們對光學的模型了然在心。

現(xiàn)代光學是通過抽象出不同層級的知識內容去教授的。

師法自然 淺談深度學習的多重角度

在最頂級,也是最容易的層級,是幾何光學。幾何光學是對波光學的抽象,光射線于于表達簡單的矢量波光 學的波前矢量。而波光學?是對麥克斯韋方程的進?步簡化。麥克斯韋方程 由能由量子力學推導而出,量子力學則超出了我的理解范圍。

每?個層級都是通過作出?些簡化的假定由緊鄰的下?個層級推導?出,所以每?個層級能夠比上?個層級解釋更為復雜的現(xiàn)象。

師法自然 淺談深度學習的多重角度

我花了不少時間在頂四層抽象里設計系統(tǒng)。

這就是當今我們教授光學的方法。但相關理論并非總是如此按層級來組織。在百年前,這些理論還是在?個 相互矛盾的狀態(tài)中共存。實踐家們只能依賴于近乎道聽途說的光學理論。

但這并沒有阻止伽利略打造性能不錯的望遠鏡,而且是在牛頓形式化幾何光學前近?個世紀的時間點上。因 為伽利略對于如何造出能夠放大數(shù)?倍的望遠鏡有足夠好的解釋模型。但他對光學的理解,卻不足以讓他的望遠鏡能夠修正色差或者獲得廣視角。

在這些光學理論被抽象總結出來之前,每?項理論都需要從光的最基本概念出發(fā)。這就牽涉到要作出?套涵蓋許多也許不切實際的假設。牛頓的幾何光學把光假定作?束束可以被吸引、排斥的固體粒?。惠更斯則? 由「以太」作為介質的縱波去描述光,也就是說用類似聲波的方式去構建光。麥克斯韋也假設光經(jīng)由以太傳播。你從麥克斯韋方程的系數(shù)的名字也能窺得這種思路的??。

愚蠢的模型,確實。但它們可量化且有預測的能力。

這些假設,我們今天聽來也許覺得很愚蠢,但它們可量化而且有預測的能力。你可以隨意代入數(shù)字于其中并得到精準的量化預測。這對于工程師而言極其有用。

尋找用于描述每層深度學習網(wǎng)絡作用的模塊化語言

如果我們能夠像討論光纖穿越每?層鏡頭元素的作用那樣去討論神經(jīng)網(wǎng)絡每?層的作用,那么設計神經(jīng)網(wǎng)絡將會變得更容易。

我們說卷積層就像在輸?上滑動相應濾波器,然后說池化是處理了對應的非線性。但這只是非常低層次的描述,就像用麥克斯韋方程去解釋鏡頭的作用。

也許我們應該依賴于更高級抽象描述,具體表達某個量被神經(jīng)網(wǎng)絡的層級如何改變了,好比我們用鏡頭的具 體作用去解釋它如何彎曲光線那樣。

如果這種抽象也能夠量化,使得你只需要代?具體數(shù)值到某個公式里,它就能告訴你?個大概的量化分析,這樣你就能更好地設計你的網(wǎng)絡了。

我們離這樣的語言還很遠。我們先從簡單點的開始

上?也許只是我被自己的幻想帶跑了。

我們從簡單點的開始。我們對深度學習的運作方式有很多解釋模型。下?我會羅列?系列值得解釋的現(xiàn)象,然后我們看看?些現(xiàn)有的模型對這些現(xiàn)象解釋的能力有多強。

在開始之前,我得承認這種努力也許最后是徒勞的。光學花了 300 年在打磨自己的模型之上,而我只花了? 個周六下午,所以這只能算是博客上的?些個?觀點和想法。

現(xiàn)象:隨機梯度下降 (SGD) 的隨機初始化足夠好了。但細微的數(shù)字錯誤或者步長會使 SGD 失效。

很多?在實踐中發(fā)現(xiàn),對于如何累積梯度的細微調整,可以導致對整個測試集表現(xiàn)的巨大變化。例如說你只用GPU而不是 CPU 去訓練,結果可能會截然不同。

現(xiàn)象:淺的局部最優(yōu)值意味著比深的局部最優(yōu)值更好的泛化能力。

這種說法很時髦。有些?認為它是真的。有些?則用實際數(shù)據(jù)反駁。另外也有?給出了這個現(xiàn)象的變種 。眾說紛紜,爭議目前不斷。

這個現(xiàn)象也許有爭議性,但我還是先放在這里。

現(xiàn)象:批標準化層 (Batch Norm) 可以給 SGD 提速。

這個基本無爭議,我只能提供?個小例外。

現(xiàn)象:即使有很多局部最優(yōu)和鞍點,SGD 也表現(xiàn)卓越。

這個說法也包含了幾個小的點。經(jīng)常有人聲稱深度學習的損失表面充斥著鞍點和局部最優(yōu)。也有不同的 說法,要不就認為梯度下降可以遍歷這些區(qū)域,要不就認為梯度下降可以不遍歷這些區(qū)域,但都能給出泛化能力不錯的答案。也有說損失表面其實也沒那么不堪。

現(xiàn)象:Dropout 勝于其他隨機化策略。

我不知道如何正確分類類似 Dropout 的做法,所以我就稱之為「隨機化策略」了。

現(xiàn)象:深度網(wǎng)絡能夠記憶隨機標簽,但它們能泛化。

證據(jù)很直白,我的朋友們親自見證并主張這種說法。

對這些現(xiàn)象的解釋

對應上面列舉的這些現(xiàn)象,我在下面列舉我覺得最能解釋這些現(xiàn)象的理論,這些理論均來自我上面引用的論文。

師法自然 淺談深度學習的多重角度

先別激動,原因如下:

1. 我們嘗試解釋的這些現(xiàn)象部分有爭議。

2. 我沒辦法把這些解釋按照抽象層級組織好。光學好教學的特性也沒辦法在這?重現(xiàn)。

3. 我懷疑部分我引用的理論不正確。

我想說的是

有很多人正在加?這個領域,然而我們能夠給他們傳授的不過是近乎道聽途說的經(jīng)驗和?些預訓練好的深度網(wǎng)絡,然后就叫他們去繼續(xù)創(chuàng)新。我們甚?都不能認同我們要解釋的這些現(xiàn)象。所以我認為我們離能夠在高中教授這些內容還有很遠的距離。

那我們如何才能離這?步近點?

最好的不過是我們能夠就每?層深度網(wǎng)絡的功能作用,按照不同層級的抽象,給出對應的解釋模型。例如 說,神經(jīng)網(wǎng)絡里的折射、散射和衍射會是怎么樣的?也許你早就用具體的功能去思考神經(jīng)網(wǎng)絡,但我們就這些概念還沒有統(tǒng)?的語言。

我們應該把?系列確認的現(xiàn)象組織起來,然后才來進行理論上的解釋。例如說神經(jīng)網(wǎng)絡里的牛頓環(huán)、磁光克 爾效應和法拉第現(xiàn)象會是怎樣的?

我和一小批同事已經(jīng)開始了?項重大的實踐工作,嘗試去分類構建適合我們領域的解釋模型,去形式化它 們,并且用實驗去驗證它們。這項工作是巨大的,我認為第?步應該是構建?個分層級的深度學習解釋模 型,以用于高中的教學。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4813

    瀏覽量

    103399
  • 牛頓
    +關注

    關注

    0

    文章

    6

    瀏覽量

    6427
  • 深度學習
    +關注

    關注

    73

    文章

    5559

    瀏覽量

    122733

原文標題:解釋深度學習的新角度,來自光學的啟發(fā)

文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    軍事應用中深度學習的挑戰(zhàn)與機遇

    人工智能尤其是深度學習技術的最新進展,加速了不同應用領域的創(chuàng)新與發(fā)展。深度學習技術的發(fā)展深刻影響了軍事發(fā)展趨勢,導致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?514次閱讀

    深度自然匿名化:隱私保護與視覺完整性并存的未來!

    在科技快速發(fā)展的當下,個人隱私保護的需求日益凸顯。如何能在隱私保護的基礎上,保持視覺完整性,從而推動企業(yè)開發(fā)與創(chuàng)新? 深度自然匿名化(DNAT)已被證明是傳統(tǒng)模糊化方法的更優(yōu)替代方案,其復雜的算法和深度
    的頭像 發(fā)表于 01-15 15:57 ?4469次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>自然</b>匿名化:隱私保護與視覺完整性并存的未來!

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它致力于研究如何讓計算機能夠理解、解釋和生成人類語言。機器學習(Machine
    的頭像 發(fā)表于 12-05 15:21 ?1944次閱讀

    NPU在深度學習中的應用

    隨著人工智能技術的飛速發(fā)展,深度學習作為其核心驅動力之一,已經(jīng)在眾多領域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡處理單元)是專門為深度學習
    的頭像 發(fā)表于 11-14 15:17 ?1873次閱讀

    Pytorch深度學習訓練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學習訓練。
    的頭像 發(fā)表于 10-28 14:05 ?640次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學習</b>訓練的方法

    GPU深度學習應用案例

    能力,可以顯著提高圖像識別模型的訓練速度和準確性。例如,在人臉識別、自動駕駛等領域,GPU被廣泛應用于加速深度學習模型的訓練和推理過程。 二、自然語言處理 自然語言處理(NLP)是
    的頭像 發(fā)表于 10-27 11:13 ?1314次閱讀

    FPGA加速深度學習模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學習模型是當前硬件加速領域的一個熱門研究方向。以下是一些FPGA加速深度學習模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?1179次閱讀

    AI大模型與深度學習的關系

    AI大模型與深度學習之間存在著密不可分的關系,它們互為促進,相輔相成。以下是對兩者關系的介紹: 一、深度學習是AI大模型的基礎 技術支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?2847次閱讀

    FPGA做深度學習能走多遠?

    ,共同進步。 歡迎加入FPGA技術微信交流群14群! 交流問題(一) Q:FPGA做深度學習能走多遠?現(xiàn)在用FPGA做深度學習加速成為一個熱門,深鑒科技,商湯,曠視科技等都有基于FPG
    發(fā)表于 09-27 20:53

    PyTorch深度學習開發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學習框架,其開發(fā)環(huán)境的搭建對于深度學習研究者和開發(fā)者來說至關重要。在Windows操作系統(tǒng)上搭建PyTorch環(huán)境,需要綜合考慮多個方面,包括軟件安裝、
    的頭像 發(fā)表于 07-16 18:29 ?2438次閱讀

    深度學習算法在嵌入式平臺上的部署

    隨著人工智能技術的飛速發(fā)展,深度學習算法在各個領域的應用日益廣泛。然而,將深度學習算法部署到資源受限的嵌入式平臺上,仍然是一個具有挑戰(zhàn)性的任務。本文將從嵌入式平臺的特點、
    的頭像 發(fā)表于 07-15 10:03 ?3097次閱讀

    利用Matlab函數(shù)實現(xiàn)深度學習算法

    在Matlab中實現(xiàn)深度學習算法是一個復雜但強大的過程,可以應用于各種領域,如圖像識別、自然語言處理、時間序列預測等。這里,我將概述一個基本的流程,包括環(huán)境設置、數(shù)據(jù)準備、模型設計、訓練過程、以及測試和評估,并提供一個基于Mat
    的頭像 發(fā)表于 07-14 14:21 ?3596次閱讀

    深度學習中的時間序列分類方法

    的發(fā)展,基于深度學習的TSC方法逐漸展現(xiàn)出其強大的自動特征提取和分類能力。本文將從多個角度深度學習在時間序列分類中的應用進行綜述,探討常用
    的頭像 發(fā)表于 07-09 15:54 ?2090次閱讀

    深度學習中的無監(jiān)督學習方法綜述

    深度學習作為機器學習領域的一個重要分支,近年來在多個領域取得了顯著的成果,特別是在圖像識別、語音識別、自然語言處理等領域。然而,深度
    的頭像 發(fā)表于 07-09 10:50 ?1684次閱讀

    深度學習在視覺檢測中的應用

    能力,還使得機器能夠模仿人類的某些智能行為,如識別文字、圖像和聲音等。深度學習的引入,極大地推動了人工智能技術的發(fā)展,特別是在圖像識別、自然語言處理、語音識別等領域取得了顯著成果。
    的頭像 發(fā)表于 07-08 10:27 ?1266次閱讀
    主站蜘蛛池模板: 夏河县| 军事| 冕宁县| 安达市| 宜宾市| 新乡县| 保康县| 高雄市| 武川县| 调兵山市| 澄江县| 密山市| 无为县| 贵溪市| 六盘水市| 府谷县| 祁连县| 宾阳县| 万宁市| 岳阳市| 安化县| 玉山县| 宁化县| 安达市| 合水县| 宜良县| 奉新县| 宁波市| 九江县| 洮南市| 多伦县| 奎屯市| 内江市| 涪陵区| 东山县| 封开县| 台江县| 华蓥市| 山东省| 基隆市| 巢湖市|