女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

人工智能深度學習的未來展望

OaXG_jingzhengl ? 來源:未知 ? 作者:胡薇 ? 2018-07-30 16:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文是推出的人工智能深度學習綜述,也是Hinton、LeCun和Bengio三位大神首次合寫同一篇文章。該綜述在深度學習領域的重要性不言而喻,可以說是所有人入門深度學習的必讀作品。

本文上半部分深入淺出介紹深度學習的基本原理和核心優(yōu)勢,下半部分則詳解CNN、分布式特征表示、RNN及其不同的應用,并對深度學習技術的未來發(fā)展進行展望。

深度學習可以讓那些擁有多個處理層的計算模型來學習具有多層次抽象的數(shù)據(jù)的表示。這些方法在許多方面都帶來了顯著的改善,包括較先進的語音識別、視覺對象識別、對象檢測和許多其它領域,例如藥物發(fā)現(xiàn)和基因組學等。深度學習能夠發(fā)現(xiàn)大數(shù)據(jù)中的復雜結構。它是利用BP算法來完成這個發(fā)現(xiàn)過程的。BP算法能夠指導機器如何從前一層獲取誤差而改變本層的內部參數(shù),這些內部參數(shù)可以用于計算表示。深度卷積網(wǎng)絡在處理圖像、視頻、語音和音頻方面帶來了突破,而遞歸網(wǎng)絡在處理序列數(shù)據(jù),比如文本和演講方面表現(xiàn)出了閃亮的一面。

機器學習技術在現(xiàn)代社會的各個方面表現(xiàn)出了強大的功能:從Web搜索到社會網(wǎng)絡內容過濾,再到電子商務網(wǎng)站上的商品推薦都有涉足。并且它越來越多地出現(xiàn)在消費品中,比如相機和智能手機

機器學習系統(tǒng)被用來識別圖片中的目標,將語音轉換成文本,匹配新聞元素,根據(jù)用戶興趣提供職位或產(chǎn)品,選擇相關的搜索結果。逐漸地,這些應用使用一種叫深度學習的技術。傳統(tǒng)的機器學習技術在處理未加工過的數(shù)據(jù)時,體現(xiàn)出來的能力是有限的。

幾十年來,想要構建一個模式識別系統(tǒng)或者機器學習系統(tǒng),需要一個精致的引擎和相當專業(yè)的知識來設計一個特征提取器,把原始數(shù)據(jù)(如圖像的像素值)轉換成一個適當?shù)膬炔刻卣鞅硎净蛱卣飨蛄浚訉W習系統(tǒng),通常是一個分類器,對輸入的樣本進行檢測或分類。特征表示學習是一套給機器灌入原始數(shù)據(jù),然后能自動發(fā)現(xiàn)需要進行檢測和分類的表達的方法。

深度學習就是一種特征學習方法,把原始數(shù)據(jù)通過一些簡單的但是非線性的模型轉變成為更高層次的,更加抽象的表達。通過足夠多的轉換的組合,非常復雜的函數(shù)也可以被學習。

對于分類任務,高層次的表達能夠強化輸入數(shù)據(jù)的區(qū)分能力方面,同時削弱不相關因素。比如,一副圖像的原始格式是一個像素數(shù)組,那么在第一層上的學習特征表達通常指的是在圖像的特定位置和方向上有沒有邊的存在。第二層通常會根據(jù)那些邊的某些排放而來檢測圖案,這時候會忽略掉一些邊上的一些小的干擾。第三層或許會把那些圖案進行組合,從而使其對應于熟悉目標的某部分。隨后的一些層會將這些部分再組合,從而構成待檢測目標。

深度學習的核心方面是,上述各層的特征都不是利用人工工程來設計的,而是使用一種通用的學習過程從數(shù)據(jù)中學到的。

深度學習正在取得重大進展,解決了人工智能界的盡較大努力很多年仍沒有進展的問題。它已經(jīng)被證明,它能夠擅長發(fā)現(xiàn)高維數(shù)據(jù)中的復雜結構,因此它能夠被應用于科學、商業(yè)和政府等領域。除了在圖像識別、語音識別等領域打破了紀錄,它還在另外的領域擊敗了其他機器學習技術,包括預測潛在的藥物分子的活性、分析粒子加速器數(shù)據(jù)、重建大腦回路、預測在非編碼DNA突變對基因表達和疾病的影響。

也許更令人驚訝的是,深度學習在自然語言理解的各項任務中產(chǎn)生了非常可喜的成果,特別是主題分類、情感分析、自動問答和語言翻譯。我們認為,在不久的將來,深度學習將會取得更多的成功,因為它需要很少的手工工程,它可以很容易受益于可用計算能力和數(shù)據(jù)量的增加。目前正在為深度神經(jīng)網(wǎng)絡開發(fā)的新的學習算法和架構只會加速這一進程。

監(jiān)督學習

機器學習中,不論是否是深層,最常見的形式是監(jiān)督學習。

試想一下,我們要建立一個系統(tǒng),它能夠對一個包含了一座房子、一輛汽車、一個人或一個寵物的圖像進行分類。我們先收集大量的房子,汽車,人與寵物的圖像的數(shù)據(jù)集,并對每個對象標上它的類別。

在訓練期間,機器會獲取一副圖片,然后產(chǎn)生一個輸出,這個輸出以向量形式的分數(shù)來表示,每個類別都有一個這樣的向量。我們希望所需的類別在所有的類別中具有較高的得分,但是這在訓練之前是不太可能發(fā)生的。通過計算一個目標函數(shù)可以獲得輸出分數(shù)和期望模式分數(shù)之間的誤差(或距離)。然后機器會修改其內部可調參數(shù),以減少這種誤差。這些可調節(jié)的參數(shù),通常被稱為權值,它們是一些實數(shù),可以被看作是一些“旋鈕”,定義了機器的輸入輸出功能。

在典型的深學習系統(tǒng)中,有可能有數(shù)以百萬計的樣本和權值,和帶有標簽的樣本,用來訓練機器。為了正確地調整權值向量,該學習算法計算每個權值的梯度向量,表示了如果權值增加了一個很小的量,那么誤差會增加或減少的量。權值向量然后在梯度矢量的相反方向上進行調整。我們的目標函數(shù),所有訓練樣本的平均,可以被看作是一種在權值的高維空間上的多變地形。負的梯度矢量表示在該地形中下降方向最快,使其更接近于最小值,也就是平均輸出誤差低較低的地方。

在實際應用中,大部分從業(yè)者都使用一種稱作隨機梯度下降的算法(SGD)。它包含了提供一些輸入向量樣本,計算輸出和誤差,計算這些樣本的平均梯度,然后相應的調整權值。通過提供小的樣本集合來重復這個過程用以訓練網(wǎng)絡,直到目標函數(shù)停止增長。它被稱為隨機的是因為小的樣本集對于全體樣本的平均梯度來說會有噪聲估計。這個簡單過程通常會找到一組不錯的權值,同其他精心設計的優(yōu)化技術相比,它的速度讓人驚奇。訓練結束之后,系統(tǒng)會通過不同的數(shù)據(jù)樣本——測試集來顯示系統(tǒng)的性能。這用于測試機器的泛化能力——對于未訓練過的新樣本的識別能力。

當前應用中的許多機器學習技術使用的是線性分類器來對人工提取的特征進行分類。一個2類線性分類器會計算特征向量的加權和。當加權和超過一個閾值之后,輸入樣本就會被分配到一個特定的類別中。從20世紀60年代開始,我們就知道了線性分類器只能夠把樣本分成非常簡單的區(qū)域,也就是說通過一個超平面把空間分成兩部分。

但像圖像和語音識別等問題,它們需要的輸入-輸出函數(shù)要對輸入樣本中不相關因素的變化不要過于的敏感,如位置的變化,目標的方向或光照,或者語音中音調或語調的變化等,但是需要對于一些特定的微小變化非常敏感(例如,一只白色的狼和跟狼類似的白色狗——薩莫耶德犬之間的差異)。在像素這一級別上,兩條薩莫耶德犬在不同的姿勢和在不同的環(huán)境下的圖像可以說差異是非常大的,然而,一只薩摩耶德犬和一只狼在相同的位置并在相似背景下的兩個圖像可能就非常類似。

圖1 多層神經(jīng)網(wǎng)絡和BP算法

多層神經(jīng)網(wǎng)絡(用連接點表示)可以對輸入空間進行整合,使得數(shù)據(jù)(紅色和藍色線表示的樣本)線性可分。注意輸入空間中的規(guī)則網(wǎng)格(左側)是如何被隱藏層轉換的(轉換后的在右側)。這個例子中只用了兩個輸入節(jié)點,兩個隱藏節(jié)點和一個輸出節(jié)點,但是用于目標識別或自然語言處理的網(wǎng)絡通常包含數(shù)十個或者數(shù)百個這樣的節(jié)點。獲得C.Olah(http://colah.github.io/) 的許可后重新構建的這個圖。

鏈式法則告訴我們兩個小的變化(x和y的微小變化,以及y和z的微小變化)是怎樣組織到一起的。x的微小變化量Δx首先會通過乘以?y/?x(偏導數(shù))轉變成y的變化量Δy。類似的,Δy會給z帶來改變Δz。通過鏈式法則可以將一個方程轉化到另外的一個——也就是Δx通過乘以?y/?x和?z/?x得到Δz的過程。當x,y,z是向量的時候,可以同樣處理(使用雅克比矩陣)。

具有兩個隱層一個輸出層的神經(jīng)網(wǎng)絡中計算前向傳播的公式。每個都有一個模塊構成,用于反向傳播梯度。在每一層上,我們首先計算每個節(jié)點的總輸入z,z是前一層輸出的加權和。然后利用一個非線性函數(shù)f(.)來計算節(jié)點的輸出。簡單期間,我們忽略掉了閾值項。神經(jīng)網(wǎng)絡中常用的非線性函數(shù)包括了最近幾年常用的校正線性單元(ReLU)f(z) = max(0,z),和傳統(tǒng)的sigmoids,比如f(z) = (exp(z) ? exp(?z))/(exp(z) + exp(?z)) 和f(z) = 1/(1 + exp(?z))。

計算反向傳播的公式。在隱層,我們計算每個輸出單元產(chǎn)生的誤差,這是由上一層產(chǎn)生的誤差的加權和。然后我們將輸出層的誤差通過乘以梯度f(z)轉換到輸入層。在輸出層上,每個節(jié)點的誤差會用成本函數(shù)的微分來計算。如果節(jié)點l的成本函數(shù)是0.5*(yl-tl)^2, 那么節(jié)點的誤差就是yl-tl,其中tl是期望值。一旦知道了?E/?zk的值,節(jié)點j的內星權向量wjk就可以通過yj ?E/?zk來進行調整。

一個線性分類器或者其他操作在原始像素上的淺層分類器不能夠區(qū)分后兩者,雖然能夠將前者歸為同一類。這就是為什么淺分類要求有良好的特征提取器用于解決選擇性不變性困境——提取器會挑選出圖像中能夠區(qū)分目標的那些重要因素,但是這些因素對于分辨動物的位置就無能為力了。為了加強分類能力,可以使用泛化的非線性特性,如核方法,但這些泛化特征,比如通過高斯核得到的,并不能夠使得學習器從學習樣本中產(chǎn)生較好的泛化效果。

傳統(tǒng)的方法是手工設計良好的特征提取器,這需要大量的工程技術和專業(yè)領域知識。但是如果通過使用通用學習過程而得到良好的特征,那么這些都是可以避免的了。這就是深度學習的關鍵優(yōu)勢。

深度學習的體系結構是簡單模塊的多層棧,所有(或大部分)模塊的目標是學習,還有許多計算非線性輸入輸出的映射。棧中的每個模塊將其輸入進行轉換,以增加表達的可選擇性和不變性。比如說,具有一個5到20層的非線性多層系統(tǒng)能夠實現(xiàn)非常復雜的功能,比如輸入數(shù)據(jù)對細節(jié)非常敏感——能夠區(qū)分白狼和薩莫耶德犬,同時又具有強大的抗干擾能力,比如可以忽略掉不同的背景、姿勢、光照和周圍的物體等。

用反向傳播訓練多層神經(jīng)網(wǎng)絡

在最早期的模式識別任務中,研究者的目標一直是使用可以訓練的多層網(wǎng)絡來替代經(jīng)過人工選擇的特征,雖然使用多層神經(jīng)網(wǎng)絡很簡單,但是得出來的解很糟糕。直到20世紀80年代,使用簡單的隨機梯度下降來訓練多層神經(jīng)網(wǎng)絡,這種糟糕的情況才有所改變。只要網(wǎng)絡的輸入和內部權值之間的函數(shù)相對平滑,使用梯度下降就湊效,梯度下降方法是在70年代到80年代期間由不同的研究團隊獨立發(fā)明的。

用來求解目標函數(shù)關于多層神經(jīng)網(wǎng)絡權值梯度的反向傳播算法(BP)只是一個用來求導的鏈式法則的具體應用而已。反向傳播算法的核心思想是:目標函數(shù)對于某層輸入的導數(shù)(或者梯度)可以通過向后傳播對該層輸出(或者下一層輸入)的導數(shù)求得(如圖1)。反向傳播算法可以被重復的用于傳播梯度通過多層神經(jīng)網(wǎng)絡的每一層:從該多層神經(jīng)網(wǎng)絡的最頂層的輸出(也就是改網(wǎng)絡產(chǎn)生預測的那一層)一直到該多層神經(jīng)網(wǎng)絡的最底層(也就是被接受外部輸入的那一層),一旦這些關于(目標函數(shù)對)每層輸入的導數(shù)求解完,我們就可以求解每一層上面的(目標函數(shù)對)權值的梯度了。

很多深度學習的應用都是使用前饋式神經(jīng)網(wǎng)絡(如圖1),該神經(jīng)網(wǎng)絡學習一個從固定大小輸入(比如輸入是一張圖)到固定大小輸出(例如,到不同類別的概率)的映射。從第一層到下一層,計算前一層神經(jīng)元輸入數(shù)據(jù)的權值的和,然后把這個和傳給一個非線性激活函數(shù)。當前最流行的非線性激活函數(shù)是rectified linear unit(ReLU),函數(shù)形式:f(z)=max(z,0)。過去的幾十年中,神經(jīng)網(wǎng)絡使用一些更加平滑的非線性函數(shù),比如tanh(z)和1/(1+exp(-z)),但是ReLU通常會讓一個多層神經(jīng)網(wǎng)絡學習的更快,也可以讓一個深度網(wǎng)絡直接有監(jiān)督的訓練(不需要無監(jiān)督的pre-train)。

達到之前那種有pre-train的效果。通常情況下,輸入層和輸出層以外的神經(jīng)單元被稱為隱藏單元。隱藏層的作用可以看成是使用一個非線性的方式打亂輸入數(shù)據(jù),來讓輸入數(shù)據(jù)對應的類別在最后一層變得線性可分。

在20世紀90年代晚期,神經(jīng)網(wǎng)絡和反向傳播算法被大多數(shù)機器學習團隊拋棄,同時也不受計算機視覺和語音識別團隊的重視。人們普遍認為,學習有用的、多級層次結構的、使用較少先驗知識進行特征提取的這些方法都不靠譜。確切的說是因為簡單的梯度下降會讓整個優(yōu)化陷入到不好的局部最小解。

實踐中,如果在大的網(wǎng)絡中,不管使用什么樣的初始化條件,局部最小解并不算什么大問題,系統(tǒng)總是得到效果差不多的解。最近的理論和實驗表明,局部最小解還真不是啥大問題。相反,解空間中充滿了大量的鞍點(梯度為0的點),同時鞍點周圍大部分曲面都是往上的。所以這些算法就算是陷入了這些局部最小值,關系也不太大。

2006年前后,CIFAR(加拿大高級研究院)把一些研究者聚集在一起,人們對深度前饋式神經(jīng)網(wǎng)絡重新燃起了興趣。研究者們提出了一種非監(jiān)督的學習方法,這種方法可以創(chuàng)建一些網(wǎng)絡層來檢測特征而不使用帶標簽的數(shù)據(jù),這些網(wǎng)絡層可以用來重構或者對特征檢測器的活動進行建模。通過預訓練過程,深度網(wǎng)絡的權值可以被初始化為有意思的值。然后一個輸出層被添加到該網(wǎng)絡的頂部,并且使用標準的反向傳播算法進行微調。這個工作對手寫體數(shù)字的識別以及行人預測任務產(chǎn)生了顯著的效果,尤其是帶標簽的數(shù)據(jù)非常少的時候。

使用這種與訓練方法做出來的第一個比較大的應用是關于語音識別的,并且是在GPU上做的,這樣做是因為寫代碼很方便,并且在訓練的時候可以得到10倍或者20倍的加速。2009年,這種方法被用來映射短時間的系數(shù)窗口,該系統(tǒng)窗口是提取自聲波并被轉換成一組概率數(shù)字。它在一組使用很少詞匯的標準的語音識別基準測試程序上達到了驚人的效果,然后又迅速被發(fā)展到另外一個更大的數(shù)據(jù)集上,同時也取得驚人的效果。從2009年到到2012年底,較大的語音團隊開發(fā)了這種深度網(wǎng)絡的多個版本并且已經(jīng)被用到了安卓手機上。對于小的數(shù)據(jù)集來說,無監(jiān)督的預訓練可以防止過擬合,同時可以帶來更好的泛化性能當有標簽的樣本很小的時候。一旦深度學習技術重新恢復,這種預訓練只有在數(shù)據(jù)集合較少的時候才需要。

然后,還有一種深度前饋式神經(jīng)網(wǎng)絡,這種網(wǎng)絡更易于訓練并且比那種全連接的神經(jīng)網(wǎng)絡的泛化性能更好。這就是卷積神經(jīng)網(wǎng)絡(CNN)。當人們對神經(jīng)網(wǎng)絡不感興趣的時候,卷積神經(jīng)網(wǎng)絡在實踐中卻取得了很多成功,如今它被計算機視覺團隊廣泛使用。

卷積神經(jīng)網(wǎng)絡

卷積神經(jīng)網(wǎng)絡被設計用來處理到多維數(shù)組數(shù)據(jù)的,比如一個有3個包含了像素值2-D圖像組合成的一個具有3個顏色通道的彩色圖像。很多數(shù)據(jù)形態(tài)都是這種多維數(shù)組的:1D用來表示信號和序列包括語言,2D用來表示圖像或者聲音,3D用來表示視頻或者有聲音的圖像。卷積神經(jīng)網(wǎng)絡使用4個關鍵的想法來利用自然信號的屬性:局部連接、權值共享、池化以及多網(wǎng)絡層的使用。

圖2 卷積神經(jīng)網(wǎng)絡內部

一個典型的卷積神經(jīng)網(wǎng)絡結構(如圖2)是由一系列的過程組成的。最初的幾個階段是由卷積層和池化層組成,卷積層的單元被組織在特征圖中,在特征圖中,每一個單元通過一組叫做濾波器的權值被連接到上一層的特征圖的一個局部塊,然后這個局部加權和被傳給一個非線性函數(shù),比如ReLU。在一個特征圖中的全部單元享用相同的過濾器,不同層的特征圖使用不同的過濾器。使用這種結構處于兩方面的原因。

首先,在數(shù)組數(shù)據(jù)中,比如圖像數(shù)據(jù),一個值的附近的值經(jīng)常是高度相關的,可以形成比較容易被探測到的有區(qū)分性的局部特征。其次,不同位置局部統(tǒng)計特征不太相關的,也就是說,在一個地方出現(xiàn)的某個特征,也可能出現(xiàn)在別的地方,所以不同位置的單元可以共享權值以及可以探測相同的樣本。在數(shù)學上,這種由一個特征圖執(zhí)行的過濾操作是一個離線的卷積,卷積神經(jīng)網(wǎng)絡也是這么得名來的。

卷積層的作用是探測上一層特征的局部連接,然而池化層的作用是在語義上把相似的特征合并起來,這是因為形成一個主題的特征的相對位置不太一樣。一般地,池化單元計算特征圖中的一個局部塊的較大值,相鄰的池化單元通過移動一行或者一列來從小塊上讀取數(shù)據(jù),因為這樣做就減少的表達的維度以及對數(shù)據(jù)的平移不變性。兩三個這種的卷積、非線性變換以及池化被串起來,后面再加上一個更多卷積和全連接層。在卷積神經(jīng)網(wǎng)絡上進行反向傳播算法和在一般的深度網(wǎng)絡上是一樣的,可以讓所有的在過濾器中的權值得到訓練。

深度神經(jīng)網(wǎng)絡利用的很多自然信號是層級組成的屬性,在這種屬性中高級的特征是通過對低級特征的組合來實現(xiàn)的。在圖像中,局部邊緣的組合形成基本圖案,這些圖案形成物體的局部,然后再形成物體。這種層級結構也存在于語音數(shù)據(jù)以及文本數(shù)據(jù)中,如電話中的聲音,因素,音節(jié),文檔中的單詞和句子。當輸入數(shù)據(jù)在前一層中的位置有變化的時候,池化操作讓這些特征表示對這些變化具有魯棒性。

卷積神經(jīng)網(wǎng)絡中的卷積和池化層靈感直接來源于視覺神經(jīng)科學中的簡單細胞和復雜細胞。這種細胞的是以LNG-V1-V2-V4-IT這種層級結構形成視覺回路的。當給一個卷積神經(jīng)網(wǎng)絡和猴子一副相同的圖片的時候,卷積神經(jīng)網(wǎng)絡展示了猴子下顳葉皮質中隨機160個神經(jīng)元的變化。卷積神經(jīng)網(wǎng)絡有神經(jīng)認知的根源,他們的架構有點相似,但是在神經(jīng)認知中是沒有類似反向傳播算法這種端到端的監(jiān)督學習算法的。一個比較原始的1D卷積神經(jīng)網(wǎng)絡被稱為時延神經(jīng)網(wǎng)絡,可以被用來識別語音以及簡單的單詞。

20世紀90年代以來,基于卷積神經(jīng)網(wǎng)絡出現(xiàn)了大量的應用。最開始是用時延神經(jīng)網(wǎng)絡來做語音識別以及文檔閱讀。這個文檔閱讀系統(tǒng)使用一個被訓練好的卷積神經(jīng)網(wǎng)絡和一個概率模型,這個概率模型實現(xiàn)了語言方面的一些約束。20世紀90年代末,這個系統(tǒng)被用來美國超過10%的支票閱讀上。后來,微軟開發(fā)了基于卷積神經(jīng)網(wǎng)絡的字符識別系統(tǒng)以及手寫體識別系統(tǒng)。20世紀90年代早期,卷積神經(jīng)網(wǎng)絡也被用來自然圖形中的物體識別,比如臉、手以及人臉識別(face recognition )。

使用深度卷積網(wǎng)絡進行圖像理解

21世紀開始,卷積神經(jīng)網(wǎng)絡就被成功的大量用于檢測、分割、物體識別以及圖像的各個領域。這些應用都是使用了大量的有標簽的數(shù)據(jù),比如交通信號識別,生物信息分割,面部探測,文本、行人以及自然圖形中的人的身體部分的探測。近年來,卷積神經(jīng)網(wǎng)絡的一個重大成功應用是人臉識別。

值得一提的是,圖像可以在像素級別進行打標簽,這樣就可以應用在比如自動電話接聽機器人自動駕駛汽車等技術中。像Mobileye以及NVIDIA公司正在把基于卷積神經(jīng)網(wǎng)絡的方法用于汽車中的視覺系統(tǒng)中。其它的應用涉及到自然語言的理解以及語音識別中。

圖3 從圖像到文字

盡管卷積神經(jīng)網(wǎng)絡應用的很成功,但是它被計算機視覺以及機器學習團隊開始重視是在2012年的ImageNet競賽。在該競賽中,深度卷積神經(jīng)網(wǎng)絡被用在上百萬張網(wǎng)絡圖片數(shù)據(jù)集,這個數(shù)據(jù)集包含了1000個不同的類。該結果達到了前所未有的好,幾乎比當時較好的方法降低了一半的錯誤率。這個成功來自有效地利用了GPU、ReLU、一個新的被稱為dropout的正則技術,以及通過分解現(xiàn)有樣本產(chǎn)生更多訓練樣本的技術。這個成功給計算機視覺帶來一個革命。如今,卷積神經(jīng)網(wǎng)絡用于幾乎全部的識別和探測任務中。最近一個更好的成果是,利用卷積神經(jīng)網(wǎng)絡結合回饋神經(jīng)網(wǎng)絡用來產(chǎn)生圖像標題。

如今的卷積神經(jīng)網(wǎng)絡架構有10-20層采用ReLU激活函數(shù)、上百萬個權值以及幾十億個連接。然而訓練如此大的網(wǎng)絡兩年前就只需要幾周了,現(xiàn)在硬件、軟件以及算法并行的進步,又把訓練時間壓縮到了幾小時。

基于卷積神經(jīng)網(wǎng)絡的視覺系統(tǒng)的性能已經(jīng)引起了大型技術公司的注意,比如Google、Facebook、Microsoft、IBM,yahoo!、Twitter和Adobe等,一些快速增長的創(chuàng)業(yè)公司也同樣如是。

卷積神經(jīng)網(wǎng)絡很容易在芯片或者現(xiàn)場可編程門陣列(FPGA)中高效實現(xiàn),許多公司比如NVIDIA、Mobileye、Intel、Qualcomm以及Samsung,正在開發(fā)卷積神經(jīng)網(wǎng)絡芯片,以使智能機、相機、機器人以及自動駕駛汽車中的實時視覺系統(tǒng)成為可能。

分布式特征表示與語言處理

與不使用分布式特征表示(distributed representations )的經(jīng)典學習算法相比,深度學習理論表明深度網(wǎng)絡具有兩個不同的巨大的優(yōu)勢。這些優(yōu)勢來源于網(wǎng)絡中各節(jié)點的權值,并取決于具有合理結構的底層生成數(shù)據(jù)的分布。首先,學習分布式特征表示能夠泛化適應新學習到的特征值的組合(比如,n元特征就有2n種可能的組合)。其次,深度網(wǎng)絡中組合表示層帶來了另一個指數(shù)級的優(yōu)勢潛能(指數(shù)級的深度)。

多層神經(jīng)網(wǎng)絡中的隱層利用網(wǎng)絡中輸入的數(shù)據(jù)進行特征學習,使之更加容易預測目標輸出。下面是一個很好的示范例子,比如將本地文本的內容作為輸入,訓練多層神經(jīng)網(wǎng)絡來預測句子中下一個單詞。內容中的每個單詞表示為網(wǎng)絡中的N分之一的向量,也就是說,每個組成部分中有一個值為1其余的全為0。在第一層中,每個單詞創(chuàng)建不同的激活狀態(tài),或單詞向量(如圖4)。在語言模型中,網(wǎng)絡中其余層學習并轉化輸入的單詞向量為輸出單詞向量來預測句子中下一個單詞,可以通過預測詞匯表中的單詞作為文本句子中下一個單詞出現(xiàn)的概率。網(wǎng)絡學習了包含許多激活節(jié)點的、并且可以解釋為詞的獨立特征的單詞向量,正如第一次示范的文本學習分層表征文字符號的例子。這些語義特征在輸入中并沒有明確的表征。

而是在利用“微規(guī)則”(‘micro-rules’,本文中直譯為:微規(guī)則)學習過程中被發(fā)掘,并作為一個分解輸入與輸出符號之間關系結構的好的方式。當句子是來自大量的真實文本并且個別的微規(guī)則不可靠的情況下,學習單詞向量也一樣能表現(xiàn)得很好。利用訓練好的模型預測新的事例時,一些概念比較相似的詞容易混淆,比如星期二(Tuesday)和星期三(Wednesday),瑞典(Sweden)和挪威(Norway)。這樣的表示方式被稱為分布式特征表示,因為他們的元素之間并不互相排斥,并且他們的構造信息對應于觀測到的數(shù)據(jù)的變化。這些單詞向量是通過學習得到的特征構造的,這些特征不是由專家決定的,而是由神經(jīng)網(wǎng)絡自動發(fā)掘的。從文本中學習得單詞向量表示現(xiàn)在廣泛應用于自然語言中。

圖4 詞向量學習可視化

特征表示問題爭論的中心介于對基于邏輯啟發(fā)和基于神經(jīng)網(wǎng)絡的認識。在邏輯啟發(fā)的范式中,一個符號實體表示某一事物,因為其的屬性與其他符號實體相同或者不同。該符號實例沒有內部結構,并且結構與使用是相關的,至于理解符號的語義,就必須與變化的推理規(guī)則合理對應。相反地,神經(jīng)網(wǎng)絡利用了大量活動載體、權值矩陣和標量非線性化,來實現(xiàn)能夠支撐簡單容易的、具有常識推理的快速“直覺”功能。

在介紹神經(jīng)語言模型前,簡述下標準方法,其是基于統(tǒng)計的語言模型,該模型沒有使用分布式特征表示。而是基于統(tǒng)計簡短符號序列出現(xiàn)的頻率增長到N(N-grams,N元文法)。可能的N-grams的數(shù)字接近于VN,其中V是詞匯表的大小,考慮到文本內容包含成千上萬個單詞,所以需要一個非常大的語料庫。N-grams將每個單詞看成一個原子單元,因此不能在語義相關的單詞序列中一概而論,然而神經(jīng)網(wǎng)絡語言模型可以,是因為他們關聯(lián)每個詞與真是特征值的向量,并且在向量空間中語義相關的詞彼此靠近(圖4)。

遞歸神經(jīng)網(wǎng)絡

首次引入反向傳播算法時,最令人興奮的便是使用遞歸神經(jīng)網(wǎng)絡(recurrent neural networks,下文簡稱RNNs)訓練。對于涉及到序列輸入的任務,比如語音和語言,利用RNNs能獲得更好的效果。RNNs一次處理一個輸入序列元素,同時維護網(wǎng)絡中隱式單元中隱式的包含過去時刻序列元素的歷史信息的“狀態(tài)向量”。如果是深度多層網(wǎng)絡不同神經(jīng)元的輸出,我們就會考慮這種在不同離散時間步長的隱式單元的輸出,這將會使我們更加清晰怎么利用反向傳播來訓練RNNs(如圖5,右)。

圖5 遞歸神經(jīng)網(wǎng)絡

RNNs是非常強大的動態(tài)系統(tǒng),但是訓練它們被證實存在問題的,因為反向傳播的梯度在每個時間間隔內是增長或下降的,所以經(jīng)過一段時間后將導致結果的激增或者降為零。

由于先進的架構和訓練方式,RNNs被發(fā)現(xiàn)可以很好的預測文本中下一個字符或者句子中下一個單詞,并且可以應用于更加復雜的任務。例如在某時刻閱讀英語句子中的單詞后,將會訓練一個英語的“編碼器”網(wǎng)絡,使得隱式單元的最終狀態(tài)向量能夠很好地表征句子所要表達的意思或思想。這種“思想向量”(thought vector)可以作為聯(lián)合訓練一個法語“編碼器”網(wǎng)絡的初始化隱式狀態(tài)(或者額外的輸入),其輸出為法語翻譯首單詞的概率分布。

如果從分布中選擇一個特殊的首單詞作為編碼網(wǎng)絡的輸入,將會輸出翻譯的句子中第二個單詞的概率分布,并直到停止選擇為止。總體而言,這一過程是根據(jù)英語句子的概率分布而產(chǎn)生的法語詞匯序列。這種簡單的機器翻譯方法的表現(xiàn)甚至可以和較先進的(state-of-the-art)的方法相媲美,同時也引起了人們對于理解句子是否需要像使用推理規(guī)則操作內部符號表示質疑。這與日常推理中同時涉及到根據(jù)合理結論類推的觀點是匹配的。

類比于將法語句子的意思翻譯成英語句子,同樣可以學習將圖片內容“翻譯”為英語句子(如圖3)。這種編碼器是可以在最后的隱層將像素轉換為活動向量的深度卷積網(wǎng)絡(ConvNet)。解碼器與RNNs用于機器翻譯和神經(jīng)網(wǎng)絡語言模型的類似。近來,已經(jīng)掀起了一股深度學習的巨大興趣熱潮(參見文獻[86]提到的例子)。

RNNs一旦展開(如圖5),可以將之視為一個所有層共享同樣權值的深度前饋神經(jīng)網(wǎng)絡。雖然它們的目的是學習長期的依賴性,但理論的和經(jīng)驗的證據(jù)表明很難學習并長期保存信息。

為了解決這個問題,一個增大網(wǎng)絡存儲的想法隨之產(chǎn)生。采用了特殊隱式單元的LSTM(long short-termmemory networks)被首先提出,其自然行為便是長期的保存輸入。一種稱作記憶細胞的特殊單元類似累加器和門控神經(jīng)元:它在下一個時間步長將擁有一個權值并聯(lián)接到自身,拷貝自身狀態(tài)的真實值和累積的外部信號,但這種自聯(lián)接是由另一個單元學習并決定何時清除記憶內容的乘法門控制的。

LSTM網(wǎng)絡隨后被證明比傳統(tǒng)的RNNs更加有效,尤其當每一個時間步長內有若干層時,整個語音識別系統(tǒng)能夠完全一致的將聲學轉錄為字符序列。目前LSTM網(wǎng)絡或者相關的門控單元同樣用于編碼和解碼網(wǎng)絡,并且在機器翻譯中表現(xiàn)良好。

過去幾年中,幾位學者提出了不同的提案用于增強RNNs的記憶模塊。提案中包括神經(jīng)圖靈機,其中通過加入RNNs可讀可寫的“類似磁帶”的存儲來增強網(wǎng)絡,而記憶網(wǎng)絡中的常規(guī)網(wǎng)絡通過聯(lián)想記憶來增強。記憶網(wǎng)絡在標準的問答基準測試中表現(xiàn)良好,記憶是用來記住稍后要求回答問題的事例。

除了簡單的記憶化,神經(jīng)圖靈機和記憶網(wǎng)絡正在被用于那些通常需要推理和符號操作的任務,還可以教神經(jīng)圖靈機“算法”。除此以外,他們可以從未排序的輸入符號序列(其中每個符號都有與其在列表中對應的表明優(yōu)先級的真實值)中,學習輸出一個排序的符號序列。可以訓練記憶網(wǎng)絡用來追蹤一個設定與文字冒險游戲和故事的世界的狀態(tài),回答一些需要復雜推理的問題。在一個測試例子中,網(wǎng)絡能夠正確回答15句版的《指環(huán)王》中諸如“Frodo現(xiàn)在在哪?”的問題。

深度學習的未來展望

無監(jiān)督學習對于重新點燃深度學習的熱潮起到了促進的作用,但是純粹的有監(jiān)督學習的成功蓋過了無監(jiān)督學習。在本篇綜述中雖然這不是我們的重點,我們還是期望無監(jiān)督學習在長期內越來越重要。無監(jiān)督學習在人類和動物的學習中占據(jù)主導地位:我們通過觀察能夠發(fā)現(xiàn)世界的內在結構,而不是被告知每一個客觀事物的名稱。

人類視覺是一個智能的、基于特定方式的利用小或大分辨率的視網(wǎng)膜中央窩與周圍環(huán)繞區(qū)域對光線采集成像的活躍的過程。我們期望未來在機器視覺方面會有更多的進步,這些進步來自那些端對端的訓練系統(tǒng),并結合ConvNets和RNNs,采用增強學習來決定走向。結合了深度學習和增強學習的系統(tǒng)正處在初期,但已經(jīng)在分類任務中超過了被動視頻系統(tǒng),并在學習操作視頻游戲中產(chǎn)生了令人印象深刻的效果。

在未來幾年,自然語言理解將是深度學習做出巨大影響的另一個領域。我們預測那些利用了RNNs的系統(tǒng)將會更好地理解句子或者整個文檔,當它們選擇性地學習了某時刻部分加入的策略。

最終,在人工智能方面取得的重大進步將來自那些結合了復雜推理表示學習(representation learning )的系統(tǒng)。盡管深度學習和簡單推理已經(jīng)應用于語音和手寫字識別很長一段時間了,我們仍需要通過操作大量向量的新范式來代替基于規(guī)則的字符表達式操作。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1806

    文章

    48972

    瀏覽量

    248711
  • 深度學習
    +關注

    關注

    73

    文章

    5559

    瀏覽量

    122733

原文標題:人工智能深度學習綜述

文章出處:【微信號:jingzhenglizixun,微信公眾號:機器人博覽】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)

    人工智能大模型重塑教育與社會發(fā)展的當下,無論是探索未來職業(yè)方向,還是更新技術儲備,掌握大模型知識都已成為新時代的必修課。從職場上輔助工作的智能助手,到課堂用于學術研究的智能工具,大模
    發(fā)表于 07-04 11:10

    人工智能和機器學習以及Edge AI的概念與應用

    作者:DigiKey Editor 人工智能(AI)已經(jīng)是當前科技業(yè)最熱門的話題,且其應用面涉及人類生活的各個領域,對于各個產(chǎn)業(yè)都帶來相當重要的影響,且即將改變人類未來發(fā)展的方方面面。本文將為您介紹
    的頭像 發(fā)表于 01-25 17:37 ?904次閱讀
    <b class='flag-5'>人工智能</b>和機器<b class='flag-5'>學習</b>以及Edge AI的概念與應用

    人工智能應用領域及未來展望

    來源: 在當今科技飛速發(fā)展的時代,人工智能無疑是最受矚目的領域之一。它正以前所未有的速度改變著我們的生活、工作和社會。 ? 一、人工智能的崛起 ? 人工智能的發(fā)展可以追溯到幾十年前,但近年來,隨著
    的頭像 發(fā)表于 12-07 11:29 ?1545次閱讀

    嵌入式和人工智能究竟是什么關系?

    、連接主義和深度學習等不同的階段。目前,人工智能已經(jīng)廣泛應用于各種領域,如自然語言處理、計算機視覺、智能推薦等。 嵌入式系統(tǒng)和人工智能在許
    發(fā)表于 11-14 16:39

    人工智能、機器學習深度學習存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設備。AI有很多技術,但其中一個很大的子集是機器學習——讓算法從數(shù)據(jù)中學習
    發(fā)表于 10-24 17:22 ?2936次閱讀
    <b class='flag-5'>人工智能</b>、機器<b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>存在什么區(qū)別

    未來學家展望 2025 年十大人工智能趨勢

    美國《福布斯》雜志網(wǎng)站9月24日刊登題為《人人都必須為2025年的十大人工智能趨勢做好準備》的文章,作者為未來學家伯納德·馬爾,內容編譯如下:毫無疑問,人工智能仍將是2025年最受關注的技術。從
    的頭像 發(fā)表于 10-15 08:06 ?1125次閱讀
    <b class='flag-5'>未來</b>學家<b class='flag-5'>展望</b> 2025 年十大<b class='flag-5'>人工智能</b>趨勢

    《AI for Science:人工智能驅動科學創(chuàng)新》第6章人AI與能源科學讀后感

    探討了人工智能如何通過技術創(chuàng)新推動能源科學的進步,為未來的可持續(xù)發(fā)展提供了強大的支持。 首先,書中通過深入淺出的語言,介紹了人工智能在能源領域的基本概念和技術原理。這使得我對人工智能
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅動科學創(chuàng)新》第4章-AI與生命科學讀后感

    。 4. 對未來生命科學發(fā)展的展望 在閱讀這一章后,我對未來生命科學的發(fā)展充滿了期待。我相信,在人工智能技術的推動下,生命科學將取得更加顯著的進展。例如,在藥物研發(fā)領域,AI技術將幫助
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅動科學創(chuàng)新》第二章AI for Science的技術支撐學習心得

    人工智能在科學研究中的核心技術,包括機器學習深度學習、神經(jīng)網(wǎng)絡等。這些技術構成了AI for Science的基石,使得AI能夠處理和分析復雜的數(shù)據(jù)集,從而發(fā)現(xiàn)隱藏在數(shù)據(jù)中的模式和規(guī)
    發(fā)表于 10-14 09:16

    《AI for Science:人工智能驅動科學創(chuàng)新》第一章人工智能驅動的科學創(chuàng)新學習心得

    人工智能:科學研究的加速器 第一章清晰地闡述了人工智能作為科學研究工具的強大功能。通過機器學習深度學習等先進技術,AI能夠處理和分析海量
    發(fā)表于 10-14 09:12

    Anthropic CEO勾勒對人工智能未來發(fā)展的樂觀展望

    Anthropic首席執(zhí)行官Dario Amodei近期發(fā)布了一篇長達1.5萬字的博文,詳細闡述了他對人工智能未來發(fā)展的樂觀展望。在這篇博文中,Amodei大膽預測,“強大的人工智能
    的頭像 發(fā)表于 10-12 16:29 ?1138次閱讀

    risc-v在人工智能圖像處理應用前景分析

    RISC-V和Arm內核及其定制的機器學習和浮點運算單元,用于處理復雜的人工智能圖像處理任務。 四、未來發(fā)展趨勢 隨著人工智能技術的不斷發(fā)展和普及,RISC-V在
    發(fā)表于 09-28 11:00

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅動科學創(chuàng)新

    、污染治理、碳減排三個方面介紹了人工智能為環(huán)境科學引入的新價值和新機遇。 第8章探討了AI for Science在快速發(fā)展過程中面臨的機遇和挑戰(zhàn),并對“平臺科研”模式進行了展望。 申請時間
    發(fā)表于 09-09 13:54

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產(chǎn)業(yè)博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領域的應用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度
    發(fā)表于 07-29 17:05
    主站蜘蛛池模板: 儋州市| 崇义县| 佛教| 库尔勒市| 铜陵市| 个旧市| 同心县| 榆林市| 诸城市| 柳州市| 芜湖县| 万荣县| 武鸣县| 习水县| 青河县| 来安县| 文安县| 汝阳县| 翼城县| 宁津县| 乌鲁木齐县| 崇仁县| 绿春县| 张北县| 邛崃市| 伊吾县| 湘潭县| 平舆县| 铁岭县| 灵山县| 扶沟县| 图片| 蒲江县| 宁晋县| 宁南县| 东明县| 同心县| 保德县| 凌海市| 龙岩市| 长沙县|