女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖解 72 個機器學(xué)習(xí)基礎(chǔ)知識點

Dbwd_Imgtec ? 來源:未知 ? 2023-04-10 12:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:尤而小屋、數(shù)據(jù)派THU


圖解機器學(xué)習(xí)算法系列以圖解的生動方式,闡述機器學(xué)習(xí)核心知識 & 重要模型,并通過代碼講通應(yīng)用細(xì)節(jié)。


1. 機器學(xué)習(xí)概述

1)什么是機器學(xué)習(xí)

人工智能(Artificial intelligence)是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。它是一個籠統(tǒng)而寬泛的概念,人工智能的最終目標(biāo)是使計算機能夠模擬人的思維方式和行為。 大概在上世紀(jì)50年代,人工智能開始興起,但是受限于數(shù)據(jù)和硬件設(shè)備等限制,當(dāng)時發(fā)展緩慢。 機器學(xué)習(xí)(Machine learning)是人工智能的子集,是實現(xiàn)人工智能的一種途徑,但并不是唯一的途徑。它是一門專門研究計算機怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識或技能,重新組織已有的知識結(jié)構(gòu)使之不斷改善自身的性能的學(xué)科。大概在上世紀(jì)80年代開始蓬勃發(fā)展,誕生了一大批數(shù)學(xué)統(tǒng)計相關(guān)的機器學(xué)習(xí)模型。 深度學(xué)習(xí)(Deep learning)是機器學(xué)習(xí)的子集,靈感來自人腦,由人工神經(jīng)網(wǎng)絡(luò)(ANN)組成,它模仿人腦中存在的相似結(jié)構(gòu)。在深度學(xué)習(xí)中,學(xué)習(xí)是通過相互關(guān)聯(lián)的「神經(jīng)元」的一個深層的、多層的「網(wǎng)絡(luò)」來進(jìn)行的?!干疃取挂辉~通常指的是神經(jīng)網(wǎng)絡(luò)中隱藏層的數(shù)量。大概在2012年以后爆炸式增長,廣泛應(yīng)用在很多的場景中。 讓我們看看國外知名學(xué)者對機器學(xué)習(xí)的定義: 0f810e2c-d75a-11ed-bfe3-dac502259ad0.png ?機器學(xué)習(xí)研究的是計算機怎樣模擬人類的學(xué)習(xí)行為,以獲取新的知識或技能,并重新組織已有的知識結(jié)構(gòu),使之不斷改善自身。 從實踐的意義上來說,機器學(xué)習(xí)是在大數(shù)據(jù)的支撐下,通過各種算法讓機器對數(shù)據(jù)進(jìn)行深層次的統(tǒng)計分析以進(jìn)行「自學(xué)」,使得人工智能系統(tǒng)獲得了歸納推理和決策能力。 0f981220-d75a-11ed-bfe3-dac502259ad0.png ?通過經(jīng)典的垃圾郵件過濾應(yīng)用,我們再來理解下機器學(xué)習(xí)的原理,以及定義中的T、E、P分別指代什么:


2)機器學(xué)習(xí)三要素

機器學(xué)習(xí)三要素包括數(shù)據(jù)、模型、算法。這三要素之間的關(guān)系,可以用下面這幅圖來表示: 0fd3fb46-d75a-11ed-bfe3-dac502259ad0.png ?

(1)數(shù)據(jù)

數(shù)據(jù)驅(qū)動:數(shù)據(jù)驅(qū)動指的是我們基于客觀的量化數(shù)據(jù),通過主動數(shù)據(jù)的采集分析以支持決策。與之相對的是經(jīng)驗驅(qū)動,比如我們常說的「拍腦袋」。

0febcc62-d75a-11ed-bfe3-dac502259ad0.png

(2)模型&算法

模型:AI數(shù)據(jù)驅(qū)動的范疇內(nèi),模型指的是基于數(shù)據(jù)X做決策Y的假設(shè)函數(shù),可以有不同的形態(tài),計算型和規(guī)則型等。

算法指學(xué)習(xí)模型的具體計算方法。統(tǒng)計學(xué)習(xí)基于訓(xùn)練數(shù)據(jù)集,根據(jù)學(xué)習(xí)策略,從假設(shè)空間中選擇最優(yōu)模型,最后需要考慮用什么樣的計算方法求解最優(yōu)模型。通常是一個最優(yōu)化的問題。


3)機器學(xué)習(xí)發(fā)展歷程

人工智能一詞最早出現(xiàn)于1956年,用于探索一些問題的有效解決方案。1960年,美國國防部借助「神經(jīng)網(wǎng)絡(luò)」這一概念,訓(xùn)練計算機模仿人類的推理過程。 2010年之前,谷歌、微軟等科技巨頭改進(jìn)了機器學(xué)習(xí)算法,將查詢的準(zhǔn)確度提升到了新的高度。而后,隨著數(shù)據(jù)量的增加、先進(jìn)的算法、計算和存儲容量的提高,機器學(xué)習(xí)得到了更進(jìn)一步的發(fā)展。


4)機器學(xué)習(xí)核心技術(shù)

分類:應(yīng)用以分類數(shù)據(jù)進(jìn)行模型訓(xùn)練,根據(jù)模型對新樣本進(jìn)行精準(zhǔn)分類與預(yù)測。

聚類:從海量數(shù)據(jù)中識別數(shù)據(jù)的相似性與差異性,并按照最大共同點聚合為多個類別。

異常檢測:對數(shù)據(jù)點的分布規(guī)律進(jìn)行分析,識別與正常數(shù)據(jù)及差異較大的離群點。

回歸:根據(jù)對已知屬性值數(shù)據(jù)的訓(xùn)練,為模型尋找最佳擬合參數(shù),基于模型預(yù)測新樣本的輸出值。


5)機器學(xué)習(xí)基本流程

機器學(xué)習(xí)工作流(WorkFlow)包含數(shù)據(jù)預(yù)處理(Processing)、模型學(xué)習(xí)(Learning)、模型評估(Evaluation)、新樣本預(yù)測(Prediction)幾個步驟。

1019c946-d75a-11ed-bfe3-dac502259ad0.png

數(shù)據(jù)預(yù)處理:輸入(未處理的數(shù)據(jù) + 標(biāo)簽)→處理過程(特征處理+幅度縮放、特征選擇、維度約減、采樣)→輸出(測試集 + 訓(xùn)練集)。模型學(xué)習(xí):模型選擇、交叉驗證、結(jié)果評估、超參選擇。模型評估:了解模型對于數(shù)據(jù)集測試的得分。新樣本預(yù)測:預(yù)測測試集。

6)機器學(xué)習(xí)應(yīng)用場景

作為一套數(shù)據(jù)驅(qū)動的方法,機器學(xué)習(xí)已廣泛應(yīng)用于數(shù)據(jù)挖掘、計算機視覺、自然語言處理、生物特征識別、搜索引擎、醫(yī)學(xué)診斷、檢測信用卡欺詐、證券市場分析、DNA序列測序、語音和手寫識別和機器人等領(lǐng)域。

智能醫(yī)療:智能假肢、外骨骼、醫(yī)療保健機器人、手術(shù)機器人、智能健康管理等。人臉識別:門禁系統(tǒng)、考勤系統(tǒng)、人臉識別防盜門、電子護(hù)照及身份證,還可以利用人臉識別系統(tǒng)和網(wǎng)絡(luò),在全國范圍內(nèi)搜捕逃犯。機器人的控制領(lǐng)域:工業(yè)機器人、機械臂、多足機器人、掃地機器人、無人機等。


2. 機器學(xué)習(xí)基本名詞

、

監(jiān)督學(xué)習(xí)(Supervised Learning):訓(xùn)練集有標(biāo)記信息,學(xué)習(xí)方式有分類和回歸。

無監(jiān)督學(xué)習(xí)(Unsupervised Learning):訓(xùn)練集沒有標(biāo)記信息,學(xué)習(xí)方式有聚類和降維。

強化學(xué)習(xí)(Reinforcement Learning):有延遲和稀疏的反饋標(biāo)簽的學(xué)習(xí)方式。

10584ffe-d75a-11ed-bfe3-dac502259ad0.png

示例/樣本:上面一條數(shù)據(jù)集中的一條數(shù)據(jù)。

屬性/特征:「色澤」「根蒂」等。

屬性空間/樣本空間/輸入空間X:由全部屬性張成的空間。

特征向量:空間中每個點對應(yīng)的一個坐標(biāo)向量。

標(biāo)記:關(guān)于示例結(jié)果的信息,如((色澤=青綠,根蒂=蜷縮,敲聲=濁響),好瓜),其中「好瓜」稱為標(biāo)記。

分類:若要預(yù)測的是離散值,如「好瓜」,「壞瓜」,此類學(xué)習(xí)任務(wù)稱為分類。

假設(shè):學(xué)得模型對應(yīng)了關(guān)于數(shù)據(jù)的某種潛在規(guī)律。

真相:潛在規(guī)律自身。

學(xué)習(xí)過程:是為了找出或逼近真相。

泛化能力:學(xué)得模型適用于新樣本的能力。一般來說,訓(xùn)練樣本越大,越有可能通過學(xué)習(xí)來獲得具有強泛化能力的模型。


3. 機器學(xué)習(xí)算法分類

1)機器學(xué)習(xí)算法依托的問題場景

機器學(xué)習(xí)在近30多年已發(fā)展為一門多領(lǐng)域交叉學(xué)科,涉及概率論、統(tǒng)計學(xué)、逼近論、凸分析、計算復(fù)雜性理論等多門學(xué)科。機器學(xué)習(xí)理論主要是設(shè)計和分析一些讓計算機可以自動「學(xué)習(xí)」的算法。 機器學(xué)習(xí)算法從數(shù)據(jù)中自動分析獲得規(guī)律,并利用規(guī)律對未知數(shù)據(jù)進(jìn)行預(yù)測。

機器學(xué)習(xí)理論關(guān)注可以實現(xiàn)的、行之有效的學(xué)習(xí)算法。很多推論問題屬于無程序可循難度,所以部分的機器學(xué)習(xí)研究是開發(fā)容易處理的近似算法。

106b0658-d75a-11ed-bfe3-dac502259ad0.png

機器學(xué)習(xí)最主要的類別有:監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)。

1078a420-d75a-11ed-bfe3-dac502259ad0.png

監(jiān)督學(xué)習(xí):從給定的訓(xùn)練數(shù)據(jù)集中學(xué)習(xí)出一個函數(shù),當(dāng)新的數(shù)據(jù)到來時,可以根據(jù)這個函數(shù)預(yù)測結(jié)果。監(jiān)督學(xué)習(xí)的訓(xùn)練集要求是包括輸入和輸出,也可以說是特征和目標(biāo)。訓(xùn)練集中的目標(biāo)是由人標(biāo)注的。常見的監(jiān)督學(xué)習(xí)算法包括回歸分析和統(tǒng)計分類。

更多監(jiān)督學(xué)習(xí)的算法模型總結(jié),可以查看ShowMeAI的文章 AI知識技能速查 | 機器學(xué)習(xí)-監(jiān)督學(xué)習(xí)(公眾號不能跳轉(zhuǎn),本文鏈接見文末)。

無監(jiān)督學(xué)習(xí):與監(jiān)督學(xué)習(xí)相比,訓(xùn)練集沒有人為標(biāo)注的結(jié)果。常見的無監(jiān)督學(xué)習(xí)算法有生成對抗網(wǎng)絡(luò)(GAN)、聚類。

更多無監(jiān)督學(xué)習(xí)的算法模型總結(jié)可以查看ShowMeAI的文章 AI知識技能速查 | 機器學(xué)習(xí)-無監(jiān)督學(xué)習(xí)。

強化學(xué)習(xí):通過觀察來學(xué)習(xí)做成如何的動作。每個動作都會對環(huán)境有所影響,學(xué)習(xí)對象根據(jù)觀察到的周圍環(huán)境的反饋來做出判斷。

2)分類問題

分類問題是機器學(xué)習(xí)非常重要的一個組成部分。它的目標(biāo)是根據(jù)已知樣本的某些特征,判斷一個新的樣本屬于哪種已知的樣本類。分類問題可以細(xì)分如下:

二分類問題:表示分類任務(wù)中有兩個類別新的樣本屬于哪種已知的樣本類。多類分類(Multiclass classification)問題:表示分類任務(wù)中有多類別。多標(biāo)簽分類(Multilabel classification)問題:給每個樣本一系列的目標(biāo)標(biāo)簽。

了解更多機器學(xué)習(xí)分類算法:KNN算法、邏輯回歸算法、樸素貝葉斯算法、決策樹模型、隨機森林分類模型、GBDT模型、XGBoost模型、支持向量機模型等。(公眾號不能跳轉(zhuǎn),本文鏈接見文末)

3)回歸問題

了解更多機器學(xué)習(xí)回歸算法:決策樹模型、隨機森林分類模型、GBDT模型、回歸樹模型、支持向量機模型等。

1081841e-d75a-11ed-bfe3-dac502259ad0.png


4)聚類問題

了解更多機器學(xué)習(xí)聚類算法:聚類算法。

10964804-d75a-11ed-bfe3-dac502259ad0.png


5)降維問題

了解更多機器學(xué)習(xí)降維算法:PCA降維算法。
10afffd8-d75a-11ed-bfe3-dac502259ad0.png ?

4.機器學(xué)習(xí)模型評估與選擇

1)機器學(xué)習(xí)與數(shù)據(jù)擬合

機器學(xué)習(xí)最典型的監(jiān)督學(xué)習(xí)為分類與回歸問題。分類問題中,我們學(xué)習(xí)出來一條「決策邊界」完成數(shù)據(jù)區(qū)分;在回歸問題中,我們學(xué)習(xí)出擬合樣本分布的曲線。

2)訓(xùn)練集與數(shù)據(jù)集

我們以房價預(yù)估為例,講述一下涉及的概念。

訓(xùn)練集(Training Set):幫助訓(xùn)練模型,簡單的說就是通過訓(xùn)練集的數(shù)據(jù)讓確定擬合曲線的參數(shù)。

測試集Test Set):為了測試已經(jīng)訓(xùn)練好的模型的精確度。 當(dāng)然,test set這并不能保證模型的正確性,只是說相似的數(shù)據(jù)用此模型會得出相似的結(jié)果。因為在訓(xùn)練模型的時候,參數(shù)全是根據(jù)現(xiàn)有訓(xùn)練集里的數(shù)據(jù)進(jìn)行修正、擬合,有可能會出現(xiàn)過擬合的情況,即這個參數(shù)僅對訓(xùn)練集里的數(shù)據(jù)擬合比較準(zhǔn)確,這個時候再有一個數(shù)據(jù)需要利用模型預(yù)測結(jié)果,準(zhǔn)確率可能就會很差。

3)經(jīng)驗誤差

在訓(xùn)練集的數(shù)據(jù)上進(jìn)行學(xué)習(xí)。模型在訓(xùn)練集上的誤差稱為「經(jīng)驗誤差」(Empirical Error)。但是經(jīng)驗誤差并不是越小越好,因為我們希望在新的沒有見過的數(shù)據(jù)上,也能有好的預(yù)估結(jié)果。

4)過擬合

過擬合,指的是模型在訓(xùn)練集上表現(xiàn)的很好,但是在交叉驗證集合測試集上表現(xiàn)一般,也就是說模型對未知樣本的預(yù)測表現(xiàn)一般,泛化(Generalization)能力較差。

10bbf784-d75a-11ed-bfe3-dac502259ad0.png

如何防止過擬合呢?一般的方法有Early Stopping、數(shù)據(jù)集擴增(Data Augmentation)、正則化、Dropout等。

正則化:指的是在目標(biāo)函數(shù)后面添加一個正則化項,一般有L1正則化與L2正則化。L1正則是基于L1范數(shù),即在目標(biāo)函數(shù)后面加上參數(shù)的L1范數(shù)和項,即參數(shù)絕對值和與參數(shù)的積項。

數(shù)據(jù)集擴增:即需要得到更多的符合要求的數(shù)據(jù),即和已有的數(shù)據(jù)是獨立同分布的,或者近似獨立同分布的。一般方法有:從數(shù)據(jù)源頭采集更多數(shù)據(jù)、復(fù)制原有數(shù)據(jù)并加上隨機噪聲、重采樣、根據(jù)當(dāng)前數(shù)據(jù)集估計數(shù)據(jù)分布參數(shù),使用該分布產(chǎn)生更多數(shù)據(jù)等。

DropOut:通過修改神經(jīng)網(wǎng)絡(luò)本身結(jié)構(gòu)來實現(xiàn)的。


5)偏差

偏差(Bias),它通常指的是模型擬合的偏差程度。給定無數(shù)套訓(xùn)練集而期望擬合出來的模型就是平均模型。偏差就是真實模型和平均模型的差異。

簡單模型是一組直線,平均之后得到的平均模型是一條直的虛線,與真實模型曲線的差別較大(灰色陰影部分較大)。因此,簡單模型通常高偏差。

10d95234-d75a-11ed-bfe3-dac502259ad0.png

復(fù)雜模型是一組起伏很大波浪線,平均之后最大值和最小組都會相互抵消,和真實模型的曲線差別較小,因此復(fù)雜模型通常低偏差(見黃色曲線和綠色虛線幾乎重合)。

10ee4edc-d75a-11ed-bfe3-dac502259ad0.png


6)方差

方差(Variance),它通常指的是模型的平穩(wěn)程度(簡單程度)。簡單模型的對應(yīng)的函數(shù)如出一轍,都是水平直線,而且平均模型的函數(shù)也是一條水平直線,因此簡單模型的方差很小,并且對數(shù)據(jù)的變動不敏感。

110b5a68-d75a-11ed-bfe3-dac502259ad0.png

復(fù)雜模型的對應(yīng)的函數(shù)千奇百怪,毫無任何規(guī)則,但平均模型的函數(shù)也是一條平滑的曲線,因此復(fù)雜模型的方差很大,并且對數(shù)據(jù)的變動很敏感。


7)偏差與方差的平衡1126f278-d75a-11ed-bfe3-dac502259ad0.png


8)性能度量指標(biāo)

性能度量是衡量模型泛化能力的數(shù)值評價標(biāo)準(zhǔn),反映了當(dāng)前問題(任務(wù)需求)。使用不同的性能度量可能會導(dǎo)致不同的評判結(jié)果。更詳細(xì)的內(nèi)容可見 模型評估方法與準(zhǔn)則(鏈接見文末)。

(1)回歸問題

關(guān)于模型「好壞」的判斷,不僅取決于算法和數(shù)據(jù),還取決于當(dāng)前任務(wù)需求?;貧w問題常用的性能度量指標(biāo)有:平均絕對誤差、均方誤差、均方根誤差、R平方等。

1139df32-d75a-11ed-bfe3-dac502259ad0.png

平均絕對誤差(Mean Absolute Error,MAE),又叫平均絕對離差,是所有標(biāo)簽值與回歸模型預(yù)測值的偏差的絕對值的平均。

平均絕對百分誤差(Mean Absolute Percentage Error,MAPE)是對MAE的一種改進(jìn),考慮了絕對誤差相對真實值的比例。

均方誤差(Mean Square Error,MSE)相對于平均絕對誤差而言,均方誤差求的是所有標(biāo)簽值與回歸模型預(yù)測值的偏差的平方的平均。

均方根誤差(Root-Mean-Square Error,RMSE),也稱標(biāo)準(zhǔn)誤差,是在均方誤差的基礎(chǔ)上進(jìn)行開方運算。RMSE會被用來衡量觀測值同真值之間的偏差。

R平方,決定系數(shù),反映因變量的全部變異能通過目前的回歸模型被模型中的自變量解釋的比例。比例越接近于1,表示當(dāng)前的回歸模型對數(shù)據(jù)的解釋越好,越能精確描述數(shù)據(jù)的真實分布。

(2)分類問題

分類問題常用的性能度量指標(biāo)包括錯誤率(Error Rate)、精確率(Accuracy)、查準(zhǔn)率(Precision)、查全率(Recall)、F1、ROC曲線、AUC曲線和R平方等。更詳細(xì)的內(nèi)容可見 模型評估方法與準(zhǔn)則(鏈接見文末)。 1147540a-d75a-11ed-bfe3-dac502259ad0.png ?

錯誤率:分類錯誤的樣本數(shù)占樣本總數(shù)的比例。

精確率:分類正確的樣本數(shù)占樣本總數(shù)的比例。

查準(zhǔn)率(也稱準(zhǔn)確率),即在檢索后返回的結(jié)果中,真正正確的個數(shù)占你認(rèn)為是正確的結(jié)果的比例。

查全率(也稱召回率),即在檢索結(jié)果中真正正確的個數(shù),占整個數(shù)據(jù)集(檢索到的和未檢索到的)中真正正確個數(shù)的比例。

F1是一個綜合考慮查準(zhǔn)率與查全率的度量,其基于查準(zhǔn)率與查全率的調(diào)和平均定義:即:F1度量的一般形式-Fβ,能讓我們表達(dá)出對查準(zhǔn)率、查全率的不同偏好。 1155e768-d75a-11ed-bfe3-dac502259ad0.png ?ROC曲線(Receiver Operating Characteristic Curve)全稱是「受試者工作特性曲線」。綜合考慮了概率預(yù)測排序的質(zhì)量,體現(xiàn)了學(xué)習(xí)器在不同任務(wù)下的「期望泛化性能」的好壞。ROC曲線的縱軸是「真正例率」(TPR),橫軸是「假正例率」(FPR)。 AUC(Area Under ROC Curve)是ROC曲線下面積,代表了樣本預(yù)測的排序質(zhì)量。
從一個比較高的角度來認(rèn)識AUC:仍然以異常用戶的識別為例,高的AUC值意味著,模型在能夠盡可能多地識別異常用戶的情況下,仍然對正常用戶有著一個較低的誤判率(不會因為為了識別異常用戶,而將大量的正常用戶給誤判為異常。

9)評估方法

我們手上沒有未知的樣本,如何可靠地評估?關(guān)鍵是要獲得可靠的「測試集數(shù)據(jù)」(Test Set),即測試集(用于評估)應(yīng)該與訓(xùn)練集(用于模型學(xué)習(xí))「互斥」。 116102b0-d75a-11ed-bfe3-dac502259ad0.png ?常見的評估方法有:留出法(Hold-out)、交叉驗證法( Cross Validation)、自助法(Bootstrap)。更詳細(xì)的內(nèi)容可見 模型評估方法與準(zhǔn)則(鏈接見文末)。 留出法(Hold-out)是機器學(xué)習(xí)中最常見的評估方法之一,它會從訓(xùn)練數(shù)據(jù)中保留出驗證樣本集,這部分?jǐn)?shù)據(jù)不用于訓(xùn)練,而用于模型評估。 11776596-d75a-11ed-bfe3-dac502259ad0.png ?機器學(xué)習(xí)中,另外一種比較常見的評估方法是交叉驗證法(Cross Validation)。k 折交叉驗證對 k 個不同分組訓(xùn)練的結(jié)果進(jìn)行平均來減少方差,因此模型的性能對數(shù)據(jù)的劃分就不那么敏感,對數(shù)據(jù)的使用也會更充分,模型評估結(jié)果更加穩(wěn)定。 1183a626-d75a-11ed-bfe3-dac502259ad0.png ?自助法(Bootstrap)是一種用小樣本估計總體值的一種非參數(shù)方法,在進(jìn)化和生態(tài)學(xué)研究中應(yīng)用十分廣泛。 Bootstrap通過有放回抽樣生成大量的偽樣本,通過對偽樣本進(jìn)行計算,獲得統(tǒng)計量的分布,從而估計數(shù)據(jù)的整體分布。 11920586-d75a-11ed-bfe3-dac502259ad0.png


10)模型調(diào)優(yōu)與選擇準(zhǔn)則

我們希望找到對當(dāng)前問題表達(dá)能力好,且模型復(fù)雜度較低的模型:
  • 表達(dá)力好的模型,可以較好地對訓(xùn)練數(shù)據(jù)中的規(guī)律和模式進(jìn)行學(xué)習(xí);

  • 復(fù)雜度低的模型,方差較小,不容易過擬合,有較好的泛化表達(dá)。

11a4117c-d75a-11ed-bfe3-dac502259ad0.png


11)如何選擇最優(yōu)的模型

(1)驗證集評估選擇

  • 切分?jǐn)?shù)據(jù)為訓(xùn)練集和驗證集。

  • 對于準(zhǔn)備好的候選超參數(shù),在訓(xùn)練集上進(jìn)行模型,在驗證集上評估。

(2)網(wǎng)格搜索/隨機搜索交叉驗證

  • 通過網(wǎng)格搜索/隨機搜索產(chǎn)出候選的超參數(shù)組。

  • 對參數(shù)組的每一組超參數(shù),使用交叉驗證評估效果。

  • 選出效果最好的超參數(shù)。

(3)貝葉斯優(yōu)化

  • 基于貝葉斯優(yōu)化的超參數(shù)調(diào)優(yōu)。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • imagination
    +關(guān)注

    關(guān)注

    1

    文章

    598

    瀏覽量

    62097

原文標(biāo)題:圖解 72 個機器學(xué)習(xí)基礎(chǔ)知識點

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    圖解單片機功能與應(yīng)用(完整版)

    基礎(chǔ)知識的介紹出發(fā),圖文并茂,直觀、系統(tǒng)地介紹了單片機的內(nèi)部結(jié)構(gòu)、工作原理和應(yīng)用技巧。全書分為10章,內(nèi)容包括51單片機編程資源圖解、51單片機指令系統(tǒng)圖解、匯編語言程序設(shè)計圖解、輸
    發(fā)表于 06-16 16:52

    漫畫圖解 電感器 抗干擾元器件指南(全彩PDF版)

    漫畫圖解電感基礎(chǔ)知識(高清PDF) 內(nèi)容:很形象的漫畫和語言圖解關(guān)于電感器的入門基礎(chǔ)知識,讓電子初學(xué)者也能輕松的看懂電子電路。 純分享貼,有需要可以直接下載附件獲取完整資料!
    發(fā)表于 05-13 15:49

    電機選型計算公式與知識點匯總

    純分享帖,需要者可點擊附件獲取完整資料~~~*附件:電機選型計算公式與知識點匯總.pdf 【免責(zé)聲明】內(nèi)容轉(zhuǎn)自今日電機,因轉(zhuǎn)載眾多,無法確認(rèn)真正原始作者,故僅標(biāo)明轉(zhuǎn)載來源。版權(quán)歸原出處所有,純分享帖,侵權(quán)請聯(lián)系刪除內(nèi)容以保證您的權(quán)益。
    發(fā)表于 04-29 16:10

    最易讀懂的理工科基礎(chǔ)叢書——圖解電機基礎(chǔ)知識入門

    本書深人淺出地介紹了電動機的基礎(chǔ)知識、應(yīng)用和發(fā)展,其內(nèi)容包括電動機的用途、電動機的基礎(chǔ)知識及應(yīng)用、電流和磁場的關(guān)系、直流電動機的結(jié)構(gòu)和作用、交流電動機的結(jié)構(gòu)和作用、特殊電動機的結(jié)構(gòu)和作用
    發(fā)表于 04-07 18:28

    電氣工程師必知必會的100電?知識點分享

    電??程師也都是從電?學(xué)徒??步?步積累成長起來的。積跬步?千?,匯細(xì)流成江海!朋友們,現(xiàn)在讓我們??捷徑,花半個?時的時間來積累100必知必會的電?知識點吧!
    的頭像 發(fā)表于 03-14 11:05 ?877次閱讀

    華邦電子安全閃存關(guān)鍵知識點

    黑客攻擊?高溫考驗?駕駛安全?通通沒在怕的!1月15日,華邦電子舉辦了“安全閃存強化車用電子安全性”為主題的線上研討會。為了讓沒能參加這場線上研討會的邦友們也可以清晰 Get 安全閃存關(guān)鍵知識點,邦
    的頭像 發(fā)表于 02-12 18:15 ?720次閱讀

    Aigtek功率放大器應(yīng)用:電感線圈的知識點分享

    電磁驅(qū)動是功率放大器的一大基礎(chǔ)應(yīng)用領(lǐng)域,其中我們最常見的就是用功放來驅(qū)動電感線圈,那么關(guān)于電感線圈的這10大知識點你都知道嗎?今天Aigtek安泰電子來給大家介紹一下電感線圈的基礎(chǔ)知識
    的頭像 發(fā)表于 01-07 15:43 ?536次閱讀
    Aigtek功率放大器應(yīng)用:電感線圈的<b class='flag-5'>知識點</b>分享

    EMC基礎(chǔ)知識-華為

    EMC基礎(chǔ)知識-華為
    發(fā)表于 01-06 14:09 ?2次下載

    傳統(tǒng)機器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹了機器學(xué)習(xí)的關(guān)鍵概念術(shù)語。在本文中,我們會介紹傳統(tǒng)機器學(xué)習(xí)基礎(chǔ)知識和多種算法特征,供各位老師選擇。 01 傳統(tǒng)
    的頭像 發(fā)表于 12-30 09:16 ?1111次閱讀
    傳統(tǒng)<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    硬件工程師面試基礎(chǔ)知識點

    皮爾斯振蕩器(Pierce oscillator) 上圖中,U1為增益很大的反相放大器,CL1、CL2為匹配電容,是電容三式電路的分壓電容,接地點就是分壓。以接地點即分壓為參考點,輸入和輸出是反相的,但從并聯(lián)諧振回路即石英
    的頭像 發(fā)表于 11-21 11:04 ?713次閱讀
    硬件工程師面試<b class='flag-5'>基礎(chǔ)知識點</b>

    接口測試?yán)碚?、疑問收錄與擴展相關(guān)知識點

    本文章使用王者榮耀游戲接口、企業(yè)微信接口的展示結(jié)合理論知識,講解什么是接口測試、接口測試?yán)碚?、疑問收錄與擴展相關(guān)知識點知識學(xué)院,快來一起看看吧~
    的頭像 發(fā)表于 11-15 09:12 ?698次閱讀
    接口測試?yán)碚?、疑問收錄與擴展相關(guān)<b class='flag-5'>知識點</b>

    品質(zhì)管理基礎(chǔ)知識

    品質(zhì)管理基礎(chǔ)知識
    的頭像 發(fā)表于 11-01 11:08 ?634次閱讀
    品質(zhì)管理<b class='flag-5'>基礎(chǔ)知識</b>

    【「時間序列與機器學(xué)習(xí)」閱讀體驗】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實地構(gòu)建了時間序列分析的基礎(chǔ)知識,更巧妙地展示了機器
    發(fā)表于 08-12 11:21

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    今天開始學(xué)習(xí)《大語言模型應(yīng)用指南》第一篇——基礎(chǔ)篇,對于人工智能相關(guān)專業(yè)技術(shù)人員應(yīng)該可以輕松加愉快的完成此篇閱讀,但對于我還是有許多的知識點、專業(yè)術(shù)語比較陌生,需要網(wǎng)上搜索學(xué)習(xí)更多的資料才能理解書中
    發(fā)表于 07-25 14:33

    暑假如何學(xué)習(xí)單片機

    暑假是學(xué)習(xí)和掌握單片機基礎(chǔ)知識的良好時機。以下是一關(guān)于如何在暑假期間學(xué)習(xí)單片機的建議計劃
    的頭像 發(fā)表于 07-03 09:19 ?875次閱讀
    一<b class='flag-5'>個</b>暑假如何<b class='flag-5'>學(xué)習(xí)</b>單片機
    主站蜘蛛池模板: 山西省| 玛曲县| 天峻县| 海门市| 韩城市| 河源市| 连南| 军事| 维西| 玉屏| 密云县| 衡水市| 昔阳县| 鸡泽县| 南投市| 台北市| 措美县| 错那县| 柘荣县| 盘锦市| 循化| 闽侯县| 长乐市| 航空| 疏附县| 双柏县| 宁陵县| 和顺县| 武鸣县| 射阳县| 台北市| 余干县| 香河县| 新化县| 乌审旗| 海口市| 峡江县| 周至县| 保康县| 留坝县| 平原县|