Z1,所以綠色的超平面比較好" />

女人荫蒂被添全过程13种图片,亚洲+欧美+在线,欧洲精品无码一区二区三区 ,在厨房拨开内裤进入毛片

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深入地解析機(jī)器學(xué)習(xí)常用算法

8g3K_AI_Thinker ? 來源:未知 ? 作者:李倩 ? 2018-07-20 16:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

寫這篇文章的目的,是對ML的常用算法有個(gè)常識(shí)性的認(rèn)識(shí),沒有代碼,沒有復(fù)雜的理論推導(dǎo),就是圖解一下,知道這些算法是什么,它們是怎么應(yīng)用的,例子主要是分類問題。

每個(gè)算法都找了好幾個(gè)視頻,挑出講的最清晰明了有趣的,便于科普。以后有時(shí)間再對單個(gè)算法做深入地解析。

今天的算法解析如下:

決策樹

隨機(jī)森林算法

邏輯回歸

SVM

樸素貝葉斯

K最近鄰算法

K均值算法

Adaboost 算法

神經(jīng)網(wǎng)絡(luò)

馬爾可夫

▌1. 決策樹

根據(jù)一些 feature 進(jìn)行分類,每個(gè)節(jié)點(diǎn)提一個(gè)問題,通過判斷,將數(shù)據(jù)分為兩類,再繼續(xù)提問。這些問題是根據(jù)已有數(shù)據(jù)學(xué)習(xí)出來的,再投入新數(shù)據(jù)的時(shí)候,就可以根據(jù)這棵樹上的問題,將數(shù)據(jù)劃分到合適的葉子上。

▌2. 隨機(jī)森林

視頻:

https://www.youtube.com/watch?v=loNcrMjYh64

在源數(shù)據(jù)中隨機(jī)選取數(shù)據(jù),組成幾個(gè)子集

S 矩陣是源數(shù)據(jù),有 1-N 條數(shù)據(jù),A B C 是feature,最后一列C是類別

由 S 隨機(jī)生成 M 個(gè)子矩陣

這 M 個(gè)子集得到 M 個(gè)決策樹

將新數(shù)據(jù)投入到這 M 個(gè)樹中,得到 M 個(gè)分類結(jié)果,計(jì)數(shù)看預(yù)測成哪一類的數(shù)目最多,就將此類別作為最后的預(yù)測結(jié)果

▌3. 邏輯回歸

視頻:

https://www.youtube.com/watch?v=gNhogKJ_q7U

當(dāng)預(yù)測目標(biāo)是概率這樣的,值域需要滿足大于等于0,小于等于1的,這個(gè)時(shí)候單純的線性模型是做不到的,因?yàn)樵诙x域不在某個(gè)范圍之內(nèi)時(shí),值域也超出了規(guī)定區(qū)間。

所以此時(shí)需要這樣的形狀的模型會(huì)比較好

那么怎么得到這樣的模型呢?

這個(gè)模型需要滿足兩個(gè)條件 大于等于0,小于等于1

大于等于0 的模型可以選擇 絕對值,平方值,這里用 指數(shù)函數(shù),一定大于0小于等于1 用除法,分子是自己,分母是自身加上1,那一定是小于1的了。

再做一下變形,就得到了 logistic regression 模型

通過源數(shù)據(jù)計(jì)算可以得到相應(yīng)的系數(shù)了

最后得到 logistic 的圖形

▌4. SVM(support vector machine)

視頻:

https://www.youtube.com/watch?v=1NxnPkZM9bc

要將兩類分開,想要得到一個(gè)超平面,最優(yōu)的超平面是到兩類的 margin 達(dá)到最大,margin就是超平面與離它最近一點(diǎn)的距離,如下圖,Z2>Z1,所以綠色的超平面比較好

將這個(gè)超平面表示成一個(gè)線性方程

點(diǎn)到面的距離根據(jù)圖中的公式計(jì)算

所以得到 total margin 的表達(dá)式如下,目標(biāo)是最大化這個(gè) margin,就需要最小化分母

于是變成了一個(gè)優(yōu)化問題:

舉個(gè)栗子,三個(gè)點(diǎn),找到最優(yōu)的超平面,定義了 weight vector=(2,3)-(1,1)

得到 weight vector 為(a,2a),將兩個(gè)點(diǎn)代入方程,代入(2,3)另其值=1,代入(1,1)另其值=-1,求解出 a 和 截矩 w0 的值,進(jìn)而得到超平面的表達(dá)式。

a 求出來后,代入(a,2a)得到的就是 support vector

a 和 w0 代入超平面的方程就是 support vector machine

▌5. 樸素貝葉斯

視頻:

https://www.youtube.com/watch?v=TpjPzKODuXo

舉個(gè)在 NLP 的應(yīng)用

給一段文字,返回情感分類,這段文字的態(tài)度是positive,還是negative

為了解決這個(gè)問題,可以只看其中的一些單詞

這段文字,將僅由一些單詞和它們的計(jì)數(shù)代表

原始問題是:給你一句話,它屬于哪一類通過 bayes rules 變成一個(gè)比較簡單容易求得的問題

問題變成,這一類中這句話出現(xiàn)的概率是多少,當(dāng)然,別忘了公式里的另外兩個(gè)概率

栗子:單詞 love 在 positive 的情況下出現(xiàn)的概率是 0.1,在 negative 的情況下出現(xiàn)的概率是 0.001

▌6. K最近鄰(k nearest neighbours)

視頻:

https://www.youtube.com/watch?v=zHbxbb2ye3E

給一個(gè)新的數(shù)據(jù)時(shí),離它最近的 k 個(gè)點(diǎn)中,哪個(gè)類別多,這個(gè)數(shù)據(jù)就屬于哪一類。

栗子:要區(qū)分 貓 和 狗,通過 claws 和 sound 兩個(gè)feature來判斷的話,圓形和三角形是已知分類的了,那么這個(gè) star 代表的是哪一類呢

k=3時(shí),這三條線鏈接的點(diǎn)就是最近的三個(gè)點(diǎn),那么圓形多一些,所以這個(gè)star就是屬于貓

▌7. K均值

視頻:

https://www.youtube.com/watch?v=zHbxbb2ye3E

想要將一組數(shù)據(jù),分為三類,粉色數(shù)值大,黃色數(shù)值小

最開心先初始化,這里面選了最簡單的 3,2,1 作為各類的初始值

剩下的數(shù)據(jù)里,每個(gè)都與三個(gè)初始值計(jì)算距離,然后歸類到離它最近的初始值所在類別

分好類后,計(jì)算每一類的平均值,作為新一輪的中心點(diǎn)

幾輪之后,分組不再變化了,就可以停止了

▌8. Adaboost

視頻:

https://www.youtube.com/watch?v=rz9dnmHmZsY

adaboost 是 bosting 的方法之一。bosting就是把若干個(gè)分類效果并不好的分類器綜合起來考慮,會(huì)得到一個(gè)效果比較好的分類器。

下圖,左右兩個(gè)決策樹,單個(gè)看是效果不怎么好的,但是把同樣的數(shù)據(jù)投入進(jìn)去,把兩個(gè)結(jié)果加起來考慮,就會(huì)增加可信度

adaboost 的栗子,手寫識(shí)別中,在畫板上可以抓取到很多 features,例如 始點(diǎn)的方向,始點(diǎn)和終點(diǎn)的距離等等

training 的時(shí)候,會(huì)得到每個(gè) feature 的 weight,例如 2 和 3 的開頭部分很像,這個(gè) feature 對分類起到的作用很小,它的權(quán)重也就會(huì)較小

而這個(gè) alpha 角就具有很強(qiáng)的識(shí)別性,這個(gè) feature 的權(quán)重就會(huì)較大,最后的預(yù)測結(jié)果是綜合考慮這些 feature 的結(jié)果

▌9. 神經(jīng)網(wǎng)絡(luò)

視頻:

https://www.youtube.com/watch?v=CEv_0r5huTY&list=PLjJh1vlSEYgvGod9wWiydumYl8hOXixNu&index=3

Neural Networks 適合一個(gè)input可能落入至少兩個(gè)類別里

NN 由若干層神經(jīng)元,和它們之間的聯(lián)系組成,第一層是 input 層,最后一層是 output 層,在 hidden 層 和 output 層都有自己的 classifier

input 輸入到網(wǎng)絡(luò)中,被激活,計(jì)算的分?jǐn)?shù)被傳遞到下一層,激活后面的神經(jīng)層,最后output 層的節(jié)點(diǎn)上的分?jǐn)?shù)代表屬于各類的分?jǐn)?shù),下圖例子得到分類結(jié)果為 class 1

同樣的 input 被傳輸?shù)讲煌墓?jié)點(diǎn)上,之所以會(huì)得到不同的結(jié)果是因?yàn)楦髯怨?jié)點(diǎn)有不同的weights 和 bias,這也就是 forward propagation

▌10. 馬爾可夫

視頻:

https://www.youtube.com/watch?v=56mGTszb_iM

Markov Chains 由 state 和 transitions 組成

栗子,根據(jù)這一句話 ‘the quick brown fox jumps over the lazy dog’,要得到 markov chain,步驟——先給每一個(gè)單詞設(shè)定成一個(gè)狀態(tài),然后計(jì)算狀態(tài)間轉(zhuǎn)換的概率

這是一句話計(jì)算出來的概率,當(dāng)你用大量文本去做統(tǒng)計(jì)的時(shí)候,會(huì)得到更大的狀態(tài)轉(zhuǎn)移矩陣,例如 the 后面可以連接的單詞,及相應(yīng)的概率

生活中,鍵盤輸入法的備選結(jié)果也是一樣的原理,模型會(huì)更高級(jí)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8499

    瀏覽量

    134283
  • 決策樹
    +關(guān)注

    關(guān)注

    3

    文章

    96

    瀏覽量

    13792

原文標(biāo)題:輕松看懂機(jī)器學(xué)習(xí)常用算法

文章出處:【微信號(hào):AI_Thinker,微信公眾號(hào):人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)常用的決策樹算法技術(shù)解析

    決策樹是最重要的機(jī)器學(xué)習(xí)算法之一,其可被用于分類和回歸問題。本文中,我們將介紹分類部分。
    發(fā)表于 10-12 16:39 ?1491次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>中<b class='flag-5'>常用</b>的決策樹<b class='flag-5'>算法</b>技術(shù)<b class='flag-5'>解析</b>

    【阿里云大學(xué)免費(fèi)精品課】機(jī)器學(xué)習(xí)入門:概念原理及常用算法

    摘要: 阿里云大學(xué)聯(lián)合螞蟻金服高級(jí)算法專家推出了免費(fèi)的機(jī)器學(xué)習(xí)入門課程:機(jī)器學(xué)習(xí)入門:概念原理及常用
    發(fā)表于 06-23 13:51

    常用python機(jī)器學(xué)習(xí)庫盤點(diǎn)

    現(xiàn)在人工智能非常火爆,機(jī)器學(xué)習(xí)應(yīng)該算是人工智能里面的一個(gè)子領(lǐng)域,而其中有一塊是對文本進(jìn)行分析,對數(shù)據(jù)進(jìn)行深入的挖掘提取一些特征值,然后用一些算法學(xué)
    發(fā)表于 05-10 15:20

    一文解析機(jī)器學(xué)習(xí)常用35大算法

    本文將帶你遍歷機(jī)器學(xué)習(xí)領(lǐng)域最受歡迎的算法。系統(tǒng)地了解這些算法有助于進(jìn)一步掌握機(jī)器學(xué)習(xí)。當(dāng)然,本文
    的頭像 發(fā)表于 06-30 04:24 ?4094次閱讀
    一文<b class='flag-5'>解析</b><b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>常用</b>35大<b class='flag-5'>算法</b>

    機(jī)器學(xué)習(xí)算法常用指標(biāo)匯總

    機(jī)器學(xué)習(xí)性能評(píng)價(jià)標(biāo)準(zhǔn)是模型優(yōu)化的前提,在設(shè)計(jì)機(jī)器學(xué)習(xí)算法過程中,不同的問題需要用到不同的評(píng)價(jià)標(biāo)準(zhǔn),本文對
    的頭像 發(fā)表于 02-13 15:09 ?5461次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b><b class='flag-5'>常用</b>指標(biāo)匯總

    10大常用機(jī)器學(xué)習(xí)算法匯總

    本文介紹了10大常用機(jī)器學(xué)習(xí)算法,包括線性回歸、Logistic回歸、線性判別分析、樸素貝葉斯、KNN、隨機(jī)森林等。
    發(fā)表于 11-20 11:10 ?2940次閱讀

    17個(gè)機(jī)器學(xué)習(xí)常用算法

    根據(jù)數(shù)據(jù)類型的不同,對一個(gè)問題的建模有不同的方式。在機(jī)器學(xué)習(xí)或者人工智能領(lǐng)域,人們首先會(huì)考慮算法學(xué)習(xí)方式。在機(jī)器
    的頭像 發(fā)表于 08-11 11:20 ?2037次閱讀

    17個(gè)機(jī)器學(xué)習(xí)常用算法

    源自:AI知識(shí)干貨 根據(jù)數(shù)據(jù)類型的不同,對一個(gè)問題的建模有不同的方式。在機(jī)器學(xué)習(xí)或者人工智能領(lǐng)域,人們首先會(huì)考慮算法學(xué)習(xí)方式。在機(jī)器
    的頭像 發(fā)表于 08-22 09:57 ?2534次閱讀
    17個(gè)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>常用</b><b class='flag-5'>算法</b>!

    常用機(jī)器學(xué)習(xí)算法的基本概念和特點(diǎn)

    。因此對于數(shù)據(jù)科學(xué)家來說,理解算法顯得格外重要,理解不同算法的思想可以幫助數(shù)據(jù)科學(xué)家更從容地面對不同的應(yīng)用場景。 本文列出了常用機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 01-17 15:43 ?4078次閱讀

    機(jī)器學(xué)習(xí)算法的5種基本算子

    自主決策的方法和插件,其中包含了一系列常用的基本算子。在本文中,我們將會(huì)介紹機(jī)器學(xué)習(xí)算法的五種基本算子。 一、 求值算子 求值算子是常用
    的頭像 發(fā)表于 08-17 16:11 ?2210次閱讀

    機(jī)器學(xué)習(xí)算法匯總 機(jī)器學(xué)習(xí)算法分類 機(jī)器學(xué)習(xí)算法模型

    是解決具體問題的一系列步驟,機(jī)器學(xué)習(xí)算法被設(shè)計(jì)用于從大量的數(shù)據(jù)中自動(dòng)學(xué)習(xí)并不斷改進(jìn)自身的性能。本文將為大家介紹機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?1503次閱讀

    機(jī)器學(xué)習(xí)算法總結(jié) 機(jī)器學(xué)習(xí)算法是什么 機(jī)器學(xué)習(xí)算法優(yōu)缺點(diǎn)

    機(jī)器學(xué)習(xí)算法總結(jié) 機(jī)器學(xué)習(xí)算法是什么?機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?2429次閱讀

    機(jī)器學(xué)習(xí)算法入門 機(jī)器學(xué)習(xí)算法介紹 機(jī)器學(xué)習(xí)算法對比

    機(jī)器學(xué)習(xí)算法入門 機(jī)器學(xué)習(xí)算法介紹 機(jī)器
    的頭像 發(fā)表于 08-17 16:27 ?1227次閱讀

    機(jī)器學(xué)習(xí)有哪些算法機(jī)器學(xué)習(xí)分類算法有哪些?機(jī)器學(xué)習(xí)預(yù)判有哪些算法?

    機(jī)器學(xué)習(xí)有哪些算法?機(jī)器學(xué)習(xí)分類算法有哪些?機(jī)器
    的頭像 發(fā)表于 08-17 16:30 ?2368次閱讀

    機(jī)器學(xué)習(xí)算法原理詳解

    機(jī)器學(xué)習(xí)作為人工智能的一個(gè)重要分支,其目標(biāo)是通過讓計(jì)算機(jī)自動(dòng)從數(shù)據(jù)中學(xué)習(xí)并改進(jìn)其性能,而無需進(jìn)行明確的編程。本文將深入解讀幾種常見的機(jī)器
    的頭像 發(fā)表于 07-02 11:25 ?2252次閱讀
    主站蜘蛛池模板: 陕西省| 漳浦县| 博野县| 栾城县| 特克斯县| 文水县| 梓潼县| 项城市| 正定县| 四平市| 通河县| 杭锦后旗| 会理县| 修水县| 泰州市| 社旗县| 石渠县| 特克斯县| 肇州县| 德保县| 青州市| 宁武县| 威信县| 罗甸县| 剑河县| 湘乡市| 泗水县| 阜南县| 木兰县| 金堂县| 黄龙县| 巫山县| 滦平县| 越西县| 上虞市| 黎城县| 于田县| 邵阳县| 南汇区| 裕民县| 滕州市|