訂閱
糾錯
加入自媒體

對于這些機器學(xué)習(xí)算法 數(shù)學(xué)不好你還真看不懂

機器學(xué)習(xí)技術(shù)不僅僅影響著當前的人工智能領(lǐng)域,在筆者看來,機器學(xué)習(xí)當中的算法技術(shù)甚至還可能影響到大數(shù)據(jù)對于很多領(lǐng)域的應(yīng)用深度和廣度,對于機器學(xué)習(xí)的算法來說,我們可以描述成學(xué)習(xí)一個目標函數(shù)f,它能夠最好地映射出輸入變量X到輸出變量Y。有一類普遍的學(xué)習(xí)任務(wù)。我們要根據(jù)輸入變量X來預(yù)測出Y。我們不知道目標函數(shù)f是什么樣的。如果早就知道,我們就可以直接使用它,而不需要再通過機器學(xué)習(xí)算法從數(shù)據(jù)中進行學(xué)習(xí)了。

接下來我們就來了解一下常見的幾種機器學(xué)習(xí)算法以及其原理構(gòu)成。

線性回歸

線性回歸是機器學(xué)習(xí)應(yīng)用比較廣泛的一類概念和技術(shù),線性回歸通過找到一組特定的權(quán)值,稱為系數(shù)B。通過最能符合輸入變量x到輸出變量y關(guān)系的等式所代表的線表達出來。

不同的技巧可以用于線性回歸模型。比如線性代數(shù)的普通最小二乘法,以及梯度下降優(yōu)化算法。線性回歸已經(jīng)有超過200年的歷史,已經(jīng)被廣泛地研究。根據(jù)經(jīng)驗,這種算法可以很好地消除相似的數(shù)據(jù),以及去除數(shù)據(jù)中的噪聲。它是快速且簡便的首選算法。

邏輯回歸

邏輯回歸是另外一種從統(tǒng)計領(lǐng)域借鑒而來的機器學(xué)習(xí)算法,和線性回歸一樣,它的目的是找出每個輸入變量所對應(yīng)的參數(shù)值,但不同的是,預(yù)測輸出所用的變換是一個被稱作logistic的非線性函數(shù)。

正是因為模型學(xué)習(xí)的這種方式,邏輯回歸做出的預(yù)測可以被當做輸入為0和1兩個分類數(shù)據(jù)的概率值。這在一些需要給出預(yù)測合理性的問題中非常有用。就像線性回歸,在需要移除與輸出變量無關(guān)的特征以及相似特征方面,邏輯回歸可以表現(xiàn)得很好。在處理二分類問題上,它是一個快速高效的模型。

線性判別分析

邏輯回歸是一個二分類的算法問題,當然如果需要去進行更多的分類,限行判別分析算法,也就是LDA是一種更好的線性分類方式。LDA包含對每一類輸入數(shù)據(jù)的統(tǒng)計特性(包含類內(nèi)樣本均值和總體樣本變量)。通過計算每個類的判別值,并根據(jù)最大值來進行預(yù)測。這種方法假設(shè)數(shù)據(jù)服從高斯分布(鐘形曲線)。所以它可以較好地提前去除離群值。它是針對分類模型預(yù)測問題的一種簡單有效的方法。

回歸樹分析方法

決策樹式機器學(xué)習(xí)預(yù)測建模的一類重要算法,對于機器學(xué)習(xí)來說,可以用二叉樹去解釋決策樹模型,也就是根據(jù)算法和數(shù)據(jù)結(jié)構(gòu)去建立起二叉樹的模型,每個節(jié)點都是代表一個輸入變量以及變量的分叉點,可以假設(shè)它是數(shù)值變量,樹的葉節(jié)點包括用于預(yù)測的輸出變量y。通過樹的各分支到達葉節(jié)點,并輸出對應(yīng)葉節(jié)點的分類值。

樸素貝葉斯

這個模型包括兩種概率。它們可以通過訓(xùn)練數(shù)據(jù)直接計算得到:每個類的概率;給定x值情況下每個類的條件概率。根據(jù)貝葉斯定理,一旦完成計算,就可以使用概率模型針對新的數(shù)據(jù)進行預(yù)測。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號