機(jī)器學(xué)習(xí)培訓(xùn)模型
1、SVM
? 支持向量機(jī)(Support Vector Machine,SVM)是在分類與回歸分析中
分析數(shù)據(jù)的監(jiān)督式算法。
? 結(jié)構(gòu)風(fēng)險(xiǎn)最小化:在對(duì)給定的數(shù)據(jù)進(jìn)行逼近的精度與逼近函數(shù)的復(fù)雜性相結(jié)合
來尋求最佳比例,以便取得最好的泛化能力
2、Logistic regression
? 邏輯回歸的過程:面對(duì)一個(gè)回歸或者分類問題,建立代價(jià)函數(shù),然后通過優(yōu)化方法
迭代求解出最優(yōu)的模型參數(shù),然后測(cè)試驗(yàn)證我們這個(gè)求解的模型的好壞。
? 實(shí)際是一種分類模型,主要解決二分類問題。
3、kNN
? 用于分類時(shí)思路是:找出一個(gè)樣本的k個(gè)最近鄰點(diǎn),當(dāng)這些鄰居中的大多數(shù)屬 于某一類別,就可以判定該樣本也屬于這一類別。
4、Decision Tree
? 決策樹算法首先對(duì)數(shù)據(jù)進(jìn)行處理,利用歸納算法生成可讀的規(guī)則和決策樹,
然后使用決策對(duì)新數(shù)據(jù)進(jìn)行分析。
? 一種分類算法,本質(zhì)上是通過一系列規(guī)則對(duì)數(shù)據(jù)進(jìn)行分類的過程。
5、Random Forest
? 1.數(shù)據(jù)的隨機(jī)性選取:從原始的數(shù)據(jù)集中采取有放回的抽樣,構(gòu)造子數(shù)據(jù)集。
? 2.待選特征的隨機(jī)選取:隨機(jī)森林中的子樹的每一個(gè)分裂過程并未用到所有的待選特征,
而是從所有的待選特征中隨機(jī)選取一定的特征,之后再在隨機(jī)選取的特征中選取最優(yōu)的
特征
6、XGBoost
? XGBoost是GBDT(Gradient boosting Decision Tree梯度提升決策樹)算法的高效實(shí)現(xiàn)。
? GBDT是采用梯度下降的思想、以之前生成所有的樹為基礎(chǔ)使得目標(biāo)函數(shù)最小化