班級規(guī)模及環(huán)境--熱線:4008699035 手機(jī):15921673576( 微信同號) |
每期人數(shù)限3到5人。 |
上課時間和地點(diǎn) |
上課地點(diǎn):【上海】:同濟(jì)大學(xué)(滬西)/新城金郡商務(wù)樓(11號線白銀路站) 【深圳分部】:電影大廈(地鐵一號線大劇院站)/深圳大學(xué)成教院 【北京分部】:北京中山學(xué)院/福鑫大樓 【南京分部】:金港大廈(和燕路) 【武漢分部】:佳源大廈(高新二路) 【成都分部】:領(lǐng)館區(qū)1號(中和大道) 【沈陽分部】:沈陽理工大學(xué)/六宅臻品 【鄭州分部】:鄭州大學(xué)/錦華大廈 【石家莊分部】:河北科技大學(xué)/瑞景大廈 【廣州分部】:廣糧大廈 【西安分部】:協(xié)同大廈
最近開課時間(周末班/連續(xù)班/晚班):2020年3月16日 |
實(shí)驗(yàn)設(shè)備 |
◆課時: 共5 部份,30學(xué)時
☆注重質(zhì)量
☆邊講邊練
☆合格學(xué)員免費(fèi)推薦工作
★實(shí)驗(yàn)設(shè)備請點(diǎn)擊這兒查看★ |
質(zhì)量保障 |
1、培訓(xùn)過程中,如有部分內(nèi)容理解不透或消化不好,可免費(fèi)在以后培訓(xùn)班中重聽;
2、培訓(xùn)結(jié)束后,授課老師留給學(xué)員聯(lián)系方式,保障培訓(xùn)效果,免費(fèi)提供課后技術(shù)支持。
3、培訓(xùn)合格學(xué)員可享受免費(fèi)推薦就業(yè)機(jī)會。 |
大綱 |
|
一、機(jī)器學(xué)習(xí) 1)機(jī)器學(xué)習(xí)概述2)定義問題
二、數(shù)據(jù)預(yù)處理 1)特征抽取2)特征轉(zhuǎn)換3)歸一化
三、線性回歸算法 1)線性回歸2)Ridge嶺回歸3)Lasso回歸4)Elastic Net算法
四、KNN K近鄰算法 1)KNN算法原理2)KNN算法應(yīng)用
五、邏輯回歸算法 1)sigmoid函數(shù)2)邏輯回歸的損失函數(shù)3)邏輯回歸的優(yōu)化4)邏輯回歸的多分類問題5)Softmax回歸多分類
六、梯度下降算法 1)批量梯度下降2)隨機(jī)梯度下降3)mini-batch梯度下降
七、牛頓法與擬牛頓法 1)牛頓法求函數(shù)根2)牛頓法求解函數(shù)最優(yōu)化問題3)擬牛頓法—L-BFGS
八、決策樹算法 1)決策樹的簡介2)CART、ID-3、C4.53)gini系數(shù)4)信息增益5)信息增益率6)葉子節(jié)點(diǎn)的表達(dá)7)回歸樹8)預(yù)剪枝和后剪
九、Bagging集成算法 1)bootstrap2)隨機(jī)森林
十、Adaboost算法 1)Adaboost算法流程2)Adaboost算法損失函數(shù)優(yōu)化
十一、GBDT算法 1)函數(shù)空間梯度下降2)GBM框架3)GBDT算法解決回歸問題
十二、XGboost和lightGBM算法 1)目標(biāo)函數(shù)的建立2)子樹的分裂條件3) 子樹葉子節(jié)點(diǎn)的表達(dá)4)與傳統(tǒng)GBDT的比較
十三、支持向量機(jī) 1)線性可分支持向量機(jī)2)軟間隔支持向量機(jī)3)核函數(shù)方法4)SMO算法5)SVM回歸SVR和分類SVC
十四、聚類算法 1)各種相似度距離測度方法2)K-Means算法3)K-Means算法優(yōu)缺點(diǎn)4)密度聚類5)層級聚類6)譜聚類
十五、PCA主成分分析算法 1) 方差最大化投影2) 矩陣的特征值與特征向量3) PCA降維
十六、LDA降維 1) LDA投影標(biāo)準(zhǔn)2) LDA降維算法
十七、MDS降維算法 1) 基于空間距離保持的方法2) MDS算法原理
十八、ISO-map降維算法 1) 近似測地距離的計算2) 最短路徑距離算法3) ISO-map算法原理
十九、LLE算法 1) 數(shù)據(jù)點(diǎn)的局部線性關(guān)系2) LLE算法原理
二十、SVD奇異值分解算法 1) 方陣的特征值分解2) 矩陣的奇異值分解3) 左右奇異向量4) 推薦系統(tǒng)應(yīng)用
二十一、ALS矩陣分解算法 1) 矩陣分解的另一種方式2) 評估近似矩陣的方法3) ALS矩陣分解
二十二、FM 因子分解機(jī) 1) FM模型介紹2) FM算法詳解
二十三、樸素貝葉斯算法 1)樸素貝葉斯2)文本分類上的應(yīng)用
二十四、貝葉斯網(wǎng)絡(luò) 1) 有向概率圖模型2) 生成模型3) 貝葉斯網(wǎng)絡(luò)聯(lián)合分布的表達(dá)4) 貝葉斯網(wǎng)絡(luò)性質(zhì)
二十五、隱馬爾可夫模型 1)隱馬可夫模型的基本概念2)概率計算問題3)前向/后向算法4)維特比算法
二十六、最大熵模型 1) 隨機(jī)變量的熵、聯(lián)合熵、相對熵、互信息
2) 最大熵原理 3)最大熵模型的學(xué)習(xí) 4)最大似然估計 5)模型學(xué)習(xí)的最優(yōu)化算法
二十七、EM算法 1)EM算法原理及收斂性2)EM算法在高斯混合模型學(xué)習(xí)中的應(yīng)用
二十八、條件隨機(jī)場 1)條件隨機(jī)場的定義與形式2)條件隨機(jī)場的學(xué)習(xí)方法
二十九、PLSA 主題模型 1) LSA潛語義分析2) PLSA的模型拓?fù)?) EM算法應(yīng)用于PLSA模型訓(xùn)練
三十、LDA主題模型 1)LDA主題模型概述2)共軛先驗(yàn)分布3)狄利克雷分布4)Laplace平滑5)Gibbs采樣詳解6)LDA與詞向量Word2Vec效果比較
三十一、神經(jīng)網(wǎng)絡(luò) 1) 前向傳播2) 反向傳播3) 激活函數(shù)4) 梯度彌散/消失5) 參數(shù)初始化6) 多層感知機(jī)
|