課程目錄:“Python大數(shù)據(jù)核心技術(shù)實(shí)戰(zhàn) ”高級(jí)工程師實(shí)戰(zhàn)培訓(xùn)
4401 人關(guān)注
(78637/99817)
課程大綱:

   “Python大數(shù)據(jù)核心技術(shù)實(shí)戰(zhàn) ”高級(jí)工程師實(shí)戰(zhàn)培訓(xùn)

 

 

 

模塊一 機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)1 - 數(shù)學(xué)分析
1. 機(jī)器學(xué)習(xí)的一般方法和橫向比較
2. 數(shù)學(xué)是有用的:以SVD為例
3. 機(jī)器學(xué)習(xí)的角度看數(shù)學(xué)
4. 復(fù)習(xí)數(shù)學(xué)分析
5. 直觀解釋常數(shù)e
6. 導(dǎo)數(shù)/梯度
7. 隨機(jī)梯度下降
8. Taylor展式的落地應(yīng)用
9. gini系數(shù)
10. 凸函數(shù)
11. Jensen不等式
12. 組合數(shù)與信息熵的關(guān)系

模塊二 機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)2 - 概率論與貝葉斯先驗(yàn)
1. 概率論基礎(chǔ)
2. 古典概型
3. 貝葉斯公式
4. 先驗(yàn)分布/后驗(yàn)分布/共軛分布
5. 常見概率分布
6. 泊松分布和指數(shù)分布的物理意義
7. 協(xié)方差(矩陣)和相關(guān)系數(shù)
8. 獨(dú)立和不相關(guān)
9. 大數(shù)定律和中心極限定理的實(shí)踐意義
10. 深刻理解大似然估計(jì)MLE和大后驗(yàn)估計(jì)MAP
11. 過(guò)擬合的數(shù)學(xué)原理與解決方案

模塊三 機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)3 - 矩陣和線性代數(shù)
1. 線性代數(shù)在數(shù)學(xué)科學(xué)中的地位
2. 馬爾科夫模型
3. 矩陣乘法的直觀表達(dá)
4. 狀態(tài)轉(zhuǎn)移矩陣
5. 矩陣和向量組
6. 特征向量的思考和實(shí)踐計(jì)算
7. QR分解
8. 對(duì)稱陣、正交陣、正定陣
9. 數(shù)據(jù)白化及其應(yīng)用
10. 向量對(duì)向量求導(dǎo)
11. 標(biāo)量對(duì)向量求導(dǎo)
12. 標(biāo)量對(duì)矩陣求導(dǎo)工作機(jī)制

模塊四 Python基礎(chǔ)1 - Python及其數(shù)學(xué)庫(kù)
1. 解釋器Python2.7與IDE:Anaconda/Pycharm
2. Python基礎(chǔ):列表/元組/字典/類/文件
3. Taylor展式的代碼實(shí)現(xiàn)
4. numpy/scipy/matplotlib/panda的介紹和典型使用
5. 多元高斯分布
6. 泊松分布、冪律分布
7. 典型圖像處理
8. 蝴蝶效應(yīng)
9. 分形與可視化

模塊五 Python基礎(chǔ)2 - 機(jī)器學(xué)習(xí)庫(kù)
1. scikit-learn的介紹和典型使用
2. 損失函數(shù)的繪制
3. 多種數(shù)學(xué)曲線
4. 多項(xiàng)式擬合
5. 快速傅里葉變換FFT
6. 奇異值分解SVD
7. Soble/Prewitt/Laplacian算子與卷積網(wǎng)絡(luò)
8. 卷積與(指數(shù))移動(dòng)平均線
9. 股票數(shù)據(jù)分析

模塊六 Python基礎(chǔ)3 - 數(shù)據(jù)清洗和特征選擇
1. 實(shí)際生產(chǎn)問(wèn)題中算法和特征的關(guān)系
2. 股票數(shù)據(jù)的特征提取和應(yīng)用
3. 一致性檢驗(yàn)
4. 缺失數(shù)據(jù)的處理
5. 環(huán)境數(shù)據(jù)異常檢測(cè)和分析
6. 模糊數(shù)據(jù)查詢和數(shù)據(jù)校正方法、算法、應(yīng)用
7. 樸素貝葉斯用于鳶尾花數(shù)據(jù)
8. GaussianNB/MultinomialNB/BernoulliNB
9. 樸素貝葉斯用于18000+篇/Sogou新聞文本的分類

模塊七 回歸
1. 線性回歸
2. Logistic/Softmax回歸
3. 廣義線性回歸
4. L1/L2正則化
5. Ridge與LASSO
6. Elastic Net
7. 梯度下降算法:BGD與SGD
8. 特征選擇與過(guò)擬合

模塊八 Logistic回歸
1. Sigmoid函數(shù)的直觀解釋
2. Softmax回歸的概念源頭
3. Logistic/Softmax回歸
4. 大熵模型
5. K-L散度
6. 損失函數(shù)
7. Softmax回歸的實(shí)現(xiàn)與調(diào)參

模塊九 回歸實(shí)踐
1. 機(jī)器學(xué)習(xí)sklearn庫(kù)介紹
2. 線性回歸代碼實(shí)現(xiàn)和調(diào)參
3. Softmax回歸代碼實(shí)現(xiàn)和調(diào)參
4. Ridge回歸/LASSO/Elastic Net
5. Logistic/Softmax回歸
6. 廣告投入與銷售額回歸分析
7. 鳶尾花數(shù)據(jù)集的分類
8. 交叉驗(yàn)證
9. 數(shù)據(jù)可視化

模塊十 決策樹和隨機(jī)森林
1. 熵、聯(lián)合熵、條件熵、KL散度、互信息
2. 大似然估計(jì)與大熵模型
3. ID3、C4.5、CART詳解
4. 決策樹的正則化
5. 預(yù)剪枝和后剪枝
6. Bagging
7. 隨機(jī)森林
8. 不平衡數(shù)據(jù)集的處理
9. 利用隨機(jī)森林做特征選擇
10. 使用隨機(jī)森林計(jì)算樣本相似度
11. 數(shù)據(jù)異常值檢測(cè)

模塊十一 隨機(jī)森林實(shí)踐
1. 隨機(jī)森林與特征選擇
2. 決策樹應(yīng)用于回歸
3. 多標(biāo)記的決策樹回歸
4. 決策樹和隨機(jī)森林的可視化
5. 葡萄酒數(shù)據(jù)集的決策樹/隨機(jī)森林分類
6. 波士頓房?jī)r(jià)預(yù)測(cè)

模塊十二 提升
1. 提升為什么有效
2. 梯度提升決策樹GBDT
3. XGBoost算法詳解
4. Adaboost算法
5. 加法模型與指數(shù)損失

模塊十三 提升實(shí)踐
1. Adaboost用于蘑菇數(shù)據(jù)分類
2. Adaboost與隨機(jī)森林的比較
3. XGBoost庫(kù)介紹
4. Taylor展式與學(xué)習(xí)算法
5. KAGGLE簡(jiǎn)介
6. 泰坦尼克乘客存活率估計(jì)

模塊十四 SVM
1. 線性可分支持向量機(jī)
2. 軟間隔的改進(jìn)
3. 損失函數(shù)的理解
4. 核函數(shù)的原理和選擇
5. SMO算法
6. 支持向量回歸SVR

模塊十五 SVM實(shí)踐
1. libSVM代碼庫(kù)介紹
2. 原始數(shù)據(jù)和特征提取
3. 葡萄酒數(shù)據(jù)分類
4. 數(shù)字圖像的手寫體識(shí)別
5. SVR用于時(shí)間序列曲線預(yù)測(cè)
6. SVM、Logistic回歸、隨機(jī)森林三者的橫向比較

模塊十六 聚類(一)
1. 各種相似度度量及其相互關(guān)系
2. Jaccard相似度和準(zhǔn)確率、召回率
3. Pearson相關(guān)系數(shù)與余弦相似度
4. K-means與K-Medoids及變種
5. AP算法(Sci07)/LPA算法及其應(yīng)用

模塊十七 聚類(二)
1. 密度聚類DBSCAN/DensityPeak(Sci14)
2. DensityPeak(Sci14)
3. 譜聚類SC
4. 聚類評(píng)價(jià)AMI/ARI/Silhouette
5. LPA算法及其應(yīng)用

模塊十八 聚類實(shí)踐
1. K-Means++算法原理和實(shí)現(xiàn)
2. 向量量化VQ及圖像近似
3. 并查集的實(shí)踐應(yīng)用
4. 密度聚類的代碼實(shí)現(xiàn)
5. 譜聚類用于圖片分割

模塊十九 EM算法
1. 大似然估計(jì)
2. Jensen不等式
3. 樸素理解EM算法
4. 精確推導(dǎo)EM算法
5. EM算法的深入理解
6. 混合高斯分布
7. 主題模型pLSA

模塊二十 EM算法實(shí)踐
1. 多元高斯分布的EM實(shí)現(xiàn)
2. 分類結(jié)果的數(shù)據(jù)可視化
3. EM與聚類的比較
4. Dirichlet過(guò)程EM
5. 三維及等高線等圖件的繪制
6. 主題模型pLSA與EM算法

模塊二十一 主題模型LDA
1. 貝葉斯學(xué)派的模型認(rèn)識(shí)
2. Beta分布與二項(xiàng)分布
3. 共軛先驗(yàn)分布
4. Dirichlet分布
5. Laplace平滑
6. Gibbs采樣詳解

模塊二十二 LDA實(shí)踐
1. 網(wǎng)絡(luò)爬蟲的原理和代碼實(shí)現(xiàn)
2. 停止詞和高頻詞
3. 動(dòng)手自己實(shí)現(xiàn)LDA
4. LDA開源包的使用和過(guò)程分析
5. Metropolis-Hastings算法
6. MCMC
7. LDA與word2vec的比較
8. TextRank算法與實(shí)踐

模塊二十三 隱馬爾科夫模型HMM
1. 概率計(jì)算問(wèn)題
2. 前向/后向算法
3. HMM的參數(shù)學(xué)習(xí)
4. Baum-Welch算法詳解
5. Viterbi算法詳解
6. 隱馬爾科夫模型的應(yīng)用優(yōu)劣比較

模塊二十四 HMM實(shí)踐
1. 動(dòng)手自己實(shí)現(xiàn)HMM用于中文分詞
2. 多個(gè)語(yǔ)言分詞開源包的使用和過(guò)程分析
3. 文件數(shù)據(jù)格式UFT-8、Unicode
4. 停止詞和標(biāo)點(diǎn)符號(hào)對(duì)分詞的影響
5. 前向后向算法計(jì)算概率溢出的解決方案
6. 發(fā)現(xiàn)新詞和分詞效果分析
7. 高斯混合模型HMM
8. GMM-HMM用于股票數(shù)據(jù)特征提取

主站蜘蛛池模板: 一本综合久久国产二区| 国产精品亚洲综合专区片高清久久久| 婷婷久久综合| 伊人色综合久久天天人守人婷| 亚洲欧洲日产国产综合网| 久久综合综合久久97色| 色综合网天天综合色中文男男| 一本久道久久综合狠狠躁AV| 久久香蕉综合色一综合色88| 亚洲综合日韩中文字幕v在线| 色噜噜狠狠色综合久| 色欲老女人人妻综合网| 亚洲精品综合久久| 亚洲欧美日韩综合一区二区| 亚洲狠狠久久综合一区77777| 欧美精品色婷婷五月综合| 狠狠色丁香婷婷综合久久来| 亚洲综合国产一区二区三区| 欧美日韩国产综合视频在线观看| 久久综合五月丁香久久激情| 成人综合久久精品色婷婷| 亚洲成a人v欧美综合天堂下载| 欧美偷窥清纯综合图区| 欧美日韩亚洲乱国产综合| 亚洲狠狠婷婷综合久久蜜芽| 色综合天天综合网站中国| 国产一级a爱做综合| 2021精品国产综合久久| 综合色婷婷| 一本久久综合亚洲鲁鲁五月天亚洲欧美一区二区| 色综合婷婷99| 日日AV色欲香天天综合网| 色综合婷婷在线观看66| 伊人久久大香线蕉综合Av| 狠狠狠色丁香婷婷综合久久五月| 2021精品国产综合久久| 亚洲国产综合欧美在线不卡| 久久精品国产91久久综合麻豆自制| 久久久久亚洲av综合波多野结衣| 自拍三级综合影视| 狠狠色狠狠色综合日日五|