第1部份:
00_為什么要學(xué)習(xí)數(shù)學(xué)
01_引言和學(xué)習(xí)方法
02_feature和label
03_什么是機(jī)器學(xué)習(xí)
04_數(shù)據(jù)采集方式
05_knn算法入門
06_knn算法python實(shí)現(xiàn)
07_代碼流程回顧
08_抽取knn函數(shù)
09_實(shí)驗(yàn)演示驗(yàn)證結(jié)論
10_評(píng)估模型好壞的方法,訓(xùn)練集和測(cè)試集
11_生成測(cè)試和訓(xùn)練數(shù)據(jù)集
12_調(diào)參選取最優(yōu)的k
13_增加數(shù)據(jù)的維度
14_numpy加載特殊數(shù)據(jù)
15_歐式距離
16_二維空間距離的計(jì)算
17_代碼增加一個(gè)維度
18_數(shù)據(jù)歸一化
19_knn的feature的選擇
20_向量和向量的運(yùn)算
21_概念總結(jié)
22_使用矩陣和向量實(shí)現(xiàn)knn
23_ 房價(jià)預(yù)測(cè)簡單框架
24_數(shù)據(jù)的歸一化和標(biāo)準(zhǔn)化
附1_如何學(xué)習(xí)數(shù)學(xué)
附:問題1
第2部份:
01_線性回歸和Knn
02_線性回歸解決什么問題
03_Excel進(jìn)行線性回歸
04_損失函數(shù)和最小均方差
05_excle來簡單理解梯度下降
06_梯度下降的問題分析
07_求導(dǎo)簡單入門
08_mse對(duì)b進(jìn)行求導(dǎo)
09_Excel演示梯度下降&學(xué)習(xí)速率
10_偏導(dǎo)數(shù)分別求解m和b的導(dǎo)數(shù)
11_對(duì)m和b分別進(jìn)行梯度下降
12_Python代碼實(shí)現(xiàn)梯度下降
13_代碼測(cè)試生成m和b
14_作業(yè)演示
附_作業(yè)講解
第3部份:
01_高等數(shù)學(xué)入門
02_問題描述
03_簡單理解矩陣運(yùn)算的現(xiàn)實(shí)含義
04_矩陣的形狀
05_矩陣的加法
06_手動(dòng)計(jì)算矩陣的乘法
07_矩陣的乘法不滿足交換律
08_用numpy進(jìn)行矩陣的乘法運(yùn)算
09_矩陣運(yùn)算計(jì)算m和b的偏導(dǎo)數(shù)
10_numpy矩陣運(yùn)算演示獲取m和b的偏導(dǎo)
11_用矩陣運(yùn)算重構(gòu)線性回歸代碼
12_對(duì)比程序執(zhí)行的時(shí)間
13_增加數(shù)據(jù)的維度
14_函數(shù)模型的評(píng)估和錯(cuò)誤率的計(jì)算
15_矩陣可以理解為一個(gè)變化函數(shù)
16_bmp是如何描述圖片的
17_位圖和svg圖的區(qū)別
18_矩陣運(yùn)算變化圖片的位置
19_矩陣運(yùn)算旋轉(zhuǎn)圖形
20_矩陣的縮放處理
21_圖形變換綜合案例
22_機(jī)器學(xué)習(xí)淺談
23_sigmod函數(shù)引入
24_邏輯回歸的步驟
附:擴(kuò)展作業(yè)
第4部份:
01_自然底數(shù)和sigmod函數(shù)
02_矩陣運(yùn)算計(jì)算邏輯回歸
03_邏輯回歸簡單實(shí)現(xiàn)
04_多分類問題
05_多分類的概率問題思考
06_多分類問題softmax公式
07_手寫數(shù)字?jǐn)?shù)據(jù)集
08_手寫數(shù)字的識(shí)別原理
09_手寫數(shù)字?jǐn)?shù)據(jù)集的處理
10_手寫數(shù)字的識(shí)別
11_手寫數(shù)字bug處理
12_ai自動(dòng)駕駛
13_神經(jīng)網(wǎng)絡(luò)的作用
14_多層神經(jīng)網(wǎng)絡(luò)演示
15_感知機(jī)
16_感知機(jī)數(shù)學(xué)原理
17_線性模型和非線性模型
18_交叉熵cross-entropy
19_概率簡介 |