
無(wú)監(jiān)督學(xué)習(xí)與自編碼器實(shí)現(xiàn)培訓(xùn)
在機(jī)器學(xué)習(xí)里在真正開始訓(xùn)練跑算法之前,
都需要進(jìn)行數(shù)據(jù)預(yù)處理,
我們需要人工的或“啟發(fā)式”地去處理數(shù)據(jù),提取特征,
數(shù)據(jù)預(yù)處理的效果對(duì)后續(xù)訓(xùn)練過程很關(guān)鍵。
這門課程將介紹一種基于無(wú)監(jiān)督學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)降維的一種應(yīng)用——自聯(lián)想存儲(chǔ)器。
1 無(wú)監(jiān)督學(xué)習(xí)
2 梯度下降算法
3 數(shù)據(jù)標(biāo)準(zhǔn)化
1
無(wú)監(jiān)督學(xué)習(xí)介紹
1.無(wú)監(jiān)督學(xué)習(xí)Unsupervisedlearning
2.聚類Clustering 3.特征提取Featuresextraction
4.自編碼器Autoencoder
2
自編碼器實(shí)現(xiàn)
1.歸一化 2.批量梯度下降Batchgradientdescent
3.隨機(jī)梯度下降Stochasticgradientdescent
4.小批梯度下降Minibatchgradientdescent
1 無(wú)監(jiān)督學(xué)習(xí)的基礎(chǔ)概念
2 實(shí)驗(yàn)數(shù)據(jù)預(yù)處理:標(biāo)準(zhǔn)化
3 前向傳播代碼實(shí)現(xiàn)
4 反向傳播代碼實(shí)現(xiàn)
5 自編碼器模型的訓(xùn)練
