
神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)—TensorFlow培訓(xùn)
01
人工智能的起源和發(fā)展
1.1 人工智能的誕生
1.2 人工智能的發(fā)展
1.3 機智過人or技不如人?
02
TensorFlow2.0環(huán)境的安裝與使用
2.1 開發(fā)環(huán)境介紹
2.2 Anaconda的下載與安裝
2.3 Hello,World
2.4 使用Jupyter Notebook
2.5 包管理和環(huán)境管理
2.6 安裝TensorFlow2.0
*2.7 安裝TensorFlow2.0 GPU版本
03
Python語言基礎(chǔ)(1)
3.1 初識Python
3.2 第一個Python程序
3.3 輸入和輸出
3.4 常量、變量和表達式
3.5 程序控制語句
04
Python語言基礎(chǔ)(2)
4.1內(nèi)置數(shù)據(jù)結(jié)構(gòu)
4.2 函數(shù)和模塊
4.3 Python面向?qū)ο缶幊?br>
4.4 文件
4.5 異常處理
4.6 上下文管理器
05
NumPy科學(xué)計算庫
5.1 多維數(shù)組
5.2 創(chuàng)建NumPy數(shù)組
5.3 數(shù)組運算
5.4 矩陣和隨機數(shù)
06
Matplotlib數(shù)據(jù)可視化
6.1 Matplotlib繪圖基礎(chǔ)
6.2 散點圖
6.3 折線圖和柱形圖
6.4 實例:波士頓房價數(shù)據(jù)集可視化
6.5 實例:鳶尾花數(shù)據(jù)集可視化
07
數(shù)字圖像基礎(chǔ)
7.1 數(shù)字圖像基本概念
7.2 Pillow圖像處理庫
7.3 實例:手寫數(shù)字?jǐn)?shù)據(jù)集MNIST
08
Tensorflow基礎(chǔ)
8.1 Tensorflow2.0特性
8.2 創(chuàng)建張量
8.3 維度變換
8.4 部分采樣
8.5 張量運算
*8.6使用GPU
09
回歸問題
9.1 機器學(xué)習(xí)基礎(chǔ)
9.2 一元線性回歸
9.3 實例:解析法實現(xiàn)一元線性回歸
9.4 多元線性回歸
9.5 實例:解析法實現(xiàn)多元線性回歸
*9.6 實例:三維模型可視化
10
梯度下降法
10.1 梯度下降法基本原理
10.2 實例:梯度下降法實現(xiàn)線性回歸問題
10.3 TensorFlow的可訓(xùn)練變量和自動求導(dǎo)機制
10.4 實例:TensorFlow實現(xiàn)梯度下降法
10.5 模型評估
10.6 實例:波士頓房價預(yù)測
11
分類問題
11.1 邏輯回歸
11.2 實例:實現(xiàn)一元邏輯回歸
11.3 線性分類器
11.4 實例:實現(xiàn)多元邏輯回歸
11.5 多分類問題
*11.6 實例:實現(xiàn)多分類
12
人工神經(jīng)網(wǎng)絡(luò)(1)
12.1 神經(jīng)元與感知機
12.2 實例:單層神經(jīng)網(wǎng)絡(luò)實現(xiàn)鳶尾花分類
12.3 多層神經(jīng)網(wǎng)絡(luò)
12.4 誤差反向傳播算法
12.5 激活函數(shù)
12.6 實例:多層神經(jīng)網(wǎng)絡(luò)實現(xiàn)鳶尾花分類
13
人工神經(jīng)網(wǎng)絡(luò)(2)
13.1 小批量梯度下降
13.2 梯度下降法的優(yōu)化
13.3 keras和tf.keras
13.4 Sequential模型
13.5 實例:Sequential模型實現(xiàn)手寫數(shù)字識別
13.6 實例:模型的保存與加載
14
卷積神經(jīng)網(wǎng)絡(luò)
14.1 深度學(xué)習(xí)基礎(chǔ)
14.2 圖像識別與深度學(xué)習(xí)
14.3 圖像卷積
14.4 卷積神經(jīng)網(wǎng)絡(luò)
14.5 實例:卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)手寫數(shù)字識別
14.6 實例:卷積神經(jīng)網(wǎng)絡(luò)識別cifar10圖片