第1 章 深度學習簡介
1.1 深度學習的發展階段
1.2 深度學習中的關鍵人物
1.3 深度學習框架介紹
1.4 本書的系統結構
?
第2 章 環境設定
2.1 系統結構介紹
2.2 深度學習環境安裝
2.3 開發環境安裝設定
?
第3 章 深度學習基礎
3.1 線性迴歸
3.2 線性迴歸的簡捷實現
3.3 梯度下降與反向傳播
3.4 從零實現迴歸模型
3.5 從邏輯迴歸到Softmax 迴歸
3.6 Softmax 迴歸的簡捷實現
3.7 從零實現分類模型
3.8 迴歸模型評估指標
3.9 分類模型評估指標
3.10 過擬合與正規化
3.11 超參數與交叉驗證
3.12 啟動函式
3.13 多標籤分類
?
第4 章 卷積神經網路
4.1 卷積的概念
4.2 卷積的計算過程
4.3 填充和池化
4.4 LeNet5 網路
4.5 AlexNet 網路
4.6 VGG 網路
4.7 NIN 網路
4.8 GoogLeNet 網路
4.9 ResNet 網路
4.10 DenseNet 網路
?
第5 章 模型訓練與重複使用
5.1 參數及日誌管理
5.2 TensorBoard 視覺化
5.3 模型的儲存與重複使用
5.4 模型的遷移學習
5.5 開放原始碼模型重複使用
5.6 多GPU 訓練
5.7 資料前置處理快取
?
第6 章 模型最佳化方法
6.1 學習率排程器
6.2 梯度裁剪
6.3 批歸一化
6.4 層歸一化
6.5 組歸一化
6.6 動量法
6.7 AdaGrad 演算法
6.8 AdaDelta 演算法
6.9 Adam 演算法
6.10 初始化方法
?
第7 章 循環神經網路
7.1 RNN
7.2 時序資料
7.3 LSTM 網路
7.4 GRU 網路
7.5 BiRNN 網路
7.6 CharRNN 網路
?
第8 章 時序與模型融合
8.1 TextCNN
8.2 TextRNN
8.3 CNN-RNN
8.4 ConvLSTM 網路
8.5 3DCNN
8.6 STResNet
?
第9 章 自然語言處理
9.1 自然語言處理介紹
9.2 Word2Vec 詞向量
9.3 Word2Vec 訓練與使用
9.4 GloVe 詞向量
9.5 詞向量的微調使用
9.6 fastText 網路
9.7 Seq2Seq 網路
9.8 序列模型評價指標
9.9 NMT 網路
9.10 注意力機制
9.11 含注意力的NMT 網路
9.12 含注意力的RNN
?
第10 章 現代神經網路
10.1 ELMo 網路
10.2 Transformer 網路
10.3 Transformer 結構
10.4 Transformer 實現
10.5 Transformer 對聯模型
10.6 BERT 網路
10.7 從零實現BERT
10.8 BERT 文字分類模型
10.9 BERT 問題選擇模型
10.10 BERT 問題回答模型
10.11 BERT 命名實體辨識模型
10.12 BERT 從零訓練
10.13 GPT-1 模型
10.14 GPT-2 與GPT-3 模型
10.15 基於GPT-2 的中文預訓練模型
10.16 InstructGPT 與ChatGPT
10.17 ChatGPT 與提示詞工程
10.18 百川大模型使用
10.19 百川大模型實現
10.20 GPT-4 與GPT 的使用
?