庫存狀況
「香港二樓書店」讓您 愛上二樓●愛上書
我的購物車 加入會員 會員中心 常見問題 首頁
「香港二樓書店」邁向第一華人書店
登入 客戶評價 whatsapp 常見問題 加入會員 會員專區 現貨書籍 現貨書籍 購物流程 運費計算 我的購物車 聯絡我們 返回首頁
香港二樓書店 > 今日好書推介
   
地圖+地圖創意遊戲 (附行旅世界地圖包)
  • 定價650.00元
  • 8 折優惠:HK$520
  • 放入購物車
二樓書籍分類
 
跟 NVIDIA 學深度學習!從基本神經網路到 CNN•RNN•LSTM•seq2seq•Transformer•GPT•BERT...,紮穩機器視覺與大型語言模型 (LLM) 的建模基礎

跟

沒有庫存
訂購需時10-14天
9789863127765
Magnus Ekman
哈雷
旗標
2024年1月23日
293.00  元
HK$ 263.7  






ISBN:9789863127765
  • 規格:平裝 / 416頁 / 17 x 23 x 2.4 cm / 普通級 / 單色印刷 / 初版
  • 出版地:台灣


  • 電腦資訊 > 概論/科技趨勢 > 人工智慧/機器學習

















      ▍AI 界扛霸子 NVIDIA 的深度學習 (Deep Learning) 指定教材!



      ▍GPT、Transformer、seq2seq、self-attention 機制...大型語言模型 (LLM) 背後的先進技術「硬派」揭密!




      近年來,在 NVIDIA (輝達) GPU、CUDA 技術的推波助瀾下,深度學習 (Deep Learning) 領域有著爆炸性的成長,例如最為人知的 ChatGPT 正是運用深度學習技術開發出來的當紅應用。



      【★學深度學習,跟 AI 重要推手 - NVIDIA 學最到位!】



      除了硬體上的助益外,為了幫助眾多初學者快速上手深度學習,任職於 NVIDIA 的本書作者 Magnus Ekman 凝聚了他多年來在 NVIDIA 所積累的 AI 知識撰寫了本書。除了介紹深度學習基礎知識外,也包括此領域的最新重要進展。本書同時也是 NVIDIA 的教育和培訓部門 -【深度學習機構 (Deep Learning Institute, DLI)】 指定的培訓教材 (https://www.nvidia.com/zh-tw/training/books/)。



      要學深度學習,跟深度學習的重要推手 NVIDIA 學就對了!眾多紮實的內容保證讓你受益滿滿!



      【★機器視覺、生成式 AI 語言模型 100% 從零開始打造!】



      在深度學習的教學上,本書將從神經網路的底層知識 (梯度下降、反向傳播...) 介紹起,帶你打好深度學習的底子。接著會介紹用 Colab 雲端開發環境 + tf.Keras 建構、調校多層神經網路,以及經典的 CNN (卷積神經網路) 圖形辨識模型建構...等機器視覺主題。最後則邁入自然語言處理 (NLP) 領域,在介紹完基本的 RNN / LSTM 知識後,以先進的 Transformer、GPT...語言模型架構做結。



      尤其自從 ChatGPT 爆紅之後,自然語言處理 (NLP) 一直是深度學習的熱門研究話題,而這部分正是本書最精彩之處!



      RNN / LSTM 神經網路雖然問世已有一段時間,現今一些先進的 NLP 模型或許不會用它們來建構,但由它們衍生出來的 hidden state (隱藏狀態) 概念可說是重中之重,我們會帶你好好熟悉,以便能跟後續章節順利銜接上。



      之後則會利用各種神經網路技術帶你實作【多國語言翻譯模型】、【Auto-Complete 文字自動完成模型】...等範例。從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎。



      令小編最印象深刻的是,本書所設計的 NLP 章節內容可說是「環環相扣」,從 RNN / LSTM 章節初次觸及 NLP 模型開始,次一章的模型架構幾乎都是為了解決前一章模型的特定問題而生的。這種層層舖墊的獨到方式能讓你深刻理解 RNN / LSTM / seq2seq / encoder-decoder / attention / self-attention 機制...等技術的發展脈絡,對於看懂 Transformer、GPT 等最先進的神經網路技術有莫大的幫助,這絕對是其他書看不到的精彩內容!



    本書特色



      □【徹底看懂 ChatGPT 背後核心技術 - GPT 的模型架構】


      GPT、Transformer、encoder-decoder、seq2seq、self-attention 機制、attention 機制、query-key-value 機制、Multi-head、位置編碼 (positional encoding)、預訓練 (pre-train)、微調 (fine-tune)...各種建模技術輕鬆搞懂!



      □【生成式 AI 語言模型 100% 從零開始打造!】

      •用 Colab + tf.Keras 實作多國語言翻譯模型、Auto-Complete 文字自動完成模型

      •從處理原始文字訓練資料 → 切割資料集 → 建構模型 → 模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型 (LLM) 的建模基礎



      □【深度學習基礎知識學好學滿】

      •紮穩根基!不被損失函數 / 梯度下降 / 反向傳播 / 正規化 / 常規化…一拖拉庫技術名詞搞的暈頭轉向!

      •深度神經網路基礎 / CNN / RNN / LSTM...概念詳解。

      •多模態學習 (multimodal learning)、多任務學習 (multitask learning)、自動化模型架構搜尋...熱門主題介紹。



      □詳細解說, 流暢翻譯

      本書由【施威銘研究室】監修, 書中針對原書進行大量補充, 並適當添加註解, 幫助讀者更加理解內容!


     





    Ch01 從感知器看神經網路的底層知識

    1-1? 最早的人工神經元 - Rosenblatt 感知器

    1-2? 增加感知器模型的能力

    1-3? 用線性代數實現神經網路模型



    Ch02 梯度下降法與反向傳播

    2-1? 導數的基礎概念

    2-2? 以梯度下降法 (gradient descent) 對模型訓練問題求解

    2-3? 反向傳播 (back propagation)



    Ch03 多層神經網路的建立與調校

    3-1? 動手實作:建立辨識手寫數字的多層神經網路

    3-2? 改善神經網路的訓練成效

    3-3? 實驗:調整神經網路與學習參數



    Ch04 用卷積神經網路 (CNN) 進行圖片辨識

    4-1? 卷積神經網路 (CNN)

    4-2? 實作:以卷積神經網路做圖片分類

    4-3? 更深層的 CNN 與預訓練模型



    Ch05 用循環神經網路 (RNN、LSTM...) 處理序列資料

    5-1? RNN 的基本概念

    5-2? RNN 範例:預測書店銷售額

    5-3? LSTM (長短期記憶神經網路)

    5-4? LSTM 範例:文字的 Auto-Complete 機制



    Ch06 自然語言處理的重要前置工作:建立詞向量空間

    6-1? 詞向量空間的基本知識

    6-2? 做法(一):在神經網路建模過程中「順便」生成詞向量空間

    6-3? 做法(二):以 word2vec、GloVe 專用演算法生成詞向量空間



    Ch07 用機器翻譯模型熟悉 seq2seq 架構

    7-1? 機器翻譯模型的基本知識

    7-2? 機器翻譯的範例實作

    7-2-1? tf.Keras 函數式 API 簡介

    7-2-2? 建構模型前的工作

    7-2-3? 建構模型

    7-2-4? 訓練及測試模型

    7-2-5? 實驗結果



    Ch08 認識 attention 與 self-attention 機制

    8-1? 熟悉 attention 機制

    8-2? 認識 self-attention 機制

    8-2-1 self-attention 的基本概念

    8-2-2 self-attention 機制的算法

    8-2-3 multi-head (多頭) 的 self-attention 機制



    Ch09 Transformer、GPT 及其他衍生模型架構

    9-1? Transformer 架構

    9-1-1 編碼器端的架構

    9-1-2 解碼器端的架構

    9-1-3 Transformer 內的其他設計

    9-1-4 小編補充:觀摩 keras 官網上的 Transformer 範例

    9-2 Transformer 架構的衍生模型:GPT、BERT

    9-2-1? 認識 GPT 模型

    9-2-2? 認識 BERT 模型

    9-2-3 其他從 Transformer 衍生出的模型



    附錄 A 延伸學習 (一):多模態、多任務...等模型建構相關主題

    附錄 B 延伸學習 (二):自動化模型架構搜尋

    附錄 C 延伸學習 (三):後續學習方向建議

    附錄 D 使用 Google 的 Colab 雲端開發環境




    其 他 著 作
    1. 跟 NVIDIA 學深度學習!從基本神經網路到 CNN•RNN•LSTM•seq2seq•Transformer•GPT•BERT...,紮穩機器視覺與大型語言模型 (LLM) 的建模基礎