庫存狀況
「香港二樓書店」讓您 愛上二樓●愛上書
我的購物車 加入會員 會員中心 常見問題 首頁
「香港二樓書店」邁向第一華人書店
登入 客戶評價 whatsapp 常見問題 加入會員 會員專區 現貨書籍 現貨書籍 購物流程 運費計算 我的購物車 聯絡我們 返回首頁
香港二樓書店 > 今日好書推介
二樓書籍分類
 
全面掌握生成式AI與LLM開發實務:NLP×PyTorch×GPT輕鬆打造專屬的大型語言模型

全面掌握生成式AI與LLM開發實務:NLP×PyTorch×GPT輕鬆打造專屬的大型語言模型

沒有庫存
訂購需時10-14天
9786263339682
黃朝隆
博碩
2024年10月23日
207.00  元
HK$ 175.95  






ISBN:9786263339682
  • 規格:平裝 / 256頁 / 17 x 23 x 1.64 cm / 普通級 / 單色印刷 / 初版
  • 出版地:台灣


  • 電腦資訊 > 概論/科技趨勢 > 人工智慧/機器學習











    帶你掌握最前沿的AI技術,成為AI時代的領軍者!

    從理論到實踐,自然語言處理必修指南

    精通AI × NLP,快速脫穎而出!



      ? 深度學習必備:理解AI與NLP理論,從入門到精通

      ? 實戰案例解析:豐富的程式碼實例,培養實戰能力

      ? 模型優化祕訣:掌握最新AI技術,提升模型表現

      ? 全面培訓實戰:初學者或專業人士可精進AI專案程式



      本書內容改編自第15屆iThome鐵人賽AI & Data組佳作系列文章《30天內成為NLP大師:掌握關鍵工具和技巧》。本書從基礎理論到實務應用,詳細介紹了自然語言處理的發展過程及相關技術,且循序漸進解釋了AI中的數學原理,如線性代數、矩陣相乘及機率,並將這些理論應用於深度學習模型中。



      此外,本書內容還涵蓋了如何建立、訓練及優化自然語言處理模型的實作步驟,並介紹目前最熱門的模型架構,如Transformer、BERT、GPT、LLaMA等,指導讀者如何在實際應用中微調這些模型,以達到最佳效果。對於那些希望參與人工智慧競賽或是提升程式設計技能的讀者,本書也提供大量實例與程式碼,幫助讀者更加理解和掌握這些技術。



      【目標讀者】

      ?對人工智慧懷抱熱情的初學者與愛好者。

      ?希望快速學習、累積人工智慧程式專案經驗的程式設計師和開發者。

      ?數學理論強但程式設計經驗有限、想踏入人工智慧領域的學習者。

      ?希望參加人工智慧競賽的參賽者。

      ?希望了解最新NLP技術發展的技術專業人士。



    本書特色



      ?理解人工智慧實際上的運作原理以及電腦是如何理解文字資料的。

      ?完整介紹自然語言處理的「重要發展」與「最近進展」,讓你快速上手自然語言處理這一領域。

      ?全面理解大型語言模型的奧妙與其相關評估指標。

      ?告訴你模型優化技巧,讓你能在競賽中獲取優良名次。

      ?讓你擁有工程師的「程式風格」與培育「自學思維」。



    專業推薦



      「對許多人而言,AI技術既熟悉又遙遠,其快速發展加劇了資訊焦慮。在這個背景下,我推薦這本關於生成式AI與大型語言模型(LLM)開發實務的書籍,因為它提供了一個極具深度和廣度的學習資源,無論是剛接觸人工智慧領域的初學者,還是希望深入理解生成式AI的專業人士,都能從中獲得啟發與實踐經驗。本書的特點在於其層層遞進的結構設計,將複雜的理論與實務操作相結合,讓讀者能夠逐步建立起紮實的人工智慧知識體系。」─ 李俊宏,國立高雄科技大學 電機工程系資通組教授



      「本書中的內容並不是單純地傳授如何使用特定工具,而是透過詳細的範例與步驟,讓讀者理解背後的邏輯,書中提供了豐富的實作指導,幫助讀者不只實現模型的搭建,還能深入探討模型優化的細節,這對於那些正在學習如何調整超參數來提高模型效能的讀者來說,尤為重要。本書是一本適合任何階段的讀者閱讀的書籍,無論你是剛入門的學生,還是有一定經驗的開發者,都能在這裡找到進一步提升的機會。」─ 吳宇祈,國立成功大學 電機工程系碩士生

    ?


     





    |Chapter 01| 模型該如何理解文字

    1.1 Tokenizer介紹

    1.2 文字向量化的方式

    1.3 程式實作:建立BPE Tokenizer

    1.4 本章總結



    |Chapter 02| 用數學來告訴你何謂神經網路

    2.1 自然語言模型是如何運行的

    2.2 程式實作:手刻NLP神經網路

    2.3 本章總結



    |Chapter 03| Pytorch的訓練方式與模型的優化方式

    3.1 模型的優化方式

    3.2 Pytorch介紹與安裝

    3.3 程式實作:建立訓練器

    3.4 本章總結



    |Chapter 04| 文字也是一種有時間序列的資料

    4.1 循環神經網路

    4.2 LSTM(Long short-term memory)

    4.3 GRU(Gated Recurrent Unit )

    4.4 程式實作:IMDB影評情緒分析

    4.5 本章總結



    |Chapter 05| 該如何生成文字Seq2seq架構解析

    5.1 Seq2Sqe 介紹

    5.2 Seq2Sqe + Attention

    5.3 程式實作:中英翻譯模型

    5.4 本章總結



    |Chapter 06| 萬物皆可Transformer

    6.1 Transformer介紹

    6.2 Transformer Encoder

    6.3 Transformer Decoder

    6.4 程式實作:新聞文字摘要

    6.5 本章總結



    |Chapter 07| 站在巨人肩膀上的預訓練模型BERT

    7.1 預訓練模型

    7.2 模型微調

    7.3 BERT

    7.4 程式實作:使用SQuAD做QA問答

    7.5 本章總結



    |Chapter 08| 暴力的美學GPT的強大能力

    8.1 GPT-1

    8.2 GPT-2

    8.3 GPT-3

    8.4 程式實作:用生成式AI來回答問題

    8.5 本章總結



    |Chapter 09| 大型語言模型時代的起點

    9.1 InstructGPT

    9.2 ChatGPT

    9.3 ChatGPT API申請方式

    9.4 程式實作:打造個人的Linebot助手

    9.5 本章總結



    |Chapter 10| 建立屬於自己的大型語言模型

    10.1 LLaMA

    10.2 QLorA

    10.3 NEFtune

    10.4 程式實作:用LLaMA 3訓練聊天機器人

    10.5 本章總結




    其 他 著 作
    1. ChatGPT X Keras X PyTorch全方位應用實踐指南:從零開始的AI程式設計養成之路 (iThome鐵人賽系列書)【軟精裝】
    2. ChatGPT X Keras X PyTorch全方位應用實踐指南:從零開始的AI程式設計養成之路(iThome鐵人賽系列書)【軟精裝】