庫存狀況
「香港二樓書店」讓您 愛上二樓●愛上書
我的購物車 加入會員 會員中心 常見問題 首頁
「香港二樓書店」邁向第一華人書店
登入 客戶評價 whatsapp 常見問題 加入會員 會員專區 現貨書籍 現貨書籍 購物流程 運費計算 我的購物車 聯絡我們 返回首頁
香港二樓書店 > 今日好書推介
   
區政新角度
  • 定價64.00元
  • 8 折優惠:HK$51.2
  • 放入購物車
二樓書籍分類
 
AI程式設計、深度學習與LLM入門到精通:PyTorch × GPT × Transformer × LLaMA實作指南(iThome鐵人賽系列書)

AI程式設計、深度學習與LLM入門到精通:PyTorch

沒有庫存
訂購需時10-14天
9786264143035
黃朝隆
博碩
2025年10月17日
217.00  元
HK$ 184.45  






ISBN:9786264143035
  • 規格:平裝 / 296頁 / 17 x 23 x 1.9 cm / 普通級 / 單色印刷 / 初版
  • 出版地:台灣


  • 電腦資訊 > 概論/科技趨勢 > 人工智慧/機器學習















    |Chapter 01| 人工智慧入門與Python環境建置

    1.1 人工智慧的發展歷程:從熱潮到寒冬,再到現在

    1.2 拆解三大核心:人工智慧、機器學習與深度學習

    1.3 機器學習的四種學習方式:監督、非監督、強化與遷移

    1.4 Python與Jupyter Notebook實作的開發利器

    1.5 常見問題與知識總整理

    1.6 小結



    |Chapter 02| 單層感知器的數學原理與實作入門

    2.1 感知器簡介:人工智慧的起點

    2.2 前向傳播:從輸入到預測的數學轉換

    2.3 損失函數與反向傳播:學習的數學核心

    2.4 梯度下降與參數更新:從錯誤中修正的機制

    2.5 章節實作:從單層感知器建立到預測輸出

    2.6 常見問題與知識總整理

    2.7 小結



    |Chapter 03| 多層感知器與優化策略實戰

    3.1 多層感知器的誕生:破解單層感知器的限制

    3.2 MLP結構與數學原理:從輸入到機率輸出

    3.3 反向傳播機制:從損失回推模型調整方向

    3.4 選擇適當優化器:GD與SGD差異比較

    3.5 章節實作:MLP訓練與優化器效能分析

    3.6 常見問題與知識總整理

    3.7 小結



    |Chapter 04| PyTorch環境搭建與深度神經網路實作

    4.1 PyTorch安裝與環境驗證?

    4.2 資料處理與MLP模型訓練流程?

    4.3 章節實作:MLP在CIFAR-10上的應用?

    4.4 常見問題與知識總整理?

    4.5 小結



    |Chapter 05| CNN原理與PyTorch實作

    5.1 CNN基礎與卷積細節

    5.2 章節實作:圖像前處理與可調式CNN模型設計

    5.3 常見問題與知識總整理?

    5.4 小結



    |Chapter 06| 文字處理、序列模型與情緒分析實戰

    6.1 斷詞與子詞策略

    6.2 向量化方法:獨熱編碼 vs 詞嵌入

    6.3 循環神經網路(RNN)

    6.4 長短期記憶(LSTM)

    6.5 門控循環單元(GRU)

    6.6 章節實作:IMDB情緒分類(BERT分詞 + GRU)

    6.7 常見問題與知識總整理

    6.8 小結



    |Chapter 07| Seq2Seq與Attention架構解析

    7.1 Seq2Seq基礎:Encoder + Decoder

    7.2 Attention強化:解決資訊壓縮瓶頸

    7.3 章節實作:中英翻譯模型?

    7.4 常見問題與知識總整理?

    7.5 小結



    |Chapter 08| 萬物皆可Transformer:Encoder與BERT系列

    8.1 遷移學習與微調

    8.2 Transformer Encoder?

    8.3 BERT:雙向編碼器預訓練模型?

    8.4 章節實作:假新聞辨識 with BERT?

    8.5 常見問題與知識總整理?

    8.6 小結



    |Chapter 09| 萬物皆可Transformer:Decoder與GPT系列

    9.1 Transformer Decoder?

    9.2 GPT-1?

    9.3 GPT-2:規模、Pre-LN與殘差縮放

    9.4 GPT-3:少樣本 / 零樣本與提示學習

    9.5 章節實作:微調GPT-2用於翻譯任務

    9.6 常見問題與知識總整理

    9.7 小結



    |Chapter 10| 萬物皆可Transformer:中文語音辨識與Whisper微調

    10.1 語音資料格式與特徵萃取?

    10.2 Whisper模型架構?

    10.3 QLoRA:高效微調大模型?

    10.4 章節實作:中文語音辨識微調實作流程?

    10.5 常見問題與知識總整理?

    10.6 小結



    |Chapter 11| 萬物皆可Transformer:從GPT-3到LLaMA 3的指示學習

    11.1 從提示學習到指示學習

    11.2 ChatGPT三階段訓練流程?

    11.3 LLM架構優化技術?

    11.4 章節實作:用LLaMA 3訓練繁中聊天機器人

    11.5 常見問題與知識總整理?

    11.6 小結



    ?




    其 他 著 作
    1. 全面掌握生成式AI與LLM開發實務:NLP×PyTorch×GPT輕鬆打造專屬的大型語言模型
    2. ChatGPT X Keras X PyTorch全方位應用實踐指南:從零開始的AI程式設計養成之路 (iThome鐵人賽系列書)【軟精裝】
    3. ChatGPT X Keras X PyTorch全方位應用實踐指南:從零開始的AI程式設計養成之路(iThome鐵人賽系列書)【軟精裝】