|Chapter 01| 人工智慧入門與Python環境建置
1.1 人工智慧的發展歷程:從熱潮到寒冬,再到現在
1.2 拆解三大核心:人工智慧、機器學習與深度學習
1.3 機器學習的四種學習方式:監督、非監督、強化與遷移
1.4 Python與Jupyter Notebook實作的開發利器
1.5 常見問題與知識總整理
1.6 小結
|Chapter 02| 單層感知器的數學原理與實作入門
2.1 感知器簡介:人工智慧的起點
2.2 前向傳播:從輸入到預測的數學轉換
2.3 損失函數與反向傳播:學習的數學核心
2.4 梯度下降與參數更新:從錯誤中修正的機制
2.5 章節實作:從單層感知器建立到預測輸出
2.6 常見問題與知識總整理
2.7 小結
|Chapter 03| 多層感知器與優化策略實戰
3.1 多層感知器的誕生:破解單層感知器的限制
3.2 MLP結構與數學原理:從輸入到機率輸出
3.3 反向傳播機制:從損失回推模型調整方向
3.4 選擇適當優化器:GD與SGD差異比較
3.5 章節實作:MLP訓練與優化器效能分析
3.6 常見問題與知識總整理
3.7 小結
|Chapter 04| PyTorch環境搭建與深度神經網路實作
4.1 PyTorch安裝與環境驗證?
4.2 資料處理與MLP模型訓練流程?
4.3 章節實作:MLP在CIFAR-10上的應用?
4.4 常見問題與知識總整理?
4.5 小結
|Chapter 05| CNN原理與PyTorch實作
5.1 CNN基礎與卷積細節
5.2 章節實作:圖像前處理與可調式CNN模型設計
5.3 常見問題與知識總整理?
5.4 小結
|Chapter 06| 文字處理、序列模型與情緒分析實戰
6.1 斷詞與子詞策略
6.2 向量化方法:獨熱編碼 vs 詞嵌入
6.3 循環神經網路(RNN)
6.4 長短期記憶(LSTM)
6.5 門控循環單元(GRU)
6.6 章節實作:IMDB情緒分類(BERT分詞 + GRU)
6.7 常見問題與知識總整理
6.8 小結
|Chapter 07| Seq2Seq與Attention架構解析
7.1 Seq2Seq基礎:Encoder + Decoder
7.2 Attention強化:解決資訊壓縮瓶頸
7.3 章節實作:中英翻譯模型?
7.4 常見問題與知識總整理?
7.5 小結
|Chapter 08| 萬物皆可Transformer:Encoder與BERT系列
8.1 遷移學習與微調
8.2 Transformer Encoder?
8.3 BERT:雙向編碼器預訓練模型?
8.4 章節實作:假新聞辨識 with BERT?
8.5 常見問題與知識總整理?
8.6 小結
|Chapter 09| 萬物皆可Transformer:Decoder與GPT系列
9.1 Transformer Decoder?
9.2 GPT-1?
9.3 GPT-2:規模、Pre-LN與殘差縮放
9.4 GPT-3:少樣本 / 零樣本與提示學習
9.5 章節實作:微調GPT-2用於翻譯任務
9.6 常見問題與知識總整理
9.7 小結
|Chapter 10| 萬物皆可Transformer:中文語音辨識與Whisper微調
10.1 語音資料格式與特徵萃取?
10.2 Whisper模型架構?
10.3 QLoRA:高效微調大模型?
10.4 章節實作:中文語音辨識微調實作流程?
10.5 常見問題與知識總整理?
10.6 小結
|Chapter 11| 萬物皆可Transformer:從GPT-3到LLaMA 3的指示學習
11.1 從提示學習到指示學習
11.2 ChatGPT三階段訓練流程?
11.3 LLM架構優化技術?
11.4 章節實作:用LLaMA 3訓練繁中聊天機器人
11.5 常見問題與知識總整理?
11.6 小結
?