
0人評分過此書
最新機器學習的教科書
輕鬆簡單的好書,讓你從入門到高手,掌握機器學習及神經網路的數學、理論與實作!
▌使用Jupyter Notebook
全書所附的程式碼完整簡單,更棒的是用Jupyter Notebook開發,初學者可以在一個網頁上寫程式、執行、查看結果,還可以作筆記,圖形介面和有條不紊的程式碼管理,比起直接在命令行零零散散地輸入Python程式碼,更能激發學習的動力。
▌搭配範例詳細解說
完善可運行的程式碼、豐富詳細的範例、直觀的資料圖型、細緻具體的公式推導、程式碼實作,彷彿一位好的老師在親手教我學習演算法。
▌程式結合數學公式,一看就懂
本書繼承了大部分日文技術書的傳統特色,對沒有學過Python和需要複習數學基礎的初學者是非常易懂的,內容安排循序漸進,推導過程完整清楚,圖文並茂,理論與實作相結合。一行行的程式碼與一行行的公式一一對應,讓原本晦澀難懂的公式變得簡明流暢起來。
你一定可以運用這些方法看懂了原本看不懂的大學經典教材,再加上TensorFlow和最好用的Keras,快點搭上本書的特快車趕上機器學習人工智慧的新浪潮吧!
▌使用Jupyter Notebook
全書所附的程式碼完整簡單,更棒的是用Jupyter Notebook開發,初學者可以在一個網頁上寫程式、執行、查看結果,還可以作筆記,圖形介面和有條不紊的程式碼管理,比起直接在命令行零零散散地輸入Python程式碼,更能激發學習的動力。
▌搭配範例詳細解說
完善可運行的程式碼、豐富詳細的範例、直觀的資料圖型、細緻具體的公式推導、程式碼實作,彷彿一位好的老師在親手教我學習演算法。
▌程式結合數學公式,一看就懂
本書繼承了大部分日文技術書的傳統特色,對沒有學過Python和需要複習數學基礎的初學者是非常易懂的,內容安排循序漸進,推導過程完整清楚,圖文並茂,理論與實作相結合。一行行的程式碼與一行行的公式一一對應,讓原本晦澀難懂的公式變得簡明流暢起來。
你一定可以運用這些方法看懂了原本看不懂的大學經典教材,再加上TensorFlow和最好用的Keras,快點搭上本書的特快車趕上機器學習人工智慧的新浪潮吧!
-
第1章│學習前的準備
-
1.1 關於機器學習
-
1.1.1 學習機器學習的竅門
-
1.1.2 機器學習中問題的分類
-
1.1.3 本書的結構
-
-
1.2 安裝Python
-
1.3 Jupyter Notebook
-
1.3.1 Jupyter Notebook的用法
-
1.3.2 輸入Markdown格式文字
-
1.3.3 更改檔案名稱
-
-
1.4 安裝Keras和TensorFlow
-
-
第2章│Python基礎知識
-
2.1 四則運算
-
2.1.1 四則運算的用法
-
2.1.2 冪運算
-
-
2.2 變數
-
2.2.1 利用變數進行計算
-
2.2.2 變數的命名
-
-
2.3 類型
-
2.3.1 類型的種類
-
2.3.2 檢查類型
-
2.3.3 字串
-
-
2.4 print敘述
-
2.4.1 print敘述的用法
-
2.4.2 同時顯示數值和字串的方法1
-
2.4.3 同時顯示數值和字串的方法2
-
-
2.5 list(陣列變數)
-
2.5.1 list的用法
-
2.5.2 二維陣列
-
2.5.3 創建連續的整數陣列
-
-
2.6 tuple(陣列)
-
2.6.1 tuple 的用法
-
2.6.2 讀取元素
-
2.6.3 長度為1的tuple
-
-
2.7 if敘述
-
2.7.1 if敘述的用法
-
2.7.2 比較運算子
-
-
2.8 for敘述
-
2.8.1 for敘述的用法
-
2.8.2 enumerate的用法
-
-
2.9 向量
-
2.9.1 NumPy的用法
-
2.9.2 定義向量
-
2.9.3 讀取元素
-
2.9.4 替換元素
-
2.9.5 創建連續整數的向量
-
2.9.6 ndarray的注意事項
-
-
2.10 矩陣
-
2.10.1 定義矩陣
-
2.10.2 矩陣的大小
-
2.10.3 讀取元素
-
2.10.4 替換元素
-
2.10.5 生成元素為0和1的ndarray
-
2.10.6 生成元素隨機的矩陣
-
2.10.7 改變矩陣的大小
-
-
2.11 矩陣的四則運算
-
2.11.1 矩陣的四則運算
-
2.11.2 純量×矩陣
-
2.11.3 算術函數
-
2.11.4 計算矩陣乘積
-
-
2.12 切片
-
2.13 替換滿足條件的資料
-
2.14 help
-
2.15 函數
-
2.15.1 函數的用法
-
2.15.2 參數與傳回值
-
-
2.16 保存檔案
-
2.16.1 保存一個ndarray類型變數
-
2.16.2 保存多個ndarray類型變數
-
-
-
第3章│資料視覺化
-
3.1 繪製二維圖形
-
3.1.1 繪製隨機圖形
-
3.1.2 程式清單的格式
-
3.1.3 繪製三次函數f(x) = (x-2)x(x+2)
-
3.1.4 確定繪製範圍
-
3.1.5 繪製圖形
-
3.1.6 裝飾圖形
-
3.1.7 並列顯示多張圖形
-
-
3.2 繪製三維圖形
-
3.2.1 包含兩個變數的函數
-
3.2.2 用顏色表示數值:pcolor
-
3.2.3 繪製三維圖形:surface
-
3.2.4 繪製等高線:contour
-
-
-
第4章│機器學習中的數學
-
4.1 向量
-
4.1.1 什麼是向量
-
4.1.2 用Python定義向量
-
4.1.3 列向量的表示方法
-
4.1.4 轉置的表示方法
-
4.1.5 加法和減法
-
4.1.6 純量積
-
4.1.7 內積
-
4.1.8 向量的模
-
-
4.2 求和符號
-
4.2.1 附有求和符號的數學式的變形
-
4.2.2 透過內積求和
-
-
4.3 累乘符號
-
4.4 導數
-
4.4.1 多項式的導數
-
4.4.2 帶導數符號的數學式的變形
-
4.4.3 複合函數的導數
-
4.4.4 複合函數的導數:連鎖律
-
-
4.5 偏導數
-
4.5.1 什麼是偏導數
-
4.5.2 偏導數的圖形
-
4.5.3 繪製梯度的圖形
-
4.5.4 多變數的複合函數的偏導數
-
4.5.5 交換求和與求導的順序
-
-
4.6 矩陣
-
4.6.1 什麼是矩陣
-
4.6.2 矩陣的加法和減法
-
4.6.3 純量積
-
4.6.4 矩陣的乘積
-
4.6.5 單位矩陣
-
4.6.6 反矩陣
-
4.6.7 轉置
-
4.6.8 矩陣和聯立方程式
-
4.6.9 矩陣和映射
-
-
4.7 指數函數和對數函數
-
4.7.1 指數
-
4.7.2 對數
-
4.7.3 指數函數的導數
-
4.7.4 對數函數的導數
-
4.7.5 Sigmoid函數
-
4.7.6 Softmax函數
-
4.7.7 Softmax函數和Sigmoid函數
-
4.7.8 高斯函數
-
4.7.9 二維高斯函數
-
-
-
第5章│監督學習:回歸
-
5.1 一維輸入的直線模型
-
5.1.1 直線模型
-
5.1.2 平方誤差函數
-
5.1.3 求參數(梯度法)
-
5.1.4 直線模型參數的解析解
-
-
5.2 二維輸入的平面模型
-
5.2.1 資料的表示方法
-
5.2.2 平面模型
-
5.2.3 平面模型參數的解析解
-
-
5.3 D維線性回歸模型
-
5.3.1 D維線性回歸模型
-
5.3.2 參數的解析解
-
5.3.3 擴充到不通過原點的平面
-
-
5.4 線性基底函數模型
-
5.5 過擬合問題
-
5.6 新模型的生成
-
5.7 模型的選擇
-
5.8 小結
-
-
第6章│監督學習:分類
-
6.1 一維輸入的二元分類
-
6.1.1 問題設定
-
6.1.2 使用機率表示類別分類
-
6.1.3 最大似然估計
-
6.1.4 邏輯回歸模型
-
6.1.5 交叉熵誤差
-
6.1.6 學習法則的推導
-
6.1.7 透過梯度法求解
-
-
6.2 二維輸入的二元分類
-
6.2.1 問題設定
-
6.2.2 邏輯回歸模型
-
-
6.3 二維輸入的三元分類
-
6.3.1 三元分類邏輯回歸模型
-
6.3.2 交叉熵誤差
-
6.3.3 透過梯度法求解
-
-
-
第7章│神經網路與深度學習
-
7.1 神經元模型
-
7.1.1 神經細胞
-
7.1.2 神經元模型
-
-
7.2 神經網路模型
-
7.2.1 二層前饋神經網路
-
7.2.2 二層前饋神經網路的實現
-
7.2.3 數值導數法
-
7.2.4 透過數值導數法應用梯度法
-
7.2.5 誤差反向傳播法
-
7.2.6 求∂E/∂vkj
-
7.2.7 求∂E/∂wji
-
7.2.8 誤差反向傳播法的實現
-
7.2.9 學習後的神經元的特性
-
-
7.3 使用Keras實現神經網路模型
-
7.3.1 二層前饋神經網路
-
7.3.2 Keras的使用流程
-
-
-
第8章│神經網路與深度學習的應用(手寫數字辨識)
-
8.1 MINST資料集
-
8.2 二層前饋神經網路模型
-
8.3 ReLU啟動函數
-
8.4 空間篩檢程式
-
8.5 卷積神經網路
-
8.6 池化
-
8.7 Dropout
-
8.8 融合了各種特性的MNIST辨識網路模型
-
-
第9章│無監督學習
-
9.1 二維輸入資料
-
9.2 K-means演算法
-
9.2.1 K-means演算法的概要
-
9.2.2 步驟0:準備變數與初始化
-
9.2.3 步驟1:更新R
-
9.2.4 步驟2:更新μ
-
9.2.5 失真度量
-
-
9.3 混合高斯模型
-
9.3.1 以機率為基礎的聚類
-
9.3.2 混合高斯模型
-
9.3.3 EM演算法的概要
-
9.3.4 步驟0:準備變數與初始化
-
9.3.5 步驟1(步驟E):更新γ
-
9.3.6 步驟2(步驟M):更新π、μ和Σ
-
9.3.7 似然
-
-
- 第10章│本書小結
- 出版地 : 臺灣
- 語言 : 繁體中文
- DOI : 10.978.9860776/393
評分與評論
請登入後再留言與評分