0人評分過此書

最新機器學習的教科書

出版日期
2021
閱讀格式
PDF
書籍分類
學科分類
ISBN
9789860776393

本館館藏

借閱規則
當前可使用人數 30
借閱天數 14
線上看 0
借閱中 0

計次服務

借閱規則
借閱天數 14
選擇分享方式

推薦本館採購書籍

您可以將喜歡的電子書推薦給圖書館,圖書館會參考讀者意見進行採購

讀者資料
圖書館
* 姓名
* 身分
系所
* E-mail
※ 我們會寄送一份副本至您填寫的Email中
電話
※ 電話格式為 區碼+電話號碼(ex. 0229235151)/ 手機格式為 0900111111
* 請輸入驗證碼
輕鬆簡單的好書,讓你從入門到高手,掌握機器學習及神經網路的數學、理論與實作!

▌使用Jupyter Notebook
全書所附的程式碼完整簡單,更棒的是用Jupyter Notebook開發,初學者可以在一個網頁上寫程式、執行、查看結果,還可以作筆記,圖形介面和有條不紊的程式碼管理,比起直接在命令行零零散散地輸入Python程式碼,更能激發學習的動力。

▌搭配範例詳細解說
完善可運行的程式碼、豐富詳細的範例、直觀的資料圖型、細緻具體的公式推導、程式碼實作,彷彿一位好的老師在親手教我學習演算法。

▌程式結合數學公式,一看就懂
本書繼承了大部分日文技術書的傳統特色,對沒有學過Python和需要複習數學基礎的初學者是非常易懂的,內容安排循序漸進,推導過程完整清楚,圖文並茂,理論與實作相結合。一行行的程式碼與一行行的公式一一對應,讓原本晦澀難懂的公式變得簡明流暢起來。

你一定可以運用這些方法看懂了原本看不懂的大學經典教材,再加上TensorFlow和最好用的Keras,快點搭上本書的特快車趕上機器學習人工智慧的新浪潮吧!
  • 第1章│學習前的準備
    • 1.1 關於機器學習
      • 1.1.1 學習機器學習的竅門
      • 1.1.2 機器學習中問題的分類
      • 1.1.3 本書的結構
    • 1.2 安裝Python
    • 1.3 Jupyter Notebook
      • 1.3.1 Jupyter Notebook的用法
      • 1.3.2 輸入Markdown格式文字
      • 1.3.3 更改檔案名稱
    • 1.4 安裝Keras和TensorFlow
  • 第2章│Python基礎知識
    • 2.1 四則運算
      • 2.1.1 四則運算的用法
      • 2.1.2 冪運算
    • 2.2 變數
      • 2.2.1 利用變數進行計算
      • 2.2.2 變數的命名
    • 2.3 類型
      • 2.3.1 類型的種類
      • 2.3.2 檢查類型
      • 2.3.3 字串
    • 2.4 print敘述
      • 2.4.1 print敘述的用法
      • 2.4.2 同時顯示數值和字串的方法1
      • 2.4.3 同時顯示數值和字串的方法2
    • 2.5 list(陣列變數)
      • 2.5.1 list的用法
      • 2.5.2 二維陣列
      • 2.5.3 創建連續的整數陣列
    • 2.6 tuple(陣列)
      • 2.6.1 tuple 的用法
      • 2.6.2 讀取元素
      • 2.6.3 長度為1的tuple
    • 2.7 if敘述
      • 2.7.1 if敘述的用法
      • 2.7.2 比較運算子
    • 2.8 for敘述
      • 2.8.1 for敘述的用法
      • 2.8.2 enumerate的用法
    • 2.9 向量
      • 2.9.1 NumPy的用法
      • 2.9.2 定義向量
      • 2.9.3 讀取元素
      • 2.9.4 替換元素
      • 2.9.5 創建連續整數的向量
      • 2.9.6 ndarray的注意事項
    • 2.10 矩陣
      • 2.10.1 定義矩陣
      • 2.10.2 矩陣的大小
      • 2.10.3 讀取元素
      • 2.10.4 替換元素
      • 2.10.5 生成元素為0和1的ndarray
      • 2.10.6 生成元素隨機的矩陣
      • 2.10.7 改變矩陣的大小
    • 2.11 矩陣的四則運算
      • 2.11.1 矩陣的四則運算
      • 2.11.2 純量×矩陣
      • 2.11.3 算術函數
      • 2.11.4 計算矩陣乘積
    • 2.12 切片
    • 2.13 替換滿足條件的資料
    • 2.14 help
    • 2.15 函數
      • 2.15.1 函數的用法
      • 2.15.2 參數與傳回值
    • 2.16 保存檔案
      • 2.16.1 保存一個ndarray類型變數
      • 2.16.2 保存多個ndarray類型變數
  • 第3章│資料視覺化
    • 3.1 繪製二維圖形
      • 3.1.1 繪製隨機圖形
      • 3.1.2 程式清單的格式
      • 3.1.3 繪製三次函數f(x) = (x-2)x(x+2)
      • 3.1.4 確定繪製範圍
      • 3.1.5 繪製圖形
      • 3.1.6 裝飾圖形
      • 3.1.7 並列顯示多張圖形
    • 3.2 繪製三維圖形
      • 3.2.1 包含兩個變數的函數
      • 3.2.2 用顏色表示數值:pcolor
      • 3.2.3 繪製三維圖形:surface
      • 3.2.4 繪製等高線:contour
  • 第4章│機器學習中的數學
    • 4.1 向量
      • 4.1.1 什麼是向量
      • 4.1.2 用Python定義向量
      • 4.1.3 列向量的表示方法
      • 4.1.4 轉置的表示方法
      • 4.1.5 加法和減法
      • 4.1.6 純量積
      • 4.1.7 內積
      • 4.1.8 向量的模
    • 4.2 求和符號
      • 4.2.1 附有求和符號的數學式的變形
      • 4.2.2 透過內積求和
    • 4.3 累乘符號
    • 4.4 導數
      • 4.4.1 多項式的導數
      • 4.4.2 帶導數符號的數學式的變形
      • 4.4.3 複合函數的導數
      • 4.4.4 複合函數的導數:連鎖律
    • 4.5 偏導數
      • 4.5.1 什麼是偏導數
      • 4.5.2 偏導數的圖形
      • 4.5.3 繪製梯度的圖形
      • 4.5.4 多變數的複合函數的偏導數
      • 4.5.5 交換求和與求導的順序
    • 4.6 矩陣
      • 4.6.1 什麼是矩陣
      • 4.6.2 矩陣的加法和減法
      • 4.6.3 純量積
      • 4.6.4 矩陣的乘積
      • 4.6.5 單位矩陣
      • 4.6.6 反矩陣
      • 4.6.7 轉置
      • 4.6.8 矩陣和聯立方程式
      • 4.6.9 矩陣和映射
    • 4.7 指數函數和對數函數
      • 4.7.1 指數
      • 4.7.2 對數
      • 4.7.3 指數函數的導數
      • 4.7.4 對數函數的導數
      • 4.7.5 Sigmoid函數
      • 4.7.6 Softmax函數
      • 4.7.7 Softmax函數和Sigmoid函數
      • 4.7.8 高斯函數
      • 4.7.9 二維高斯函數
  • 第5章│監督學習:回歸
    • 5.1 一維輸入的直線模型
      • 5.1.1 直線模型
      • 5.1.2 平方誤差函數
      • 5.1.3 求參數(梯度法)
      • 5.1.4 直線模型參數的解析解
    • 5.2 二維輸入的平面模型
      • 5.2.1 資料的表示方法
      • 5.2.2 平面模型
      • 5.2.3 平面模型參數的解析解
    • 5.3 D維線性回歸模型
      • 5.3.1 D維線性回歸模型
      • 5.3.2 參數的解析解
      • 5.3.3 擴充到不通過原點的平面
    • 5.4 線性基底函數模型
    • 5.5 過擬合問題
    • 5.6 新模型的生成
    • 5.7 模型的選擇
    • 5.8 小結
  • 第6章│監督學習:分類
    • 6.1 一維輸入的二元分類
      • 6.1.1 問題設定
      • 6.1.2 使用機率表示類別分類
      • 6.1.3 最大似然估計
      • 6.1.4 邏輯回歸模型
      • 6.1.5 交叉熵誤差
      • 6.1.6 學習法則的推導
      • 6.1.7 透過梯度法求解
    • 6.2 二維輸入的二元分類
      • 6.2.1 問題設定
      • 6.2.2 邏輯回歸模型
    • 6.3 二維輸入的三元分類
      • 6.3.1 三元分類邏輯回歸模型
      • 6.3.2 交叉熵誤差
      • 6.3.3 透過梯度法求解
  • 第7章│神經網路與深度學習
    • 7.1 神經元模型
      • 7.1.1 神經細胞
      • 7.1.2 神經元模型
    • 7.2 神經網路模型
      • 7.2.1 二層前饋神經網路
      • 7.2.2 二層前饋神經網路的實現
      • 7.2.3 數值導數法
      • 7.2.4 透過數值導數法應用梯度法
      • 7.2.5 誤差反向傳播法
      • 7.2.6 求∂E/∂vkj
      • 7.2.7 求∂E/∂wji
      • 7.2.8 誤差反向傳播法的實現
      • 7.2.9 學習後的神經元的特性
    • 7.3 使用Keras實現神經網路模型
      • 7.3.1 二層前饋神經網路
      • 7.3.2 Keras的使用流程
  • 第8章│神經網路與深度學習的應用(手寫數字辨識)
    • 8.1 MINST資料集
    • 8.2 二層前饋神經網路模型
    • 8.3 ReLU啟動函數
    • 8.4 空間篩檢程式
    • 8.5 卷積神經網路
    • 8.6 池化
    • 8.7 Dropout
    • 8.8 融合了各種特性的MNIST辨識網路模型
  • 第9章│無監督學習
    • 9.1 二維輸入資料
    • 9.2 K-means演算法
      • 9.2.1 K-means演算法的概要
      • 9.2.2 步驟0:準備變數與初始化
      • 9.2.3 步驟1:更新R
      • 9.2.4 步驟2:更新μ
      • 9.2.5 失真度量
    • 9.3 混合高斯模型
      • 9.3.1 以機率為基礎的聚類
      • 9.3.2 混合高斯模型
      • 9.3.3 EM演算法的概要
      • 9.3.4 步驟0:準備變數與初始化
      • 9.3.5 步驟1(步驟E):更新γ
      • 9.3.6 步驟2(步驟M):更新π、μ和Σ
      • 9.3.7 似然
  • 第10章│本書小結

評分與評論

請登入後再留言與評分
幫助
您好,請問需要甚麼幫助呢?
使用指南

客服專線:0800-000-747

服務時間:週一至週五 AM 09:00~PM 06:00

loading