0人評分過此書

機器學習:最強入門邁向AI高手.王者歸來

出版日期
2024/12/18
閱讀格式
PDF
書籍分類
學科分類
ISBN
9786267569337

本館館藏

借閱規則
當前可使用人數 30
借閱天數 14
線上看 0
借閱中 0
選擇分享方式

推薦本館採購書籍

您可以將喜歡的電子書推薦給圖書館,圖書館會參考讀者意見進行採購

讀者資料
圖書館
* 姓名
* 身分
系所
* E-mail
※ 我們會寄送一份副本至您填寫的Email中
電話
※ 電話格式為 區碼+電話號碼(ex. 0229235151)/ 手機格式為 0900111111
* 請輸入驗證碼

本書收錄於此書展...

https://youtu.be/1s9CaTmY4RM 機器學習最強入門邁向AI高手王者歸來(全彩印刷) 內容簡介 ★★★★★【數學原理 + 演算法 + 真實案例 + 專題實作】★★★★★ ★★★★★【數學 x機率 x 統計 x 演算法】★★★★★ ★★★★★【機器學習演算法 x AI專題】★★★★★ AI時代的學習革命:用最簡單的方式掌握機器學習。 機器學習已成為當今科技領域的核心技能,但艱澀的數學與複雜的概念常讓人望而卻步。本書以淺顯易懂的白話解釋,結合全彩圖表輔助教學,幫助讀者輕鬆入門、快速掌握機器學習的核心知識與應用技巧。 本書特色 ◎ 白話解釋機器學習:摒棄晦澀公式,以簡單明瞭的語言說明每個概念,配合豐富的全彩圖表,讓學習變得更輕鬆有趣。 ◎ 基礎數學起步,實現 AI 場景應用:從基礎數學概念講解機器學習,逐步導入 AI 在生活中的實際應用,橋接理論與實務。 ◎ 彩色圖解演算法,從小數據開始:用彩色圖像化的方式清晰呈現演算法的運作原理,並從簡單的小數據案例帶領讀者進入真實世界的應用。 ◎ 實用程式碼範例:提供完整的 Python 程式碼範例,將理論知識與實務結合,幫助讀者快速上手,並理解如何將理論轉化為可行的程式解決方案。 ◎ AI 專題實戰:涵蓋特徵選擇、模型選擇、超參數調整等進階主題,提供解決特定問題的策略與技巧,助力讀者邁向機器學習高手之路。 數學場景 × AI 實例 ◎ 方程式、一元到多元函數 ★餐廳經營、業務員績效、網路行銷 ... 等。 ◎ 最小平方法 ★國際證照考卷銷售、房價預測、便利店銷售 ... 等。 ◎ 機率與單純貝式理論 ★疾病分析、客戶購買意願、垃圾郵件 ... 等。 ◎ 指數、對數與激活函數 ★廣告效果、回購率分析 ... 等。 ◎ 基礎統計 ★超商數據、考試成績 ... 等。 ◎迴歸分析 ★臉書行銷、冰品銷售、網站購物 ... 等。 ◎向量與矩陣 ★網購行為分析、推薦系統、家庭用電預測 ... 等。 演算法原理 × AI 專題 ◎ 房價預測 ★ 波士頓房價 ☆ 加州房價 ◎ 葡萄酒專題 ★ 葡萄酒分類與評價 ◎ 醫療健康 ★ 糖尿病診斷 ☆ 乳腺癌檢測 ★ 醫療保險分析 ◎ 經典數據集 ★ 鐵達尼號生存分析 ☆ Telco 離網預測 ★ 零售數據分析 ◎ 信用風險與客戶分析 ★ 信用卡欺詐偵測 ☆ 購物中心客戶分群 ◎ 科學與工程 ★ 小行星撞地球風險預測 ☆ 汽車燃料效率分析 ◎ 文字與推薦系統 ★ 新聞分類 ☆ 情感分析 ★ 電影推薦與評論 ◎ 特色數據 ★ 鳶尾花分類 ☆ 蘑菇毒性判斷 ★ 玻璃性質分析 ◎ 圖像數據 ★ 手寫數字識別 ☆ 人臉數據分析 ◎ 農業與食品 ★ 小麥數據研究 ☆ 老實泉噴發分析 ◎ 體育與電子郵件 ★ 足球射門分析 ☆ 垃圾郵件過濾將理論融入實際,從數據出發探索機器學習的多元應用,這是您邁向 AI 高手的最佳起點!
  • 第1章 機器學習基本觀念
    • 1-1 人工智慧、機器學習、深度學習
    • 1-2 認識機器學習
    • 1-3 機器學習的種類
      • 1-3-1 監督學習
      • 1-3-2 無監督學習
      • 1-3-3 強化學習
    • 1-4 機器學習的應用範圍
    • 1-5 深度學習
  • 第2章 機器學習的基礎數學
    • 2-1 用數字描繪事物
    • 2-2 變數觀念
    • 2-3 從變數到函數
    • 2-4 用數學抽象化開餐廳的生存條件
      • 2-4-1 數學模型
      • 2-4-2 經營數字預估
      • 2-4-3 經營績效的計算
      • 2-4-4 情境分析 - 變數變化的影響
    • 2-5 基礎數學的應用與總結
      • 2-5-1 基礎數學的應用範例
      • 2-5-2 基礎數學的總結
  • 第3章 認識方程式、函數與座標圖形
    • 3-1 認識方程式
    • 3-2 方程式文字描述方法
    • 3-3 一元一次方程式
    • 3-4 函數
    • 3-5 座標圖形分析
      • 3-5-1 座標圖形與線性關係
      • 3-5-2 斜率與截距的意義
      • 3-5-3 細看斜率
      • 3-5-4 細看y 截距
      • 3-5-5 細看x 截距
    • 3-6 將線性函數應用在機器學習
      • 3-6-1 再看直線函數與斜率
      • 3-6-2 機器學習與線性迴歸
      • 3-6-3 相同斜率平行移動
      • 3-6-4 不同斜率與相同截距
      • 3-6-5 不同斜率與不同截距
    • 3-7 二元函數到多元函數
      • 3-7-1 二元函數基本觀念
      • 3-7-2 二元函數的圖形
      • 3-7-3 等高線圖
      • 3-7-4 多元函數
    • 3-8 Sympy 模組
      • 3-8-1 定義符號
      • 3-8-2 name 屬性
      • 3-8-3 定義多個符號變數
      • 3-8-4 符號的運算
      • 3-8-5 將數值代入公式
      • 3-8-6 將字串轉為數學表達式
      • 3-8-7 Sympy 模組支援的數學函數
      • 3-8-8 解一元一次方程式
  • 第4章 從聯立方程式看機器學習的數學模型
    • 4-1 數學觀念建立連接兩點的直線
      • 4-1-1 基礎觀念
      • 4-1-2 聯立方程式
      • 4-1-3 使用加減法解聯立方程式
      • 4-1-4 使用代入法解聯立方程式
      • 4-1-5 使用Sympy 解聯立方程式
    • 4-2 機器學習使用聯立方程式推估數據
      • 4-2-1 推導餐廳經營績效函數
      • 4-2-2 餐廳經營績效數據推估
      • 4-2-3 聯立方程式在線性模型中的應用
    • 4-3 從2 條直線的交叉點推估科學數據
      • 4-3-1 雞兔同籠
      • 4-3-2 達成業績目標
    • 4-4 兩條直線垂直交叉
      • 4-4-1 基礎觀念
      • 4-4-2 求解座標某一點至一條線的垂直線
    • 4-5 本章總結與下一步展望
  • 第5章 從畢氏定理看機器學習
    • 5-1 驗證畢氏定理
      • 5-1-1 認識直角三角形
      • 5-1-2 驗證畢氏定理
    • 5-2 將畢氏定理應用在性向測試
      • 5-2-1 問題核心分析
      • 5-2-2 數據運算
    • 5-3 將畢氏定理應用在三維空間
    • 5-4 將畢氏定理應用在更高維的空間
    • 5-5 電影分類
      • 5-5-1 規劃特徵值
      • 5-5-3 專案程式實作
      • 5-5-4 電影分類結論
    • 5-6 計算兩個向量的歐幾里德距離
    • 5-7 本章總結與應用展望
  • 第6章 聯立不等式與機器學習
    • 6-1 聯立不等式與機器學習
    • 6-2 再看聯立不等式的基本觀念
    • 6-3 聯立不等式的線性規劃
      • 6-3-1 案例分析
      • 6-3-2 用聯立不等式表達
      • 6-3-3 在座標軸上繪不等式的區域
      • 6-3-4 目標函數
      • 6-3-5 平行移動目標函數
      • 6-3-6 將交叉點座標代入目標函數
    • 6-4 Python 計算
    • 6-5 聯立不等式的商業應用
      • 6-5-1 廣告投入最佳分配
      • 6-5-2 產品生產成本最小化
    • 6-6 本章總結與應用展望
  • 第7章 機器學習需要知道的二次函數
    • 7-1 二次函數的基礎數學
      • 7-1-1 解一元二次方程式的根
      • 7-1-2 繪製一元二次方程式的圖形
      • 7-1-3 一元二次方程式的最小值與最大值
      • 7-1-4 一元二次函數參數整理
      • 7-1-5 一元三次函數的圖形特徵
      • 7-1-6 二次函數在機器學習中的應用價值
    • 7-2 從一次到二次函數的實務
      • 7-2-1 呈現好的變化
      • 7-2-2 呈現不好的變化
    • 7-3 認識二次函數的係數
    • 7-4 使用3 個點求解一元二次函數
      • 7-4-1 手動求解一元二次函數
      • 7-4-2 程式求解一元二次函數
      • 7-4-3 繪製一元二次函數
      • 7-4-4 使用業績回推應有的拜訪次數
    • 7-5 一元二次函數的配方法
      • 7-5-1 基本觀念
      • 7-5-2 配方法
      • 7-5-3 從標準式計算一元二次函數的最大值 .
      • 7-5-4 從標準式計算一元二次函數的最小值 .
    • 7-6 一元二次函數與解答區間
      • 7-6-1 行銷問題分析
      • 7-6-2 一元二次函數分析增加業績的臉書行銷次數
      • 7-6-3 將不等式應用在條件區間
      • 7-6-4 非實數根
  • 第8章 機器學習的最小平方法
    • 8-1 最小平方法基本觀念
      • 8-1-1 基本觀念
      • 8-1-2 數學觀點
    • 8-2 簡單的企業實例
    • 8-3 機器學習建立含誤差值的線性方程式
      • 8-3-1 觀念啟發
      • 8-3-2 三項和的平方
      • 8-3-3 公式推導
      • 8-3-4 使用配方法計算直線的斜率和截距
    • 8-4 Numpy 實作最小平方法
    • 8-5 線性迴歸
    • 8-6 便利商店飲料銷售實務應用
    • 8-7 模型評估指標
      • 8-7-1 認識模型評估指標
      • 8-7-2 手工計算與程式執行房價模型評估
      • 8-7-3 用模型評估指標檢視便利商店飲料銷售
  • 第9章 機器學習必須懂的集合
    • 9-1 使用Python 建立集合
      • 9-1-1 使用{ } 建立集合
      • 9-1-2 集合元素是唯一
      • 9-1-3 使用set( ) 建立集合
      • 9-1-4 集合的基數(cardinality)
      • 9-1-5 建立空集合要用set( )
      • 9-1-6 大數據資料與集合的應用
    • 9-2 集合的操作
      • 9-2-1 交集(intersection)
      • 9-2-2 聯集(union)
      • 9-2-3 差集(difference)
      • 9-2-4 對稱差集(symmetric difference)
    • 9-3 子集、宇集與補集
      • 9-3-1 子集
      • 9-3-2 宇集
      • 9-3-3 補集
  • 第10章 機器學習必須懂的排列與組合
    • 10-1 排列基本觀念
      • 10-1-1 實驗與事件
      • 10-1-2 事件結果
      • 10-1-3 機器學習應用場景
    • 10-2 有多少條回家路
      • 10-2-1 計算有多少條回家的路
      • 10-2-2 回家的路於機器學習的應用場景
    • 10-3 排列組合
    • 10-4 階乘的觀念
    • 10-5 重複排列
    • 10-6 組合
  • 第11章 機器學習需要認識的機率
    • 11-1 機率基本觀念
    • 11-2 數學機率與統計機率
    • 11-3 事件機率名稱
    • 11-4 事件機率規則
      • 11-4-1 不發生機率
      • 11-4-2 機率相加
      • 11-4-3 機率相乘
      • 11-4-4 常見的陷阱
      • 11-4-5 Python 模擬事件重複發生的機率計算
    • 11-5 抽獎的機率 – 加法與乘法綜合應用
    • 11-6 餘事件與乘法的綜合應用
    • 11-7 條件機率
      • 11-7-1 基礎觀念
      • 11-7-2 擲骰子的其他實例
    • 11-8 貝氏定理
      • 11-8-1 基本觀念
      • 11-8-2 用實例驗證貝氏定理
      • 11-8-3 疾病診斷模型
      • 11-8-4 客戶購買意願預測
    • 11-9 COVID-19 的全民普篩準確性推估
      • 11-9-1 COVID-19 準確性推估
      • 11-9-2 再看一個醫學實例
    • 11-10 垃圾郵件篩選
      • 11-10-1 貝氏定理篩選垃圾電子郵件基礎觀念
      • 11-10-2 垃圾郵件分類專案實作
  • 第12章 二項式定理
    • 12-1 二項式的定義
    • 12-2 二項式的幾何意義
    • 12-3 二項式展開與規律性分析
    • 12-4 找出xn-kyk 項的係數
      • 12-4-1 基礎觀念
      • 12-4-2 組合數學觀念
      • 12-4-3 係數公式推導與驗證
    • 12-5 二項式的通式
      • 12-5-1 驗證頭尾係數比較
      • 12-5-2 中間項係數驗證
    • 12-6 二項式到多項式
    • 12-7 二項分佈實驗
    • 12-8 用二項式分析國際證照考試業務
    • 12-9 二項式機率分佈Python 實作
    • 12-10 Numpy 隨機數模組的binomial( ) 函數
      • 12-10-1 視覺化模組Seaborn
      • 12-10-2 Numpy 的二項式隨機函數binomial
    • 12-11 二項分佈的創新應用與機器學習實踐
      • 12-11-1 品質控制中的不良品檢測
      • 12-11-2 臨床試驗中的藥物療效
      • 12-11-3 廣告轉換率的預測
      • 12-11-4 機器學習場景 - 二項分佈在二分類問題中的應用
  • 第13章 指數觀念與指數函數
    • 13-1 認識指數函數
      • 13-1-1 基礎觀念
      • 13-1-2 指數增長的數據預測–用戶增長/ 病毒式行銷
      • 13-1-3 指數衰減的數據預測–學習率衰減/ 活躍度衰減
      • 13-1-4 用指數觀念看iPhone 容量
    • 13-2 指數運算的核心規則與應用
      • 13-2-1 指數運算規則
      • 13-2-2 指數運算 - 數據標準化
      • 13-2-3 指數運算 - 激活函數的應用
    • 13-3 指數函數的圖形
      • 13-3-1 底數是變數的指數函數圖形
      • 13-3-2 指數冪是實數變數
  • 第14章 機器學習中的對數運算與應用
    • 14-1 機器學習中對數概念與應用背景
      • 14-1-1 對數的由來
      • 14-1-2 從數學看指數的運作觀念
      • 14-1-3 再看對數函數
      • 14-1-4 天文數字的處理
      • 14-1-5 Python 的對數函數應用
      • 14-1-6 機器學習 - 對數運算在特徵縮放中的應用
      • 14-1-7 機器學習 - 對數變換處理異常值
      • 14-1-8 機器學習 - 交叉熵損失函數中的對數應用
    • 14-2 對數表的歷史與數據科學應用
      • 14-2-1 對數表基礎應用
      • 14-2-2 更精確的對數表
    • 14-3 對數運算與指數問題的簡化
      • 14-3-1 用指數處理相當數值的近似值
      • 14-3-2 使用對數簡化運算
      • 14-3-3 簡化大數據的乘法與指數操作
      • 14-3-4 對數控制指數增長的數據範圍
    • 14-4 對數特性與機器學習應用
    • 14-5 對數的運算規則與驗證
      • 14-5-1 等號兩邊使用對數處理結果不變
      • 14-5-2 對數的真數是1
      • 14-5-3 對數的底數等於真數
      • 14-5-4 對數內真數的指數可以移到外面
      • 14-5-5 對數內真數是兩數據相乘結果是兩數據各取對數後再相加
      • 14-5-6 對數內真數是兩數據相除結果是兩數據先取對數後再相減
      • 14-5-7 底數變換
  • 第15章 指數函數與激活函數的應用
    • 15-1 認識歐拉數
      • 15-1-1 認識歐拉數
      • 15-1-2 歐拉數的緣由
      • 15-1-3 歐拉數使用公式做定義
      • 15-1-4 計算與繪製歐拉數的函數圖形
      • 15-1-5 指數衰減策略中的歐拉數應用
    • 15-2 邏輯斯函數
      • 15-2-1 認識邏輯斯函數
      • 15-2-2 x 是正無限大
      • 15-2-3 x 是0
      • 15-2-4 x 是負無限大
      • 15-2-5 繪製邏輯斯函數
      • 15-2-6 Sigmoid 函數
    • 15-3 logit 函數
      • 15-3-1 認識Odds
      • 15-3-2 從Odds 到logit 函數
      • 15-3-3 繪製logit 函數
    • 15-4 邏輯斯函數的應用
      • 15-4-1 事件說明與分析
      • 15-4-2 從邏輯斯函數到logit 函數
      • 15-4-3 使用logit 函數獲得係數
      • 15-4-4 邏輯斯函數在二元分類模型中的延伸應用
    • 15-5 Softmax 函數的應用
  • 第16章 機器學習數據處理與統計基礎
    • 16-1 機器學習視角 - 母體與樣本
      • 16-1-1 母體與樣本
      • 16-1-2 機器學習視角看母體與樣本
    • 16-2 數據加總與聚合操作
      • 16-2-1 符號運算規則、驗證與活用
      • 16-2-2 數據加總
      • 16-2-3 數據的聚合操作
    • 16-3 認識數據分佈與其在機器學習中的應用
      • 16-3-1 認識數據分佈
      • 16-3-2 數據分佈在機器學習中的應用
      • 16-3-3 數據分佈與演算法選擇
      • 16-3-4 對數轉換應用於偏態分佈數據
    • 16-4 數據中心趨勢與機器學習應用
      • 16-4-1 平均數(mean)
      • 16-4-2 中位數(median)
      • 16-4-3 眾數(mode)
      • 16-4-4 機器學習角度執行工資數據分析
      • 16-4-5 分數分佈圖
    • 16-5 數據分散指標 – 變異數與標準差
      • 16-5-1 變異數
      • 16-5-2 標準差
      • 16-5-3 數據分散指標的應用
  • 第17章 機器學習的迴歸分析
    • 17-1 背景與概念介紹
    • 17-2 相關係數(Correlation Coefficient)
      • 17-2-1 認識相關係數
      • 17-2-2 相關係數在迴歸模型中扮演的角色
    • 17-3 建立線性迴歸模型與數據預測
      • 17-3-1 建立迴歸模型
      • 17-3-2 數據預測
    • 17-4 二次函數的迴歸模型
    • 17-5 三次函數的迴歸曲線模型
    • 17-6 使用scikit-learn 模組評估迴歸模型
      • 17-6-1 迴歸模型選擇的基礎觀念
      • 17-6-2 更完整解釋評估模型與scikit-learn方法支援
      • 17-6-3 預測估計時間的銷售預測
    • 17-7 不適合的迴歸分析的實例
      • 17-7-1 繪製三次函數迴歸線
      • 17-7-2 計算R 平方判定係數
    • 17-8 不同次數多項式擬合對模型表現的影響
  • 第18章 機器學習的向量
    • 18-1 向量的基礎觀念
      • 18-1-1 機器學習的向量知識
      • 18-1-2 認識純量
      • 18-1-3 認識向量
      • 18-1-4 向量表示法
      • 18-1-5 計算向量分量
      • 18-1-6 相對位置的向量
      • 18-1-7 不同路徑的向量運算
    • 18-2 向量加法與機器學習的應用
      • 18-2-1 認識向量加法規則
      • 18-2-2 向量加法在機器學習的應用
    • 18-3 向量的長度
    • 18-4 向量方程式
      • 18-4-1 直線方程式
      • 18-4-2 Python 實作連接2 點的方程式
      • 18-4-3 使用向量建立迴歸方程式的理由
    • 18-5 向量內積/ 餘弦相似度 – 推薦系統設計
      • 18-5-1 協同工作的觀念
      • 18-5-2 計算B 所幫的忙
      • 18-5-3 向量內積的定義
      • 18-5-4 兩條直線的夾角
      • 18-5-5 向量內積的性質
      • 18-5-6 餘弦相似度
      • 18-5-7 音樂推薦系統設計
      • 18-5-8 向量內積的應用
    • 18-6 皮爾遜相關係數原理 – 特徵篩選應用
      • 18-6-1 網路購物問卷調查案例解說
      • 18-6-3 向量內積計算係數
      • 18-6-4 皮爾遜相關係數的應用
  • 第19章 機器學習的矩陣
    • 19-1 矩陣的表達方式與機器學習應用場景
      • 19-1-1 矩陣的行與列方式
      • 19-1-2 矩陣變數名稱
      • 19-1-3 常見的矩陣表達方式
      • 19-1-4 矩陣元素表達方式
      • 19-1-5 行列的定義在機器學習中的應用
    • 19-2 矩陣相加/ 相減與機器學習場景應用
      • 19-2-1 基礎觀念
      • 19-2-2 Python 定義矩陣
      • 19-2-3 機器學習矩陣加法運算場景
      • 19-2-4 機器學習矩陣減法運算場景
    • 19-3 矩陣乘以實數與機器學習場景應用
    • 19-4 矩陣乘法與在機器學習的場景
      • 19-4-1 乘法基本規則
      • 19-4-2 乘法案例
      • 19-4-3 矩陣乘法規則
      • 19-4-4 機器學習場景的應用
    • 19-5 方形矩陣
    • 19-6 單位矩陣
    • 19-7 反矩陣與轉置矩陣
      • 19-7-1 基礎觀念
      • 19-7-2 用反矩陣解聯立方程式
      • 19-7-3 轉置矩陣基礎觀念
      • 19-7-4 轉置矩陣的規則
      • 19-7-5 轉置矩陣與皮爾遜相關係數
    • 19-8 深度學習框架的數據表示法 - 張量(Tensor)
  • 第20章 向量、矩陣與多元線性迴歸
    • 20-1 向量和矩陣在多元線性迴歸的重要性
    • 20-2 向量應用在線性迴歸
    • 20-3 向量應用在多元線性迴歸
    • 20-4 矩陣應用在多元線性迴歸
    • 20-5 將截距放入矩陣
    • 20-6 簡單的線性迴歸
    • 20-7 多元線性迴歸矩陣方程式的推導
    • 20-8 專題 - 業績預測/ 用電量預測
      • 20-8-1 廣告與銷售
      • 20-8-2 家庭用電量預測
  • 第21章 數據預處理使用Scikit-learn
    • 21-1 Scikit-learn 的歷史
    • 21-2 機器學習的數據集
      • 21-2-1 Scikit-learn 內建的數據集
      • 21-2-2 Kaggle 數據集
      • 21-2-3 UCI 數據集
      • 21-2-4 scikit-learn 函數生成數據
    • 21-3 scikit-learn 生成數據實作
      • 21-3-1 線性分佈數據 - make_regression( )
      • 21-3-2 集群分佈數據 - make_blobs( )
      • 21-3-3 交錯半月群集數據 - make_moons( ) .
      • 21-3-4 環形結構分佈的群集數據–make_circles( )
      • 21-3-5 產生n-class 分類數據集
    • 21-4 Scikit-learn 數據預處理
      • 21-4-1 標準化數據StandardScaler( )
      • 21-4-2 設定數據區間MinMaxScaler
      • 21-4-3 特殊數據縮放RobustScaler
  • 第22章 機器學習使用Scikit-learn 入門
    • 22-1 用Scikit-learn 處理線性迴歸
      • 22-1-1 身高與體重的資料
      • 22-1-2 線性擬合數據LinearRegression
      • 22-1-3 資料預測predict( )
      • 22-1-4 模型的儲存與開啟
      • 22-1-5 計算線性迴歸線的斜率和截距
      • 22-1-6 R 平方判定係數檢驗模型的性能
    • 22-2 機器學習分類演算法 - 模型的性能評估 .
      • 22-2-1 計算精確度accuracy_score( )
      • 22-2-2 召回率recall_score( )
      • 22-2-3 精確率precision_score( )
      • 22-2-4 F1 分數f1_score( )
      • 22-2-5 分類報告classification_report( )
      • 22-2-6 混淆矩陣confusion_matrix( )
      • 22-2-7 ROC_AUC 分數
    • 22-3 機器學習必需會的非數值資料轉換
      • 22-3-1 One-hot 編碼
      • 22-3-2 特徵名稱由中文改為英文
      • 22-3-3 資料對應map( ) 方法
      • 22-3-4 標籤轉換LabelEncoder( )
    • 22-4 機器學習演算法
    • 22-5 使用隨機數據學習線性迴歸
      • 22-5-1 建立訓練數據與測試數據使用train_test_split( )
      • 22-5-2 迴歸模型判斷
      • 22-5-3 score( ) 和r2_score( ) 方法的差異 .
  • 第23章 線性迴歸 - 波士頓房價
    • 23-1 從線性迴歸到多元線性迴歸
      • 23-1-1 簡單線性迴歸
      • 23-1-2 多元線性迴歸
    • 23-2 簡單資料測試
      • 23-2-1 身高、腰圍與體重的測試
      • 23-2-2 了解模型的優劣
    • 23-3 波士頓房價數據集
      • 23-3-1 認識波士頓房價數據集
      • 23-3-2 輸出數據集
    • 23-4 用Pandas 顯示與預處理數據
      • 23-4-1 用Pandas 顯示波士頓房價數據
      • 23-4-2 將房價加入DataFrame
      • 23-4-3 數據清洗
    • 23-5 特徵選擇
    • 23-6 使用最相關的特徵做房價預估
      • 23-6-1 繪製散點圖
      • 23-6-2 建立模型獲得R 平方判定係數、截距與係數
      • 23-6-3 計算預估房價
      • 23-6-4 繪製實際房價與預估房價
      • 23-6-5 繪製3D 的實際房價與預估房價
    • 23-7 多項式迴歸
      • 23-7-1 繪製散點圖和迴歸直線
      • 23-7-2 多項式迴歸公式
      • 23-7-3 生成一元二次迴歸公式的多個特徵項目
      • 23-7-4 多項式特徵應用在LinearRegression
      • 23-7-5 機器學習理想模型
      • 23-7-6 多元多項式的迴歸模型
      • 23-7-7 繪製3D 的實際房價與預估房價
    • 23-8 用所有特徵執行波士頓房價預估
    • 23-9 殘差圖(Residual plot)
    • 23-10 梯度下降迴歸SGDRegressor( )
    • 23-11 數據洩漏
  • 第24章 邏輯斯迴歸 - 信用卡/ 葡萄酒/ 糖尿病
    • 24-1 淺談線性迴歸的問題
    • 24-2 邏輯斯迴歸觀念回顧
      • 24-2-1 基礎觀念複習
      • 24-2-2 應用邏輯斯函數
      • 24-2-3 線性迴歸與邏輯斯迴歸的差異
    • 24-3 邏輯斯迴歸模型基礎應用
      • 24-3-1 語法基礎
      • 24-3-2 挽救可能流失的客戶
      • 24-3-3 多分類演算法解說
    • 24-4 台灣信用卡持卡人數據集
      • 24-4-1 認識UCI_Credit_Card.csv 數據
      • 24-4-2 挑選最重要的特徵
      • 24-4-3 用最相關的2 個特徵設計邏輯斯迴歸模型
      • 24-4-4 使用全部的特徵設計邏輯斯迴歸模型
    • 24-5 葡萄酒數據
      • 24-5-1 認識葡萄酒數據
      • 24-5-2 使用邏輯斯迴歸演算法執行葡萄酒分類
    • 24-6 糖尿病數據
      • 24-6-1 認識糖尿病數據
      • 24-6-2 缺失值檢查與處理
      • 24-6-3 用長條圖了解特徵分佈
      • 24-6-3 用箱形圖了解異常值
      • 24-6-4 用所有特徵值做糖尿病患者預估
      • 24-6-5 繪製皮爾遜相關係數熱力圖
      • 24-6-6 用最相關的皮爾遜相關係數做糖尿病預估
  • 第25章 決策樹–葡萄酒/ 鐵達尼號/Telco/Retail
    • 25-1 決策樹基本觀念
      • 25-1-1 決策樹應用在分類問題
      • 25-1-2 分類問題的決策樹數學分割原理
      • 25-1-3 決策樹應用在迴歸問題
      • 25-1-4 決策樹在迴歸問題的數學原理
    • 25-2 從天氣數據認識決策樹設計流程 - 分類應用
      • 25-2-1 建立決策樹模型物件
      • 25-2-2 天氣數據實例
    • 25-3 葡萄酒數據 - 分類應用
      • 25-3-1 預設條件處理葡萄酒數據
      • 25-3-2 進一步認識決策樹深度
      • 25-3-3 繪製決策樹圖
    • 25-4 鐵達尼號- 分類應用
      • 25-4-1 認識鐵達尼號數據集
      • 25-4-2 決策樹設計鐵達尼號生存預測
      • 25-4-3 交叉分析
    • 25-5 Telco 電信公司- 分類應用
      • 25-5-1 認識WA_Fn-UseC_-Telco-Customer-Churn.csv 數據
      • 25-5-2 決策樹數據分析
      • 25-5-3 了解特徵對模型的重要性
      • 25-5-4 交叉驗證 - 決策樹最佳深度調整
    • 25-6 Retail Data Analytics - 迴歸應用
      • 25-6-1 用簡單的數據預估房價
      • 25-6-2 Retail Data Analytics 數據
  • 第26章 隨機森林–波士頓房價/ 鐵達尼號/Telco/ 收入分析
    • 26-1 隨機森林基本觀念
      • 26-1-1 Bagging 技術
      • 26-1-2 特徵隨機選擇
      • 26-1-3 隨機森林的應用
      • 26-1-4 隨機森林的優缺點
    • 26-2 波士頓房價 - 迴歸應用
      • 26-2-1 隨機森林RandomForestRegressor( )迴歸函數
      • 26-2-2 隨機森林 - 波士頓房價應用
      • 26-2-3 RandomForestRegressor 的屬性feature_importances_
    • 26-3 鐵達尼號 – 分類應用
    • 26-4 Telco 客戶流失 – 分類應用
    • 26-5 美國成年人收入分析 – 分類應用
      • 26-5-1 認識adult.csv 數據
      • 26-5-2 使用決策樹處理年收入預估
      • 26-5-3 決策樹特徵重要性
      • 26-5-4 使用隨機森林處理adult.csv 檔案
  • 第27章 KNN 演算法–鳶尾花/ 小行星撞地球
    • 27-1 KNN 演算法基礎觀念
      • 27-1-1 基礎觀念
      • 27-1-2 K 值的影響
    • 27-2 電影推薦/ 足球射門 - 分類應用
      • 27-2-1 認識語法與簡單實例
      • 27-2-2 電影推薦
      • 27-2-3 足球射門是否進球
      • 27-2-4 交叉驗證
      • 27-2-5 繪製分類的決策邊界(Decision Boundary)
      • 27-2-5 多分類模型的準確率分析
    • 27-3 房價計算/ 選舉準備香腸 – 迴歸應用
      • 27-3-1 認識語法與簡單實例
      • 27-3-2 房價計算
      • 27-3-3 選舉造勢與準備烤香腸數量
      • 27-3-4 KNN 模型的迴歸線分析
    • 27-4 鳶尾花數據 - 分類應用
      • 27-4-1 認識鳶尾花數據集
      • 27-4-2 輸出數據集
      • 27-4-3 用Pandas 顯示鳶尾花數據
      • 27-4-4 映射標籤
      • 27-4-5 繪製特徵變數的散點圖
      • 27-4-6 使用 KNN 演算法進行鳶尾花數據集的分類預測
      • 27-4-7 繪製鳶尾花的決策邊界
      • 27-4-8 計算最優的k 值
      • 27-4-9 交叉驗證
    • 27-5 小行星撞地球 – 分類應用
      • 27-5-1 認識NASA:Asteroids Classification
      • 27-5-2 數據預處理
      • 27-5-3 預測小行星撞地球的準確率
  • 第28章 支援向量機 – 鳶尾花/ 乳腺癌/ 汽車燃料
    • 28-1 支援向量機分類應用的基礎觀念
      • 28-1-1 分類應用的基礎觀念
      • 28-1-2 最大區間的分割
      • 28-1-3 認識支援向量/ 決策邊界/ 與超平面
      • 28-1-4 超平面公式
    • 28-2 支援向量機 - 分類應用的基礎實例
      • 28-2-1 繪製10 個數據點
      • 28-2-2 支援向量機的語法說明
      • 28-2-3 推導超平面的斜率
      • 28-2-4 繪製超平面和決策邊界
      • 28-2-5 數據分類
      • 28-2-6 decision_function( )
    • 28-3 從2 維到3 維的超平面
      • 28-3-1 增加數據維度
      • 28-3-2 計算3 維的超平面公式與係數
      • 28-3-3 繪製3 維的超平面
    • 28-4 認識核函數
      • 28-4-1 linear
      • 28-4-2 徑向基函數(Radial Basic Function) - RBF
      • 28-4-3 多項式函數(Polynomail function) - poly
      • 28-4-4 支援向量機的方法
    • 28-5 鳶尾花數據 - 分類應用
    • 28-6 乳腺癌數據 - 分類應用
      • 28-6-1 認識數據
      • 28-6-2 線性支援向量機預測乳腺癌數據
      • 28-6-3 不同核函數應用在乳腺癌數據
    • 28-7 支援向量機 – 迴歸應用的基礎實例
      • 28-7-1 SVR( ) 語法說明
      • 28-7-2 簡單數據應用
      • 28-7-3 電視購物廣告效益分析
    • 28-8 汽車燃耗效率數據集 - 迴歸分析
      • 28-8-1 認識汽車燃耗效率(MPG) 數據集
      • 28-8-2 使用SVR( ) 預測汽車燃料數據
  • 第29章 單純貝式分類–垃圾郵件/ 新聞分類/ 電影評論
    • 29-1 單純貝式分類原理
      • 29-1-1 公式說明
      • 29-1-2 簡單實例說起
      • 29-1-3 拉普拉斯平滑修正
    • 29-2 詞頻向量模組 - CountVerctorizer
    • 29-3 多項式單純貝式模組 - MultinomialNB
      • 29-3-1 語法觀念
      • 29-3-2 文章分類實作
      • 29-3-3 垃圾郵件分類
    • 29-4 垃圾郵件分類 – Spambase 數據集
      • 29-4-1 認識垃圾郵件數據集Spambase
      • 29-4-2 垃圾郵件分類預測
    • 29-5 新聞郵件分類 – 新聞數據集20newsgroups
      • 29-5-1 認識新聞數據集20newsgroups
      • 29-5-2 新聞分類預測
      • 29-5-3 TfidfVectorizer 模組 - 文件事前處理TF-IDF
      • 29-5-4 輸入文件做新聞分類
    • 29-6 情感分析 – 電影評論IMDB Dataset分析
      • 29-6-1 基礎觀念實例
      • 29-6-2 電影評論IMDB Dataset 數據集
    • 29-7 單純貝式分類於中文的應用
      • 29-7-1 將中文字串應用在CountVectorizer模組
      • 29-7-2 jieba - 結巴
      • 29-7-3 jieba 與CountVectorizer 組合應用 .
      • 29-7-4 簡單中文情感分析程式
    • 29-8 今日頭條數據集
      • 29-8-1 認識數據集
      • 29-8-2 今日頭條數據集實作
  • 第30章 集成機器學習–蘑菇/醫療保險/玻璃/加州房價
    • 30-1 集成學習的基本觀念
      • 30-1-1 基本觀念
      • 30-1-2 集成學習效果評估
    • 30-2 集成學習 - 投票法Voting(鳶尾花/波士頓房價)
      • 30-2-1 投票法 - 分類應用
      • 30-2-2 投票法 - 迴歸應用
    • 30-3 集成學習 - 裝袋法Bagging(蘑菇/醫療保險)
      • 30-3-1 裝袋法 – 分類應用語法說明
      • 30-3-2 蘑菇數據分類應用
      • 30-3-3 裝袋法 – 迴歸應用語法說明
      • 30-3-4 醫療保險數據迴歸應用
    • 30-4 集成學習 - 適應性提升法AdaBoost
      • 30-4-1 AdaBoost 提升法 - 分類應用語法說明
      • 30-4-2 AdaBoost 提升法 - 迴歸應用語法說明
    • 30-5 集成學習 - 梯度提升法Gradient Boosting
      • 30-5-1 Gradient Boosting - 分類應用語法說明
      • 30-5-2 玻璃數據集分類的應用
      • 30-5-3 Gradient Boosting–迴歸應用語法說明
      • 30-5-4 加州房價數據集迴歸應用
    • 30-6 集成學習 – 堆疊法Stacking
      • 30-6-1 StackingClassifier - 分類應用語法說明
      • 30-6-2 RidgeCV( )
      • 30-6-3 StackingRegressor – 迴歸應用語法說明
  • 第31章 K-means 分群 – 購物中心消費/ 葡萄酒評價
    • 31-1 認識無監督學習
      • 31-1-1 回顧監督學習數據
      • 31-1-2 無監督學習數據
      • 31-1-3 無監督學習與監督學習的差異
      • 31-1-4 無監督學習的應用
    • 31-2 K-means 演算法
      • 31-2-1 演算法基礎
      • 31-2-2 Python 硬功夫程式實作
    • 31-3 Scikit-learn 的KMeans 模組
      • 31-3-1 KMeans 語法
      • 31-3-2 分群的基礎實例
      • 31-3-3 數據分群的簡單實例
    • 31-4 評估分群的效能
      • 31-4-1 群內平方和(WCSS)
      • 31-4-2 輪廓係數(Silhouette Coefficient)
      • 31-4-3 調整蘭德係數(Rand Index ARI)
    • 31-5 最佳群集數量
      • 31-5-1 肘點法(Elbow Method)
      • 31-5-2 輪廓分析(Silhouette Analysis)
    • 31-6 消費分析 - 購物中心客戶消費數據
      • 31-6-1 認識Mall Customer Segmentation Data
      • 31-6-2 收入與消費分群
      • 31-6-3 依據性別分析「年收入 vs 消費力」
      • 31-6-4 依據年齡層分析「年收入 vs 消費力」
    • 31-7 價格 vs 評價 - 葡萄酒Wine Reviews
      • 31-7-1 認識Wine Reviews 數據
  • 第32章 PCA 主成份分析 – 手寫數字/人臉數據
    • 32-1 PCA 基本觀念
      • 32-1-1 基本觀念
      • 32-1-2 PCA 方法與基礎數據實作
      • 32-1-3 數據白化whiten
    • 32-2 鳶尾花數據的PCA 應用
      • 32-2-1 鳶尾花數據降維
      • 32-2-2 SVC 與PCA 在鳶尾花的應用
      • 32-2-3 PCA 主成份與原始特徵的分析
    • 32-3 數字辨識 - 手寫數字digits dataset
      • 32-3-1 認識手寫數字數據集digits dataset
      • 32-3-2 決策樹與隨機森林辨識手寫數字
      • 32-3-3 PCA 與手寫數字整合應用
    • 32-4 人臉辨識 – 人臉數據Labeled Faces in the Wild
      • 32-4-1 認識人臉數據LFW
      • 32-4-2 人臉辨識預測
      • 32-4-3 加上PCA 的人臉辨識
  • 第33章 階層式分群 – 小麥數據/老實泉
    • 33-1 認識階層式分群
    • 33-2 凝聚型(Agglomerative) 分群
      • 33-2-1 凝聚型分群定義
      • 33-2-2 簡單實例解說linkage( ) 方法
      • 33-2-3 單鏈接法(Single Linkage) 說明
      • 33-2-4 簡單實例解說分群方法
      • 33-2-5 分群方法ward( )
      • 33-2-6 分群數量的方法
      • 33-2-7 凝聚型分群AgglomerativeClustering
    • 33-3 小麥數據集Seeds dataset
      • 33-3-1 認識數據集Seeds dataset
      • 33-3-2 凝聚型分群應用在Seeds dataset
    • 33-4 老實泉數據Old Faithful Geyser Data
      • 33-4-1 認識老實泉數據集
      • 33-4-2 繪製樹狀圖
      • 33-4-3 凝聚型分群應用在老實泉數據
  • 第34章 DBSCAN 演算法 – 購物中心客戶分析
    • 34-1 DBSCAN 演算法
      • 34-1-1 DBSCAN 演算法的參數觀念
      • 34-1-2 點的定義
      • 34-1-3 演算法的步驟
    • 34-2 scikit-learn 的DBSCAN 模組
      • 34-2-1 DBSCAN 語法
      • 34-2-2 DBSCAN 演算法基礎實例
    • 34-3 消費分析 - 購物中心客戶消費數據
  • 附錄A 函數與方法索引表

評分與評論

請登入後再留言與評分
幫助
您好,請問需要甚麼幫助呢?
使用指南

客服專線:0800-000-747

服務時間:週一至週五 AM 09:00~PM 06:00

loading