
0人評分過此書
機器學習:彩色圖解 + 基礎數學篇 + Python實作.王者歸來
這幾年心中總想寫一本可以讓擁有高中數學程度的讀者即可看懂人工智慧、機器學習或深度學習的書籍,或是說看了不會想睡覺的機器學習書籍,這個理念成為我撰寫這本書籍很重要的動力。為了卸除數學心房,筆者撰寫此書依循原則如下:
★:數學原理彩色圖解。
★:手工計算基礎數學。
★:Python程式高效實作。
這本數撰寫的幾個特色如下:
☆:全數共用約205個Python實例,講解機器學習的基礎數學
☆:極詳細、超清楚、帶領讀者從畏懼數學到喜歡數學
☆:複雜的數學符號重新拆解,原來可以很容易
☆:了解機器學習的數學原理,讓機器學習程式充滿智慧靈魂
在徹底研究機器學習後,筆者體會許多基礎數學不是不會與艱難而是生疏了,如果機器學習的書籍可以將複雜公式從基礎開始一步一步推導,其實可以很容易帶領讀者進入這個領域,同時感受數學不再如此艱澀,這也是我撰寫本書時時提醒自己要留意的事項。
研究機器學習雖然有很多模組可以使用,但是如果不懂相關數學原理,坦白說筆者不會相信未來你在這個領域會有所成就,這本書講解了下列相關數學的基本知識。
■ 資料視覺化使用matplotlib、Seaborn
■ 基礎數學模組Math
■ 基礎數學模組Sympy
■ 數學應用模組Numpy
■ 將LaTeX應用在圖表
■ 機器學習基本觀念
■ 從方程式到函數
■ 方程式與機器學習
■ 從畢氏定理看機器學習
■ 聯立方程式與聯立不等式與機器學習
■ 機器學習需要知道的二次函數與三次函數
■ 數據擬合、決定係數與迴歸曲線製作
■ 數據預測
■ 機器學習的最小平方法
■ 機器學習必須知道的集合與機率
■ 機率觀念與貝式定理的運用-COVID-19的全民普篩準確性推估
■ 筆者講解指數與對數的運算規則,同時驗證這些規則
■ 除了講解機器學習很重要的歐拉數(Euler’s Number),更說明歐拉數的由來
■ 認識邏輯(logistic)函數與logit函數
■ 三角函數
■ 大型運算子運算
■ 向量、矩陣與線性迴歸
■ 統計知識
■ 機器學習模組scikit-learn,監督學習與無監督學習。
相關書籍
這本書是筆者所著機器學習系列書的起點,讀者還可以閱讀下列書籍:
機器學習
彩色圖解 + 微積分篇 + Python實作
★:數學原理彩色圖解。
★:手工計算基礎數學。
★:Python程式高效實作。
這本數撰寫的幾個特色如下:
☆:全數共用約205個Python實例,講解機器學習的基礎數學
☆:極詳細、超清楚、帶領讀者從畏懼數學到喜歡數學
☆:複雜的數學符號重新拆解,原來可以很容易
☆:了解機器學習的數學原理,讓機器學習程式充滿智慧靈魂
在徹底研究機器學習後,筆者體會許多基礎數學不是不會與艱難而是生疏了,如果機器學習的書籍可以將複雜公式從基礎開始一步一步推導,其實可以很容易帶領讀者進入這個領域,同時感受數學不再如此艱澀,這也是我撰寫本書時時提醒自己要留意的事項。
研究機器學習雖然有很多模組可以使用,但是如果不懂相關數學原理,坦白說筆者不會相信未來你在這個領域會有所成就,這本書講解了下列相關數學的基本知識。
■ 資料視覺化使用matplotlib、Seaborn
■ 基礎數學模組Math
■ 基礎數學模組Sympy
■ 數學應用模組Numpy
■ 將LaTeX應用在圖表
■ 機器學習基本觀念
■ 從方程式到函數
■ 方程式與機器學習
■ 從畢氏定理看機器學習
■ 聯立方程式與聯立不等式與機器學習
■ 機器學習需要知道的二次函數與三次函數
■ 數據擬合、決定係數與迴歸曲線製作
■ 數據預測
■ 機器學習的最小平方法
■ 機器學習必須知道的集合與機率
■ 機率觀念與貝式定理的運用-COVID-19的全民普篩準確性推估
■ 筆者講解指數與對數的運算規則,同時驗證這些規則
■ 除了講解機器學習很重要的歐拉數(Euler’s Number),更說明歐拉數的由來
■ 認識邏輯(logistic)函數與logit函數
■ 三角函數
■ 大型運算子運算
■ 向量、矩陣與線性迴歸
■ 統計知識
■ 機器學習模組scikit-learn,監督學習與無監督學習。
相關書籍
這本書是筆者所著機器學習系列書的起點,讀者還可以閱讀下列書籍:
機器學習
彩色圖解 + 微積分篇 + Python實作
-
第1章 資料視覺化
-
1-1 認識mapplotlib.pyplot模組的主要函數
-
1-2 繪製簡單的折線圖plot()
-
1-2-1 畫線基礎實作
-
1-2-2 線條寬度linewidth
-
1-2-3 標題的顯示
-
1-2-4 座標軸刻度的設定
-
1-2-5 多組數據的應用
-
1-2-6 線條色彩與樣式
-
1-2-7 刻度設計
-
1-2-8 圖例legend()
-
1-2-9 保存與開啟圖檔
-
1-2-10 在圖上標記文字
-
-
1-3 繪製散點圖scatter()
-
1-3-1 基本散點圖的繪製
-
1-3-2 繪製系列點
-
1-3-3 設定繪圖區間
-
-
1-4 Numpy模組
-
1-4-1 建立一個簡單的陣列linspace()和arange()
-
1-4-2 繪製波形
-
1-4-3 建立不等寬度的散點圖
-
1-4-4 填滿區間Shading Regions
-
1-4-5 色彩映射color mapping
-
1-4-6 matplotlib支援顯示Latex
-
1-4-7 imshow()函數支援顯示圖片
-
-
1-5 圖表顯示中文
-
1-6 長條圖與直方圖
-
1-6-1 繪製長條圖bar()
-
1-6-2 繪製直方圖hist()
-
-
1-7 Numpy的指數與對數函數
-
1-7-1 次方運算power()
-
1-7-2 指數函數exp()
-
1-7-3 對數函數
-
-
-
第2章 數學模組Math和Sympy
-
2-1 數學模組的變數
-
2-2 一般函數
-
2-3 log()函數
-
2-4 三角函數
-
2-5 Sympy 模組
-
2-5-1 定義符號
-
2-5-2 name屬性
-
2-5-3 定義多個符號變數
-
2-5-4 符號的運算
-
2-5-5 將數值代入公式
-
2-5-6 將字串轉為數學表達式
-
2-5-7 解一元一次方程式
-
2-5-8 解一元二次方程式
-
2-5-9 解含未知數的方程式
-
2-5-10 解聯立方程式
-
2-5-11 繪製座標圖的基礎
-
2-5-12 設定繪圖的x軸區間
-
2-5-13 增加繪圖標題與軸標題
-
2-5-14 多函數圖形
-
2-5-15 plot()的show參數
-
2-5-16 使用不同顏色繪圖
-
2-5-17 圖表增加圖例
-
-
-
第3章 機器學習基本觀念
-
3-1 人工智慧、機器學習、深度學習
-
3-2 認識機器學習
-
3-3 機器學習的種類
-
3-3-1 監督學習
-
3-3-2 無監督學習
-
3-3-3 強化學習
-
3-3-4 本書的教學目標
-
-
3-4 機器學習的應用範圍
-
-
第4章 機器學習的基礎數學
-
4-1 用數字描繪事物
-
4-2 變數觀念
-
4-3 從變數到函數
-
4-4 等式運算的規則
-
4-5 代數運算的基本規則
-
4-6 用數學抽象化開餐廳的生存條件
-
4-6-1 數學模型
-
4-6-2 經營數字預估
-
4-6-3 經營績效的計算
-
-
4-7 基礎數學的結論
-
-
第5章 認識方程式/函數/座標圖形
-
5-1 認識方程式
-
5-2 方程式文字描述方法
-
5-3 一元一次方程式
-
5-4 函數
-
5-5 座標圖形分析
-
5-5-1 座標圖形與線性關係
-
5-5-2 斜率與截距的意義
-
5-5-3 細看斜率
-
5-5-4 細看y截距
-
5-5-5 細看x截距
-
-
5-6 將線性函數應用在機器學習
-
5-6-1 再看直線函數與斜率
-
5-6-2 機器學習與線性回歸
-
5-6-3 相同斜率平行移動
-
5-6-4 不同斜率與相同截距
-
5-6-5 不同斜率與不同截距
-
-
-
第6章 從聯立方程式看機器學習的數學模型
-
6-1 數學觀念建立連接兩點的直線
-
6-1-1 基礎觀念
-
6-1-2 聯立方程式
-
6-1-3 使用加減法解聯立方程式
-
6-1-4 使用代入法解聯立方程式
-
6-1-5 使用Sympy解聯立方程式
-
-
6-2 機器學習使用聯立方程式推估數據
-
6-2-1 基本觀念
-
6-2-2 數據推估
-
-
6-3 從2條直線的交叉點推估科學數據
-
6-3-1 雞兔同籠
-
6-3-2 達成業績目標
-
-
6-4 兩條直線垂直交叉
-
6-4-1 基礎觀念
-
6-4-2 求解座標某一點至一條線的垂直線
-
-
-
第7章 從畢氏定理看機器學習
-
7-1 驗證畢氏定理
-
7-1-1 認識直角三角形
-
7-1-2 驗證畢氏定理
-
-
7-2 將畢氏定理應用在性向測試
-
7-2-1 問題核心分析
-
7-2-2 數據運算
-
-
7-3 將畢氏定理應用在三維空間
-
7-4 將畢氏定理應用在更高維的空間
-
7-5 電影分類
-
7-5-1 規劃特徵值
-
7-5-2 將KNN演算法應用在電影分類的精神
-
7-5-3 專案程式實作
-
7-5-4 電影分類結論
-
-
-
第8章 聯立不等式與機器學習
-
8-1 聯立不等式的基本觀念
-
8-2 聯立不等式的線性規劃
-
8-2-1 案例分析
-
8-2-2 用聯立不等式表達
-
8-2-3 在座標軸上繪不等式的區域
-
8-2-4 目標函數
-
8-2-5 平行移動目標函數
-
8-2-6 將交叉點座標代入目標函數
-
-
8-3 Python計算
-
-
第9章 機器學習需要知道的二次函數
-
9-1 二次函數的基礎數學
-
9-1-1 解一元二次方程式的根
-
9-1-2 繪製一元二次方程式的圖形
-
9-1-3 一元二次方程式的最小值與最大值
-
9-1-4 二次函數參數整理
-
9-1-5 三次函數的圖形特徵
-
-
9-2 從一次到二次函數的實務
-
9-2-1 呈現好的變化
-
9-2-2 呈現不好的變化
-
-
9-3 認識二次函數的係數
-
9-4 使用3 個點求解二次函數
-
9-4-1 手動求解二次函數
-
9-4-2 程式求解二次函數
-
9-4-3 繪製二次函數
-
9-4-4 使用業績回推應有的拜訪次數
-
-
9-5 二次函數的配方法
-
9-5-1 基本觀念
-
9-5-2 配方法
-
9-5-3 從標準式計算二次函數的最大值
-
9-5-4 從標準式計算二次函數的最小值
-
-
9-6 二次函數與解答區間
-
9-6-1 行銷問題分析
-
9-6-2 二次函數分析增加業績的臉書行銷次數
-
9-6-3 將不等式應用在條件區間
-
9-6-4 非實數根
-
-
-
第10章 機器學習的最小平方法
-
10-1 最小平方法基本觀念
-
10-1-1 基本觀念
-
10-1-2 數學觀點
-
-
10-2 簡單的企業實例
-
10-3 機器學習建立含誤差值的線性方程式
-
10-3-1 觀念啟發
-
10-3-2 三項和的平方
-
10-3-3 公式推導
-
10-3-4 使用配方法計算直線的斜率和截距
-
-
10-4 Numpy實作最小平方法
-
10-5 線性迴歸
-
10-6 實務應用
-
-
第11章 機器學習必須懂的集合
-
11-1 使用Python建立集合
-
11-1-1 使用{ }建立集合
-
11-1-2 集合元素是唯一
-
11-1-3 使用set()建立集合
-
11-1-4 集合的基數(cardinality)
-
11-1-5 建立空集合要用set()
-
11-1-6 大數據資料與集合的應用
-
-
11-2 集合的操作
-
11-2-1 交集(intersection)
-
10-2-2 聯集(union)
-
11-2-3 差集(difference)
-
11-2-4 對稱差集(symmetric difference)
-
-
11-3 子集、宇集與補集
-
11-3-1 子集
-
11-3-2 宇集
-
11-3-3 補集
-
-
11-4 加入與刪除集合元素
-
11-5 冪集與Sympy 模組
-
11-5-1 Sympy 模組與集合
-
11-5-2 建立冪集
-
11-5-3 冪集的元素個數
-
-
11-6 笛卡兒積
-
11-6-1 集合相乘
-
11-6-2 集合的n 次方
-
-
-
第12章 機器學習必須懂的排列與組合
-
12-1 排列基本觀念
-
12-1-1 實驗與事件
-
12-2-2 事件結果
-
-
12-2 有多少條回家路
-
12-3 排列組合
-
12-4 階乘的觀念
-
12-5 重複排列
-
12-6 組合
-
-
第13章 機器學習需要認識的機率
-
13-1 機率基本觀念
-
13-2 數學機率與統計機率
-
13-3 事件機率名稱
-
13-4 事件機率規則
-
13-4-1 不發生機率
-
13-4-2 機率相加
-
13-4-3 機率相乘
-
13-4-4 常見的陷阱
-
-
13-5 抽獎的機率-加法與乘法綜合應用
-
13-6 餘事件與乘法的綜合應用
-
13-7 條件機率
-
13-7-1 基礎觀念
-
13-7-2 再談實例
-
-
13-8 貝氏定理
-
13-8-1 基本觀念
-
13-8-2 用實例驗證貝氏定理
-
13-8-3 貝式定理的運用COVID-19的全民普篩準確性推估
-
13-8-4 使用貝氏定理篩選垃圾電子郵件
-
-
13-9 蒙地卡羅模擬
-
13-10 Numpy的隨機模組random
-
13-10-1 np.random.rand()
-
13-10-2 np.random.randint()
-
13-10-3 np.random.seed()
-
13-10-4 np.random.shuffle()
-
13-10-5 np.random.choice()
-
13-10-6 使用隨機數陣列產生圖像
-
-
-
第14章 二項式定理
-
14-1 二項式的定義
-
14-2 二項式的幾何意義
-
14-3 二項式展開與規律性分析
-
14-4 找出xn-kyk項的係數
-
14-4-1 基礎觀念
-
14-4-2 組合數學觀念
-
14-4-3 係數公式推導與驗證
-
-
14-5 二項式的通式
-
14-5-1 驗證頭尾係數比較
-
14-5-2 中間係數驗證
-
-
14-6 二項式到多項式
-
14-7 二項分佈實驗
-
14-8 將二項式觀念應用在業務數據分析
-
14-8-1 每5次銷售0張考卷的機率
-
14-8-2 每5次銷售1張考卷的機率
-
14-8-3 每5次銷售2張考卷的機率
-
14-8-4 每5次銷售0-2張考卷的機率
-
14-8-5 列出拜訪5次銷售k張考卷的機率通式
-
-
14-9 二項式機率分佈Python實作
-
14-10 Numpy隨機數模組的binomial()函數
-
14-10-1 視覺化模組Seaborn
-
14-10-2 Numpy的二項式隨機函數binomial
-
-
-
第15章 指數觀念與指數函數
-
15-1 認識指數函數
-
15-1-1 基礎觀念
-
15-1-2 複利計算實例
-
15-1-3 病毒複製
-
15-1-4 指數應用在價值衰減
-
15-1-5 用指數觀念看iPhone容量
-
-
15-2 指數運算的規則
-
15-3 指數函數的圖形
-
15-3-1 底數是變數的圖形
-
15-3-2 指數冪是實數變數
-
15-3-3 指數冪是實數變數但是底數小於1
-
-
-
第16章 對數(logarithm)
-
16-1 認識對數函數
-
16-1-1 對數的由來
-
16-1-2 從數學看指數的運作觀念
-
16-1-3 再看對數函數
-
16-1-4 天文數字的處理
-
16-1-5 Python的對數函數應用
-
-
16-2 對數表的功能
-
16-2-1 對數表基礎應用
-
16-2-2 更精確的對數表
-
-
16-3 對數運算可以解決指數運算的問題
-
16-3-1 用指數處理相當數值的近似值
-
16-3-2 使用對數簡化運算
-
-
16-4 認識對數的特性
-
16-5 對數的運算規則與驗證
-
16-5-1 等號兩邊使用對數處理結果不變
-
16-5-2 對數的真數是1
-
16-5-3 對數的底數等於真數
-
16-5-4 對數內真數的指數可以移到外面
-
16-5-5 對數內真數是兩數據相乘結果是兩數據相加
-
16-5-6 對數內真數是兩數據相除結果是兩數據相減
-
16-5-7 底數變換
-
-
-
第17章 歐拉數與邏輯函數
-
17-1 歐拉數
-
17-1-1 認識歐拉數
-
17-1-2 歐拉數的緣由
-
17-1-3 歐拉數使用公式做定義
-
17-1-4 計算與繪製歐拉數的函數圖形
-
-
17-2 邏輯函數
-
17-2-1 認識邏輯函數
-
17-2-2 x是正無限大
-
17-2-3 x是0
-
17-2-4 x是負無限大
-
17-2-5 繪製邏輯函數
-
-
17-3 logit函數
-
17-3-1 認識Odds
-
17-3-2 從Odds到logit函數
-
17-3-3 繪製logit函數
-
-
17-4 邏輯函數的應用
-
17-4-1 事件說明與分析
-
17-4-2 從邏輯函數到logit函數
-
17-4-3 使用logit函數獲得係數
-
-
-
第18章 三角函數
-
18-1 直角三角形的邊長與夾角
-
18-2 三角函數的定義
-
18-3 計算三角形的面積
-
18-3-1 計算直角三角形面積
-
18-3-2 計算非直角三角形面積
-
-
18-4 角度與弧度
-
18-4-1 角度的由來
-
18-4-2 弧度的由來
-
18-4-3 角度與弧度的換算
-
18-4-4 圓周弧長的計算
-
18-4-5 計算扇形面積
-
-
18-5 程式處理三角函數
-
18-6 從單位圓看三角函數
-
-
第19章 基礎統計與大型運算子
-
19-1 母體與樣本
-
19-2 數據加總
-
19-3 數據分佈
-
19-4 數據中心指標
-
19-4-1 平均數(mean)
-
19-4-2 中位數(median)
-
19-4-3 眾數(mode)
-
19-4-4 統計模組statistics的眾數
-
19-4-5 分數分佈圖
-
-
19-5 數據分散指標
-
19-5-1 變異數
-
19-5-2 標準差
-
-
19-6 符號運算規則與驗證
-
19-7 活用符號
-
19-8 迴歸分析
-
19-8-1 相關係數(Correlation Coefficient)
-
19-8-2 建立線性回歸模型與數據預測
-
19-8-3 二次函數的迴歸模型
-
-
19-9 隨機函數的分佈
-
19-9-1 randn()
-
19-9-2 normal()
-
19-9-3 uniform()
-
-
-
第20章 機器學習的向量
-
20-1 向量的基礎觀念
-
20-1-1 認識純量
-
20-1-2 認識向量
-
20-1-3 向量表示法
-
20-1-4 計算向量分量
-
20-1-5 相對位置的向量
-
20-1-6 不同路徑的向量運算
-
-
20-2 向量加法的規則
-
20-3 向量的長度
-
20-4 向量方程式
-
20-4-1 直線方程式
-
20-4-2 Python實作連接2點的方程式
-
20-4-3 使用向量建立迴歸直線的理由
-
-
20-5 向量內積
-
20-5-1 協同工作的觀念
-
20-5-2 計算B 所幫的忙
-
20-5-3 向量內積的定義
-
20-5-4 兩條直線的夾角
-
20-5-5 向量內積的性質
-
20-5-6 餘弦相似度
-
-
20-6 皮爾遜相關係數
-
20-6-1 皮爾遜相關係數定義
-
20-6-2 網路購物問卷調查案例解說
-
20-6-3 向量內積計算係數
-
-
20-7 向量外積
-
20-7-1 法線向量
-
20-7-2 計算面積
-
-
-
第21章 機器學習的矩陣
-
21-1 矩陣的表達方式
-
21-1-1 矩陣的行與列方式
-
21-1-2 矩陣變數名稱
-
21-1-3 常見的矩陣表達方式
-
21-1-4 矩陣元素表達方式
-
-
21-2 矩陣相加與相減
-
21-2-1 基礎觀念
-
21-2-2 Python實作
-
-
21-3 矩陣乘以實數
-
21-4 矩陣乘法
-
21-4-1 乘法基本規則
-
21-4-2 乘法案例
-
21-4-3 矩陣乘法規則
-
-
21-5 方形矩陣
-
21-6 單位矩陣
-
21-7 反矩陣
-
21-7-1 基礎觀念
-
21-7-2 Python實作
-
-
21-8 用反矩陣解聯立方程式
-
21-9 張量(Tensor)
-
21-10 轉置矩陣
-
21-10-1 基礎觀念
-
21-10-2 Python 實作
-
21-10-3 轉置矩陣的規則
-
21-10-4 轉置矩陣的應用
-
-
-
第22章 向量、矩陣與多元線性回歸
-
22-1 向量應用在線性迴歸
-
22-2 向量應用在多元線性迴歸
-
22-3 矩陣應用在多元線性迴歸
-
22-4 將截距放入矩陣
-
22-5 簡單的線性迴歸
-
-
第23章 三次函數迴歸曲線的程式實作
-
23-1 繪製數據的散點圖
-
23-2 三次函數的迴歸曲線模型
-
23-3 使用scikit-learn模組計算決定係數
-
23-3-1 安裝scikit-learn
-
23-3-2 計算決定係數評估模型
-
-
23-4 預測未來值
-
23-5 不適合的三次函數迴歸數據
-
23-5-1 繪製三次函數迴歸線
-
23-5-2 計算決定係數
-
-
-
第24章 機器學習使用scikit-learn入門
-
24-1 認識scikit-learn 數據模組datasets
-
24-2 監督學習-線性迴歸
-
24-2-1 訓練數據與測試數據
-
24-2-2 使用make_regression()函數準備迴歸模型數據
-
24-2-3 建立訓練數據與測試數據使用train_test_split()
-
24-2-4 獲得線性函數的迴歸係數與截距
-
24-2-5 predict()函數
-
24-2-6 迴歸模型判斷
-
-
24-3 無監督學習-群集分析
-
24-3-1 K-means 演算法
-
24-3-2 使用make_blobs()函數準備群集數據
-
24-3-3 使用cluster.KMeans()和fit()函數作群集分析
-
24-3-4 標記群集點和群集中心
-
-
- 出版地 : 臺灣
- 語言 : 繁體中文
- DOI : 10.978.9865501/969
評分與評論
請登入後再留言與評分