
0人評分過此書
《机器学习导论》从实战出发,内容全面,从基本概念入手,介绍了各种机器学习的基本类型。现代机器学习部分,不仅仅是*受关注的深度神经网络学习,同时还介绍了近十年取得令人关注进展的其他机器学习分支。着重于现代方法,但是也没有忘记详尽地介绍经典方法,刻画了机器学习学科发展历史上的各个里程碑式的重要成果,基本覆盖了机器学习技术各个时期的主要方向;第二,该书内容比较浅显,对大多数方法的介绍做到点到为止。有利于入门学生摆脱具体算法的纠缠,快速通读下去,避免信息破碎;第三,本书对各种方法的关联性做了重点阐述,有利于形成知识脉络。第四,作者对每种技术都给出了大量参考文献,便于读者根据个体需求深入学习。上述这些特点对从事应用研究的初学者非常重要,基于这些信息,便于形成对机器学习技术总体思路的把握,从而可以在需要的时候能理清头绪,从众多机器学习方法中找到合适的工具。 从事机器学习应用研究的初学者读物,可快速形成对机器学习技术总体思路的把握,从而可以在需要的时候能理清头绪,从众多机器学习方法中找到合适的工具。
- 封面页
- 书名页
- 版权页
- 内容简介
- 推荐序
- 前言
- 本书符号说明
- 本书使用说明
- 目录
-
第1章 机器学习概述
-
1.1 什么是机器学习
-
1.2 机器学习的基本框架
-
1.3 机器学习发展简史
-
1.4 机器学习的流派
-
1.4.1 符号学派
-
1.4.2 贝叶斯学派
-
1.4.3 连接学派
-
1.4.4 进化仿生学派
-
1.4.5 哪个学派更占主流
-
-
1.5 让人惊讶的学习
-
1.5.1 从猴子摘香蕉到星际大战
-
1.5.2 集体学习的机器人
-
1.5.3 图片理解
-
1.5.4 金融市场量化分析
-
1.5.5 AlphaGo
-
-
1.6 机器学习技术的前沿
-
1.7 机器智能会超过人类智能吗
-
1.8 机器学习基础
-
1.8.1 训练、验证与测试
-
1.8.2 参数过拟合、交叉验证与正则化
-
1.8.3 结构过拟合与模型选择
-
1.8.4 机器学习方法分类
-
-
1.9 开始你的机器学习之旅
-
1.9.1 如何开始一个机器学习任务
-
1.9.2 如何学习机器学习
-
-
1.10 相关资源
-
-
第2章 线性模型
-
2.1 线性预测模型
-
2.1.1 从多项式拟合说起
-
2.1.2 线性回归
-
2.1.3 Fisher准则与线性分类
-
2.1.4 Logistic回归
-
2.1.5 小结
-
-
2.2 线性概率模型
-
2.2.1 主成分分析
-
2.2.2 概率主成分分析
-
2.2.3 概率线性判别分析
-
-
2.3 贝叶斯方法
-
2.4 本章小结
-
2.5 相关资源
-
-
第3章 神经模型
-
3.1 神经网络概述
-
3.1.1 什么是人工神经网络
-
3.1.2 神经模型与其他方法
-
-
3.2 基于映射的神经模型
-
3.2.1 从线性模型开始
-
3.2.2 多层感知器
-
3.2.3 径向基函数网络
-
3.2.4 神经网络模型与先验知识
-
-
3.3 基于记忆的神经模型
-
3.3.1 Kohonen网络
-
3.3.2 Hopfield网络
-
3.3.3 玻尔兹曼机
-
3.3.4 受限玻尔兹曼机
-
3.3.5 自编码器
-
-
3.4 基于过程的模型
-
3.4.1 Elman RNN
-
3.4.2 门网络
-
3.4.3 序列对序列网络
-
3.4.4 基于Attention模型的诗词生成
-
-
3.5 神经图灵机
-
3.6 本章小结
-
3.7 相关资源
-
-
第4章 深度学习
-
4.1 从浅层学习到深度学习
-
4.1.1 网络表达能力
-
4.1.2 层次表示与特征学习
-
4.1.3 显著特征的非监督学习
-
4.1.4 复杂结构与数据驱动
-
-
4.2 深度神经网络训练
-
4.2.1 基础训练算法
-
4.2.2 DNN训练的困难
-
4.2.3 DNN训练技巧
-
-
4.3 神经网络的正则化
-
4.3.1 结构化网络与参数共享
-
4.3.2 范式约束与稀疏网络
-
4.3.3 加噪训练与数据增强
-
4.3.4 联合训练
-
4.3.5 知识迁移
-
-
4.4 生成模型下的深度学习
-
4.4.1 神经网络的简单概率表达
-
4.4.2 后验拟合与Variational AE
-
4.4.3 Variational RNN
-
-
4.5 计算图与复杂神经网络
-
4.5.1 由Chain Rule到计算图
-
4.5.2 基于计算图的参数优化
-
4.5.3 计算图的模块化
-
4.5.4 计算图与深度神经网络
-
-
4.6 计算平台与方法
-
4.6.1 GPU与TPU
-
4.6.2 并行计算
-
4.6.3 模型压缩
-
-
4.7 深度学习的应用
-
4.7.1 语音信号处理
-
4.7.2 自然语言处理
-
4.7.3 计算机视觉
-
-
4.8 本章小结
-
4.9 相关资源
-
-
第5章 核方法
-
5.1 从线性回归到核方法
-
5.2 核函数的性质
-
5.2.1 再生核希尔伯特空间与Mercer定理
-
5.2.2 核函数的基本性质
-
-
5.3 常用核函数
-
5.3.1 简单核函数
-
5.3.2 概率核
-
5.3.3 复杂对象上的核函数
-
-
5.4 Kernel PCA
-
5.5 高斯过程
-
5.6 支持向量机
-
5.6.1 线性可分的SVM
-
5.6.2 线性不可分的SVM
-
5.6.3 v-SVM
-
5.6.4 SVM的若干讨论
-
-
5.7 相关向量机
-
5.8 本章小结
-
5.9 相关资源
-
-
第6章 图模型
-
6.1 概率图模型简介
-
6.2 有向图模型
-
6.2.1 典型模型
-
6.2.2 有向图变量相关性判断
-
-
6.3 无向图模型
-
6.3.1 无向图变量相关性判断
-
6.3.2 有向图向无向图转化
-
6.3.3 有向图和无向图对比
-
-
6.4 常用概率图模型
-
6.4.1 高斯混合模型
-
6.4.2 隐马尔可夫模型
-
6.4.3 线性条件随机场
-
-
6.5 EM算法
-
6.6 精确推理算法
-
6.6.1 加和—乘积算法
-
6.6.2 树状图的加和—乘积算法
-
6.6.3 联合树算法
-
-
6.7 近似推理算法
-
6.7.1 采样法
-
6.7.2 变分法
-
6.7.3 采样法和变分法比较
-
-
6.8 本章小结
-
6.9 相关资源
-
-
第7章 无监督学习
-
7.1 无监督学习任务
-
7.1.1 聚类概述
-
7.1.2 流形学习概述
-
7.1.3 因子学习
-
-
7.2 聚类方法
-
7.2.1 基于划分的聚类方法
-
7.2.2 基于连接的聚类方法
-
7.2.3 基于密度的聚类方法
-
7.2.4 基于模型的聚类方法
-
-
7.3 流形学习
-
7.3.1 主成分分析
-
7.3.2 多维标度
-
7.3.3 ISOMAP
-
7.3.4 自组织映射
-
7.3.5 局部线性嵌入
-
7.3.6 谱嵌入
-
7.3.7 t-SNE
-
7.3.8 流形学习方法比较
-
-
7.4 图模型与无监督学习
-
7.4.1 图模型下的聚类任务
-
7.4.2 图模型下的流形学习
-
7.4.3 图模型下的因子学习
-
-
7.5 神经模型与无监督学习
-
7.5.1 特征学习任务中的因子学习
-
7.5.2 生成任务中的因子学习
-
7.5.3 分类/回归任务中的因子学习
-
-
7.6 本章小结
-
7.7 相关资源
-
-
第8章 非参数模型
-
8.1 简单非参数模型
-
8.2 回顾高斯过程
-
8.2.1 高斯过程定义
-
8.2.2 高斯过程回归
-
8.2.3 高斯过程用于分类任务
-
-
8.3 狄利克雷过程
-
8.3.1 回顾高斯混合模型
-
8.3.2 中国餐馆问题
-
8.3.3 狄利克雷分布及性质
-
8.3.4 狄利克雷过程的定义
-
8.3.5 狄利克雷过程的表示
-
8.3.6 狄利克雷过程的构造
-
8.3.7 推理方法
-
8.3.8 Hierarchical DP(HDP)
-
-
8.4 本章小结
-
8.5 相关资源
-
-
第9章 演化学习
-
9.1 基于采样的优化方法
-
9.1.1 演化学习
-
9.1.2 群体学习与随机优化
-
-
9.2 遗传算法
-
9.2.1 算法框架
-
9.2.2 算法细节
-
9.2.3 进化理论
-
-
9.3 遗传编程
-
9.3.1 算法基础
-
9.3.2 GP高级话题
-
9.3.3 其他演化学习方法
-
-
9.4 群体学习方法
-
9.4.1 蚁群优化算法
-
9.4.2 人工蜂群算法
-
9.4.3 粒子群算法
-
9.4.4 捕猎者搜索
-
9.4.5 萤火虫算法
-
-
9.5 随机优化方法
-
9.5.1 模拟退火算法
-
9.5.2 杜鹃搜索
-
9.5.3 和声搜索
-
9.5.4 禁忌搜索
-
-
9.6 本章小节
-
9.7 相关资源
-
-
第10章 强化学习
-
10.1 强化学习概述
-
10.1.1 什么是强化学习
-
10.1.2 与其他学习方法的区别
-
10.1.3 强化学习的应用
-
-
10.2 强化学习的基本要素
-
10.2.1 强化学习三元素
-
10.2.2 长期收益
-
10.2.3 值函数与策略优化
-
10.2.4 通用策略迭代
-
10.2.5 强化学习算法分类
-
-
10.3 值函数学习:基于模型的规划算法
-
10.3.1 马尔可夫决策过程
-
10.3.2 MDP中的值函数
-
10.3.3 策略估值:动态规划算法
-
10.3.4 策略优化:策略迭代和值迭代
-
-
10.4 值函数学习:基于采样的蒙特卡罗方法
-
10.4.1 学习任务与采样方法
-
10.4.2 蒙特卡罗策略估值
-
10.4.3 蒙特卡罗策略优化
-
-
10.5 值函数学习:基于采样的时序差分方法
-
10.5.1 基于TD的策略估值
-
10.5.2 基于TD的策略优化
-
10.5.3 N-step TD与TD(λ)
-
10.5.4 三种值函数学习方法总结
-
-
10.6 模型学习
-
10.6.1 值函数学习与模型学习
-
10.6.2 模型学习方法
-
10.6.3 Dyna:混合学习方法
-
-
10.7 函数近似与策略学习
-
10.7.1 值函数近似
-
10.7.2 基于梯度的参数优化
-
10.7.3 基于函数近似的策略学习
-
10.7.4 Actor-Critic方法
-
-
10.8 深度强化学习方法
-
10.8.1 Atari游戏
-
10.8.2 AlphaGo
-
-
10.9 本章小结
-
10.10 相关资源
-
-
第11章 优化方法
-
11.1 函数优化
-
11.1.1 优化问题定义
-
11.1.2 优化问题分类
-
11.1.3 基础定理
-
-
11.2 无约束优化问题
-
11.2.1 线性搜索
-
11.2.2 置信域优化
-
-
11.3 带约束优化问题
-
11.3.1 拉格朗日乘子法
-
11.3.2 对偶问题
-
11.3.3 线性规划
-
11.3.4 二阶规划
-
11.3.5 一般非线性优化
-
-
11.4 本章小结
-
11.5 相关资源
-
- 参考文献
評分與評論
請登入後再留言與評分