113.3
10.0折
原价¥113.3

收藏
正版 集成学习 基础与算法+Python与机器学习实践 决策树集成学习支持向量机与神经网络 2册 机器学习算法教程书 集成学习算法设计
担保交易,安全保证,有问题不解决可申请退款。
商品属性
鼎思图书专营店
鼎思图书专营店
本商品由 鼎思图书专营店 提供技术支持并发货!
进店逛逛

买家常见问题解答(必看)

商品详情
用户评价
交易规则
人工智能与集成学习系列
RMB:43.55 RMB:188.80 RMB:63.00
RMB:54.90 RMB:59.30 RMB:62.00
RMB:55.00 RMB:87.50 RMB:44.50
RMB:45.50 RMB:151.90 RMB:89.90
RMB:39.00 RMB:35.00 RMB:53.60
RMB:105.80 RMB:57.90 RMB:136.90
RMB:31.00 RMB:60.34 RMB:113.30

E2 9787000071006 9787121390777 9787121317200

671314492

本套书分为以下几本,如需购买单本 请点击以下链接


ISBN编号: 9787121390777

书名: 集成学习 基础与算法

作者: 周志华

定价: 89.00元

开本: 16开

是否是套装: 否

出版社名称: 电子工业出版社

出版时间: 2020-08

集成学习方法是一类先进的机器学习方法,这类方法训练多个学习器并将它们结合起来解决一个问题,在实践中获得了巨大成功。全书分为三部分。一部分主要介绍集成学习的背景知识;二部分主要介绍集成学习方法的核心知识,包括Boosting、Bagging、Random Forests等经典算法,平均、投票和Stacking等模型和方法、相关理论分析工作,以及多样性度量和增强方面的进展。三部分介绍集成学习方法的进阶议题,包括集成修剪、聚类集成和集成学习方法在半监督学习、主动学习、代价敏感学习、类别不平衡学习,以及提升可理解性方面的进展。此外,本书还在每章中的“拓展阅读”部分提供了相关的进阶内容。本书适合对集成学习方法感兴趣的研究人员、学生和实践者阅读。

1章 绪 论     1

1.1 基本概念    1

1.2 常用学习算法    3

1.2.1 线性判别分析     3

1.2.2 决策树     4

1.2.3 神经网络   6

1.2.4 朴素贝叶斯      8

1.2.5 k-近邻     9

1.2.6 支持向量机和核方法     9

1.3 评估和对比     12

1.4 集成学习方法    14

1.5 集成学习方法的应用     16

1.6 拓展阅读    19

 

2章Boosting      21

2.1 Boosting 过程    21

2.2 AdaBoost 算法   22

2.3 说明性举例     26

2.4 理论探讨    29

2.4.1 基本分析   29

2.4.2 间隔解释   30

2.4.3 统计视角   32

2.5 多分类问题     35

2.6 容噪能力    37

2.7 拓展阅读    40

 

3章Bagging      43

3.1 两种集成范式    43

3.2 Bagging 算法    44

3.3 说明性举例     45

3.4 理论探讨    48

3.5 随机树集成     52

3.5.1 随机森林   52

3.5.2 随机化谱   55

3.5.3 随机森林用于密度估计    56

3.5.4 随机森林用于异常检测    58

3.6 拓展阅读    60

 

4章结合方法     61

4.1 结合带来的益处   61

4.2 均值法     62

4.2.1 简单平均法      62

4.2.2 加权平均法      63

4.3 投票法     65

4.3.1 对多数投票法       65

4.3.2 相对多数投票法       66

4.3.3 加权投票法      67

4.3.4 软投票法   68

4.3.5 理论探讨   70

4.4 学习结合法     76

4.4.1 Stacking     76

4.4.2 无限集成   78

4.5 其他结合方法    79

4.5.1 代数法     80

4.5.2 行为知识空间法       81

4.5.3 决策模板法      81

4.6 相关方法    82

4.6.1 纠错输出编码法       82

4.6.2 动态分类器选择法      85

4.6.3 混合专家模型     86

4.7 拓展阅读    87

 

5章多样性       91

5.1 集成多样性     91

5.2 误差分解    92

5.2.1 误差-分歧分解     92

5.2.2 偏差-方差-协方差分解    94

5.3 多样性度量     96

5.3.1 成对度量   96

5.3.2 非成对度量      97

5.3.3 小结和可视化     100

5.3.4 多样性度量的局限      101

5.4 信息论多样性    102

5.4.1 信息论和集成     102

5.4.2 交互信息多样性       103

5.4.3 多信息多样性     104

5.4.4 估计方法   105

5.5 多样性增强     106

5.6 拓展阅读    108

 

6章集成修剪     109

6.1 何谓集成修剪    109

6.2 多比全好    110

6.3 修剪方法分类    113

6.4 基于排序的修剪   114

6.5 基于聚类的修剪   117

6.6 基于优化的修剪   117

6.6.1 启发式优化修剪       118

6.6.2 数学规划修剪     118

6.6.3 概率修剪   121

6.7 拓展阅读    122

 

7章聚类集成     125

7.1 聚类      125

7.1.1 聚类方法   125

7.1.2 聚类评估   127

7.1.3 为什么要做聚类集成     129

7.2 聚类集成方法分类      130

7.3 基于相似度的方法      132

7.4 基于图的方法    133

7.5 基于重标记的方法      136

7.6 基于变换的方法   140

7.7 拓展阅读    143

 

8章进阶议题     145

8.1 半监督学习     145

8.1.1 未标记数据的效用      145

8.1.2 半监督学习的集成学习方法     146

8.2 主动学习    151

8.2.1 人为介入的效用       151

8.2.2 基于集成的主动学习     152

8.3 代价敏感学习    153

8.3.1 不均等代价下的学习     153

8.3.2 代价敏感学习的集成方法      154

8.4 类别不平衡学习   158

8.4.1 类别不平衡      158

8.4.2 类别不平衡学习的性能评估     160

8.4.3 类别不平衡学习的集成方法     163

8.5 提升可解释性    166

8.5.1 集成约简   166

8.5.2 规则抽取   167

8.5.3 可视化     168

8.6 未来的研究方向   169

8.7 拓展阅读    171

参考文献        173

索引        203

书名:Python与机器学习实践 决策树集成学习支持向量机与神经网络

定价:69.00元

开 本:16开

纸 张:胶版纸

包 装:平装-胶订

出版时间:2017年06月01日

ISBN:9787121317200

Python与机器学习这一话题是如此的宽广,仅靠一本书自然不可能涵盖到方方面面,甚至即使出一个系列也难能做到这点。单就机器学习而言,其领域就包括但不限于如下:有监督学习(Supervised Learning),无监督学习(Unsupervised Learning)和半监督学习(Semi-Supervised Learning)。而具体的问题又大致可以分两类:分类问题(Classification)和回归问题(Regression)。Python本身带有许多机器学习的三方库,但本书在绝大多数情况下只会用到Numpy这个基础的科学计算库来进行算法代码的实现。这样做的目的是希望读者能够从实现的过程中地理解机器学习算法的细节,以及了解Numpy的各种应用。不过作为补充,本书会在适当的时候应用scikit-learn这个成熟的三方库中的模型。本书适用于想了解传统机器学习算法的学生和从业者,想知道如何实现机器的算法的程序员,以及想了解机器学习的算法能如何进行应用的职员、经理等。

1章 Python与机器学习入门1

1.1 机器学习绪论1

1.1.1 什么是机器学习2

1.1.2 机器学习常用术语3

1.1.3 机器学习的重要性6

1.2 人生苦短,我用Python7

1.2.1 为何选择Python7

1.2.2 Python 在机器学习领域的优势8

1.2.3 Anaconda的安装与使用8

1.3 —个机器学习样例12

1.3.1 获取与处理数据13

1.3.2 选择与训练模型14

1.3.3 评估与可视化结果15

1.4 本章小结17

2章 贝叶斯分类器18

2.1 贝叶斯学派18

2.1.1 贝叶斯学派与频率学派19

2.1.2 贝叶斯决策论19

2.2 参数估计20

2.2.1 极大似然估计(ML估计)21

2.2.2 极大后验概率估计(MAP估计)22

2.3 朴素贝叶斯23

2.3.1 算法陈述与基本架构的搭建23

2.3.2 MultinomialNB的实现与评估31

2.3.3 GaussianNB的实现与评估40

2.3.4 MergedNB的实现与评估43

2.3.5 算法的向量化50

2.4 半朴素贝叶斯与贝叶斯网53

2.4.1 半朴素贝叶斯53

2.4.2 贝叶斯网54

2.5 相关数学理论55

2.5.1 贝叶斯公式与后验概率55

2.5.2 离散型朴素贝叶斯算法56

2.5.3 朴素贝叶斯和贝叶斯决策58

2.6 本章小结59

3章 决策树60

3.1 数据的信息60

3.1.1 信息论简介61

3.1.2 不确定性61

3.1.3 信息的增益65

3.1.4 决策树的生成68

3.1.5 相关的实现77

3.2 过拟合与剪枝92

3.2.1 ID3、C4.5的剪枝算法93

3.2.2 CART剪枝100

3.3 评估与可视化103

3.4 相关数学理论111

3.5 本章小结113

4章 集成学习114

4.1 “集成”的思想114

4.1.1 众擎易举115

4.1.2 Bagging与随ji森林115

4.1.3 PAC框架与Boosting119

4.2 随ji森林算法120

4.3 AdaBoost算法124

4.3.1 AdaBoost算法陈述124

4.3.2 弱模型的选择126

4.3.3 AdaBoost的实现127

4.4 集成模型的性能分析129

4.4.1 随ji数据集上的表现130

4.4.2 异或数据集上的表现131

4.4.3 螺旋数据集上的表现134

4.4.4 蘑菇数据集上的表现136

4.5 AdaBoost算法的解释138

4.6 相关数学理论139

4.6.1 经验分布函数139

4.6.2 AdaBoost与前向分步加法模型140

4.7 本章小结142

5章 支持向量机144

5.1 感知机模型145

5.1.1 线性可分性与感知机策略145

5.1.2 感知机算法148

5.1.3 感知机算法的对偶形式151

5.2 从感知机到支持向量机153

5.2.1 间隔大化与线性SVM154

5.2.2 SVM算法的对偶形式158

5.2.3 SVM的训练161

5.3 从线性到非线性163

5.3.1 核技巧简述163

5.3.2 核技巧的应用166

5.4 多分类与支持向量回归180

5.4.1 一对多方法(One-vs-Rest)180

5.4.2 一对一方法(One-vs-One)181

5.4.3 有向无环图方法(Directed Acyclic Graph Method)181

5.4.4 支持向量回归(Support Vector Regression)182

5.5 相关数学理论183

5.5.1 梯度下降法183

5.5.2 拉格朗日对偶性185

5.6 本章小结187

6章 神经网络188

6.1 从感知机到多层感知机189

6.2 前向传导算法192

6.2.1 算法概述193

6.2.2 激活函数(Activation Function)195

6.2.3 损失函数(Cost Function)199

6.3 反向传播算法200

6.3.1 算法概述200

6.3.2 损失函数的选择202

6.3.3 相关实现205

6.4 特殊的层结构211

6.5 参数的更新214

6.5.1 Vanilla Update217

6.5.2 Momentum Update217

6.5.3 Nesterov Momentum Update219

6.5.4 RMSProp220

6.5.5 Adam221

6.5.6 Factory222

6.6 朴素的网络结构223

6.7 “大数据”下的网络结构227

6.7.1 分批(Batch)的思想228

6.7.2 交叉验证230

6.7.3 进度条231

6.7.4 计时器233

6.8 相关数学理论235

6.8.1 BP算法的推导235

6.8.2 Softmax log-likelihood组合238

6.9 本章小结240

7章 卷积神经网络241

7.1 从NN到CNN242

7.1.1 “视野”的共享242

7.1.2 前向传导算法243

7.1.3 全连接层(Fully Connected Layer)250

7.1.4 池化(Pooling)251

7.2 利用TensorFlow重写NN252

7.2.1 反向传播算法252

7.2.2 重写Layer结构253

7.2.3 实现SubLayer结构255

7.2.4 重写CostLayer结构261

7.2.5 重写网络结构262

7.3 将NN扩展为CNN263

7.3.1 实现卷积层263

7.3.2 实现池化层266

7.3.3 实现CNN中的特殊层结构267

7.3.4 实现LayerFactory268

7.3.5 扩展网络结构270

7.4 CNN的性能272

7.4.1 问题描述272

7.4.2 搭建CNN模型273

7.4.3 模型分析280

7.4.4 应用CNN的方法283

7.4.5 Inception286

7.5 本章小结289

附录A Python入门290

附录B Numpy入门303

附录C TensorFlow入门310

671314492

店铺

客服

购物车
领取优惠
立即购买