405.0
7.6折
原价¥534.0

收藏
人工智能书籍机器视觉网络原理6册 深度学习之图像识别+TensorFlow+python数据挖掘+PyTorch物体检测实战+深度学习之人脸图像处理
担保交易,安全保证,有问题不解决可申请退款。
商品属性
华夏学林图书专营店
华夏学林图书专营店
本商品由 华夏学林图书专营店 提供技术支持并发货!
进店逛逛

买家常见问题解答(必看)

商品详情
用户评价
交易规则

商品参数

 

深度学习之图像识别:核心技术与案例实战 9787111624721 机械工业出版社 79
深度学习之TensorFlow 9787111590057 机械工业出版社 99
PYTHON数据挖掘与机器学习实战 9787111626817 机械工业出版社 79
深度学习之PyTorch物体检测实战 9787111641742 机械工业出版社 89
机器学习算法框架实战:Java和Python实现 9787111659754 机械工业出版社 69
深度学习之人脸图像处理:核心算法与案例实战 9787111660255 机械工业出版社 119

内容简介

 

深度学习之图像识别:核心技术与案例实战

 

本书全面介绍了深度学习在图像处理领域中的核心技术与应用。书中不但重视基础理论的讲解,而且从第4章开始的每章都提供了一到两个不同难度的案例供读者实践,读者可以在已有代码的基础上进行修改和改进,从而加深对所学知识的理解。

本书共10章,首先从深度学习的基础概念开始,介绍了神经网络的基础知识和深度学习中的优化技术;然后系统地介绍了深度学习中与数据相关的知识,包括经典数据集的设计、数据集的增强以及数据的获取与整理;接着重点针对图像开发领域,用3章内容系统地介绍了深度学习在图像分类、图像分割和目标检测3个领域的核心技术与应用,这些内容的讲解均结合实战案例展开;另外,还对深度学习中损失函数的发展、数据和模型的可视化以及模型的压缩和优化进行了详细介绍,为读者设计和训练更加实用的模型提供了指导;最后以微信小程序平台为依托,介绍了微信小程序前后端开发技术,完成了深度学习的模型部署,让本书的内容形成了一个完整的闭环。

本书理论与实践结合,深度与广度兼具,特别适合深度学习领域的相关技术人员与爱好者阅读,尤其适合基于深度学习的图像从业人员阅读,以全方位了解深度学习在图像领域中的技术全貌。另外,本书还适合作为相关培训机构的深度学习教材使用。

 

深度学习之TensorFlow

 

本书采用“理论+实践”的形式编写,通过大量的实例(共96个),全面而深入地讲解了深度学习神经网络原理和TensorFlow使用方法两方面的内容。书中的实例具有很强的实用性,如对图片分类、制作一个简单的聊天机器人、进行图像识别等。书中每章都配有一段教学视频,视频和图书的重点内容对应,能帮助读者快速地掌握该章的重点内容。本书还免费提供了所有实例的源代码及数据样本,这不仅方便了读者学习,而且也能为读者以后的工作提供便利。

本书共12章,分为3篇。第1篇深度学习与TensorFlow基础,包括快速了解人工智能与TensorFlow、搭建开发环境、TensorFlow基本开发步骤、TensorFlow编程基础、识别图中模糊的手写数字等内容;第2篇深度学习基础——神经网络,介绍了神经网络的基础模型,包括单个神经元、多层神经网络、卷积神经网络、循环神经网络、自编码网络等内容;第3篇深度学习进阶,是对基础网络模型的灵活运用与自由组合,是对前面知识的综合及拔高,包括深度神经网络和对抗神经网络两章内容。

本书结构清晰,案例丰富,通俗易懂,实用性强,特别适合TensorFlow深度学习的初学者和进阶读者作为自学教程阅读。另外,本书也适合作为相关培训学校的教材,以及各大院校相关专业的教学参考书。

30秒极速了解本书精华内容:

1. 深度学习与TensorFlow基础

快速了解人工智能与TensorFlow

搭建开发环境

TensorFlow基本开发步骤——以逻辑回归拟合二维数据为例

TensorFlow编程基础

识别图中模糊的手写数字(实例21)

2. 深度学习基础——神经网络

单个神经元

多层神经网络——解决非线性问题

卷积神经网络——解决参数太多问题

循环神经网络——具有记忆功能的网络

自编码网络——能够自学习样本特征的网络

3. 深度学习进阶

深度神经网络

对抗神经网络(GAN)

 

PYTHON数据挖掘与机器学习实战

 

本书作为数据挖掘和机器学习的读物,基于真实数据集进行案例实战,使用Python数据科学库,从数据预处理开始一步步介绍数据建模和数据挖掘的过程。书中主要介绍了数据挖掘的基础知识、基本工具和实践方法,通过循序渐进地讲解算法,带领读者轻松踏上数据挖掘之旅。本书采用理论与实践相结合的方式,呈现了如何使用逻辑回归进行环境数据检测,如何使用HMM进行中文分词,如何利用卷积神经网络识别雷达剖面图,如何使用循环神经网络构建聊天机器人,如何使用朴素贝叶斯算法进行破产预测,如何使用DCGAN网络进行人脸生成等。本书也涉及神经网络、在线学习、强化学习、深度学习和大数据处理等内容。

本书以人工智能主流编程语言Python 3版作为数据分析与挖掘实战的应用工具,从Pyhton的基础语法开始,陆续介绍了NumPy数值计算、Pandas数据处理、Matplotlib数据可视化、爬虫和Sklearn数据挖掘等内容。全书共涵盖16个常用的数据挖掘算法和机器学习实战项目。通过学习本书内容,读者可以掌握数据分析与挖掘的理论知识及实战技能。

本书内容丰富,讲解由浅入深,特别适合对数据挖掘和机器学习算法感兴趣的读者阅读,也适合需要系统掌握深度学习的开发人员阅读,还适合Python程序员及人工智能领域的开发人员阅读。编程爱好者、高校师生及培训机构的学员也可以将本书作为兴趣读物或教材使用。

 

 

深度学习之PyTorch物体检测实战

机器学习算法框架实战:Java和Python实现

深度学习之人脸图像处理:核心算法与案例实战

目录

 

 

深度学习之图像识别:核心技术与案例实战

 

前言

第1章 神经网络基础1

1.1 神经网络的生物基础与数学模型1

1.1.1 神经元1

1.1.2 感知机2

1.1.3 BP算法6

1.2 卷积神经网络基础10

1.2.1 卷积神经网络的基本结构11

1.2.2 卷积与权值共享13

1.2.3 感受野与池化14

第2章 深度学习优化基础17

2.1 深度学习主流开源框架17

2.1.1 Caffe简介18

2.1.2 TensorFlow简介18

2.1.3 PyTorch简介19

2.1.4 Theano简介20

2.1.5 Keras简介20

2.1.6 MXNet简介21

2.1.7 Chainer简介21

2.2 网络优化参数22

2.2.1 常用激活函数22

2.2.2 参数初始化方法26

2.2.3 最优化方法27

2.2.4 归一化方法31

2.2.5 正则化方法33

第3章 深度学习中的数据36

3.1 深度学习通用数据集的发展36

3.1.1 MNIST数据集36

3.1.2 CIFAR10和CIFAR100数据集37

3.1.3 PASCAL数据集38

3.1.4 ImageNet数据集38

3.1.5 Microsoft COCO数据集39

3.2 常见的计算机视觉任务数据集40

3.2.1 人脸数据集40

3.2.2 自动驾驶数据集52

3.2.3 医学数据集55

3.3 数据增强59

3.3.1 有监督数据增强60

3.3.2 无监督数据增强63

3.4 数据的收集与标注65

3.4.1 数据收集65

3.4.2 数据标注67

3.4.3 数据清洗与整理68

第4章 图像分类70

4.1 图像分类基础70

4.1.1 图像分类问题70

4.1.2 深度学习图像分类发展简史72

4.1.3 评测指标与优化目标75

4.1.4 图像分类的挑战76

4.2 移动端实时表情分类实战77

4.2.1 项目背景78

4.2.2 数据预处理80

4.2.3 项目方案82

4.2.4 模型训练与测试84

4.2.5 项目总结88

4.3 细粒度图像分类实战89

4.3.1 项目背景89

4.3.2 项目方案90

4.3.3 模型训练与测试92

4.3.4 参数调试97

4.3.5 项目总结102

第5章 图像分割103

5.1 传统图像分割方法103

5.1.1 阈值法103

5.1.2 区域生长法与超像素105

5.1.3 图切割105

5.1.4 活动轮廓模型106

5.2 深度学习图像分割109

5.2.1 基本流程110

5.2.2 反卷积110

5.2.3 多尺度与感受野112

5.2.4 CRF方法113

5.2.5 Image Matting与图像融合114

5.3 移动端实时图像分割项目115

5.3.1 项目背景115

5.3.2 项目方案116

5.3.3 模型训练与总结126

5.4 一个实时肖像换背景项目127

5.4.1 项目背景127

5.4.2 项目方案128

5.4.3 模型训练与测试134

5.4.4 项目总结138

第6章 目标检测139

6.1 目标检测基础139

6.1.1 检测窗口选择140

6.1.2 特征提取141

6.1.3 分类器142

6.1.4 V-J人脸检测算法143

6.2 深度学习目标检测方法145

6.2.1 Selective search与R-CNN146

6.2.2 RoI Pooling与SPPNet147

6.2.3 Fast R-CNN与Faster R-CNN149

6.2.4 YOLO方法152

6.2.5 SSD方法154

6.2.6 目标检测中的关键技术155

6.3 实战Faster-R-CNN目标检测157

6.3.1 项目背景157

6.3.2 py-faster-rcnn框架解读157

6.3.3 模型定义与分析170

6.3.4 模型训练与测试180

6.3.5 项目总结183

第7章 数据与模型可视化185

7.1 数据可视化185

7.1.1 低维数据可视化185

7.1.2 高维数据可视化187

7.2 模型可视化190

7.2.1 模型结构可视化190

7.2.2 模型权重可视化198

7.2.3 特征图可视化201

7.3 可视化案例202

7.3.1 项目背景202

7.3.2 数据接口定义204

7.3.3 网络结构定义205

7.3.4 可视化代码添加207

7.3.5 可视化训练指标207

第8章 模型压缩209

8.1 模型压缩方法209

8.1.1 模型设计压缩210

8.1.2 网络剪枝与量化213

8.1.3 张量分解216

8.1.4 模型蒸馏与迁移学习216

8.2 模型压缩实战218

8.2.1 网络分析220

8.2.2 输入尺度和第一层卷积设计224

8.2.3 网络宽度与深度压缩226

8.2.4 弥补通道损失228

8.2.5 总结230

第9章 损失函数231

9.1 分类任务损失231

9.1.1 什么是0-1 loss231

9.1.2 熵与交叉熵loss231

9.1.3 softmax loss及其变种232

9.1.4 KL散度237

9.1.5 Hinge loss简介237

9.1.6 Exponential loss与Logistic loss237

9.1.7 多标签分类任务loss238

9.2 回归任务损失238

9.2.1 L1 loss与L2 loss238

9.2.2 L1 loss与L2 loss的改进239

9.3 常见图像任务与loss使用240

9.3.1 图像基础任务240

9.3.2 风格化与图像复原,超分辨重建240

9.3.3 生成对抗网络241

9.3.4 总结245

第10章 模型部署与上线246

10.1 微信小程序前端开发246

10.1.1 小程序的技术特点与定位246

10.1.2 Web前端基础248

10.1.3 小程序开发工具251

10.1.4 小程序前端目录252

10.1.5 小程序前端开发254

10.2 微信小程序服务端开发260

10.2.1 域名注册与管理260

10.2.2 服务端框架简介261

10.2.3 算法搭建与实现262

10.3 Caffe环境配置264

10.3.1 依赖库安装264

10.3.2 Caffe编译安装266

 

 

深度学习之TensorFlow

 

配套学习资源

前言

第1篇 深度学习与TensorFlow基础

第1章 快速了解人工智能与TensorFlow2

1.1 什么是深度学习2

1.2 TensorFlow是做什么的3

1.3 TensorFlow的特点4

1.4 其他深度学习框架特点及介绍5

1.5 如何通过本书学好深度学习6

1.5.1 深度学习怎么学6

1.5.2 如何学习本书7

第2章 搭建开发环境8

2.1 下载及安装Anaconda开发工具8

2.2 在Windows平台下载及安装TensorFlow11

2.3 GPU版本的安装方法12

2.3.1 安装CUDA软件包12

2.3.2 安装cuDNN库13

2.3.3 测试显卡14

2.4 熟悉Anaconda 3开发工具15

2.4.1 快速了解Spyder16

2.4.2 快速了解Jupyter Notebook18

第3章 TensorFlow基本开发步骤——以逻辑回归拟合二维数据为例19

3.1 实例1:从一组看似混乱的数据中找出y≈2x的规律19

3.1.1 准备数据20

3.1.2 搭建模型21

3.1.3 迭代训练模型23

3.1.4 使用模型25

3.2 模型是如何训练出来的25

3.2.1 模型里的内容及意义25

3.2.2 模型内部的数据流向26

3.3 了解TensorFlow开发的基本步骤27

3.3.1 定义输入节点的方法27

3.3.2 实例2:通过字典类型定义输入节点28

3.3.3 实例3:直接定义输入节点28

3.3.4 定义“学习参数”的变量29

3.3.5 实例4:通过字典类型定义“学习参数”29

3.3.6 定义“运算”29

3.3.7 优化函数,优化目标30

3.3.8 初始化所有变量30

3.3.9 迭代更新参数到最优解31

3.3.10 测试模型31

3.3.11 使用模型31

第4章 TensorFlow编程基础32

4.1 编程模型32

4.1.1 了解模型的运行机制33

4.1.2 实例5:编写hello world程序演示session的使用34

4.1.3 实例6:演示with session的使用35

4.1.4 实例7:演示注入机制35

4.1.5 建立session的其他方法36

4.1.6 实例8:使用注入机制获取节点36

4.1.7 指定GPU运算37

4.1.8 设置GPU使用资源37

4.1.9 保存和载入模型的方法介绍38

4.1.10 实例9:保存/载入线性回归模型38

4.1.11 实例10:分析模型内容,演示模型的其他保存方法40

4.1.12 检查点(Checkpoint)41

4.1.13 实例11:为模型添加保存检查点41

4.1.14 实例12:更简便地保存检查点44

4.1.15 模型操作常用函数总结45

4.1.16 TensorBoard可视化介绍45

4.1.17 实例13:线性回归的TensorBoard可视化46

4.2 TensorFlow基础类型定义及操作函数介绍48

4.2.1 张量及操作49

4.2.2 算术运算函数55

4.2.3 矩阵相关的运算56

4.2.4 复数操作函数58

4.2.5 规约计算59

4.2.6 分割60

4.2.7 序列比较与索引提取61

4.2.8 错误类62

4.3 共享变量62

4.3.1 共享变量用途62

4.3.2 使用get-variable获取变量63

4.3.3 实例14:演示get_variable和Variable的区别63

4.3.4 实例15:在特定的作用域下获取变量65

4.3.5 实例16:共享变量功能的实现66

4.3.6 实例17:初始化共享变量的作用域67

4.3.7 实例18:演示作用域与操作符的受限范围68

4.4 实例19:图的基本操作70

4.4.1 建立图70

4.4.2 获取张量71

4.4.3 获取节点操作72

4.4.4 获取元素列表73

4.4.5 获取对象73

4.4.6 练习题74

4.5 配置分布式TensorFlow74

4.5.1 分布式TensorFlow的角色及原理74

4.5.2 分布部署TensorFlow的具体方法75

4.5.3 实例20:使用TensorFlow实现分布式部署训练75

4.6 动态图(Eager)81

4.7 数据集(tf.data)82

第5章 识别图中模糊的手写数字(实例21)83

5.1 导入图片数据集84

5.1.1 MNIST数据集介绍84

5.1.2 下载并安装MNIST数据集85

5.2 分析图片的特点,定义变量87

5.3 构建模型87

5.3.1 定义学习参数87

5.3.2 定义输出节点88

5.3.3 定义反向传播的结构88

5.4 训练模型并输出中间状态参数89

5.5 测试模型90

5.6 保存模型91

5.7 读取模型92

第2篇 深度学习基础——神经网络

第6章 单个神经元96

6.1 神经元的拟合原理96

6.1.1 正向传播98

6.1.2 反向传播98

6.2 激活函数——加入非线性因素,解决线性模型缺陷99

6.2.1 Sigmoid函数99

6.2.2 Tanh函数100

6.2.3 ReLU函数101

6.2.4 Swish函数103

6.2.5 激活函数总结103

6.3 softmax算法——处理分类问题103

6.3.1 什么是softmax104

6.3.2 softmax原理104

6.3.3 常用的分类函数105

6.4 损失函数——用真实值与预测值的距离来指导模型的收敛方向105

6.4.1 损失函数介绍105

6.4.2 TensorFlow中常见的loss函数106

6.5 softmax算法与损失函数的综合应用108

6.5.1 实例22:交叉熵实验108

6.5.2 实例23:one_hot实验109

6.5.3 实例24:sparse交叉熵的使用110

6.5.4 实例25:计算loss值110

6.5.5 练习题111

6.6 梯度下降——让模型逼近最小偏差111

6.6.1 梯度下降的作用及分类111

6.6.2 TensorFlow中的梯度下降函数112

6.6.3 退化学习率——在训练的速度与精度之间找到平衡113

6.6.4 实例26:退化学习率的用法举例114

6.7 初始化学习参数115

6.8 单个神经元的扩展——Maxout网络116

6.8.1 Maxout介绍116

6.8.2 实例27:用Maxout网络实现MNIST分类117

6.9 练习题118

第7章 多层神经网络——解决非线性问题119

7.1 线性问题与非线性问题119

7.1.1 实例28:用线性单分逻辑回归分析肿瘤是良性还是恶性的119

7.1.2 实例29:用线性逻辑回归处理多分类问题123

7.1.3 认识非线性问题129

7.2 使用隐藏层解决非线性问题130

7.2.1 实例30:使用带隐藏层的神经网络拟合异或操作130

7.2.2 非线性网络的可视化及其意义133

7.2.3 练习题135

7.3 实例31:利用全连接网络将图片进行分类136

7.4 全连接网络训练中的优化技巧137

7.4.1 实例32:利用异或数据集演示过拟合问题138

7.4.2 正则化143

7.4.3 实例33:通过正则化改善过拟合情况144

7.4.4 实例34:通过增大数据集改善过拟合145

7.4.5 练习题146

7.4.6 dropout——训练过程中,将部分神经单元暂时丢弃146

7.4.7 实例35:为异或数据集模型添加dropout147

7.4.8 实例36:基于退化学习率dropout技术来拟合异或数据集149

7.4.9 全连接网络的深浅关系150

7.5 练习题150

第8章 卷积神经网络——解决参数太多问题151

8.1 全连接网络的局限性151

8.2 理解卷积神经网络152

8.3 网络结构153

8.3.1 网络结构描述153

8.3.2 卷积操作155

8.3.3 池化层157

8.4 卷积神经网络的相关函数158

8.4.1 卷积函数tf.nn.conv2d158

8.4.2 padding规则介绍159

8.4.3 实例37:卷积函数的使用160

8.4.4 实例38:使用卷积提取图片的轮廓165

8.4.5 池化函数tf.nn.max_pool(avg_pool)167

8.4.6 实例39:池化函数的使用167

8.5 使用卷积神经网络对图片分类170

8.5.1 CIFAR介绍171

8.5.2 下载CIFAR数据172

8.5.3 实例40:导入并显示CIFAR数据集173

8.5.4 实例41:显示CIFAR数据集的原始图片174

8.5.5 cifar10_input的其他功能176

8.5.6 在TensorFlow中使用queue176

8.5.7 实例42:协调器的用法演示178

8.5.8 实例43:为session中的队列加上协调器179

8.5.9 实例44:建立一个带有全局平均池化层的卷积神经网络180

8.5.10 练习题183

8.6 反卷积神经网络183

8.6.1 反卷积神经网络的应用场景184

8.6.2 反卷积原理184

8.6.3 实例45:演示反卷积的操作185

8.6.4 反池化原理188

8.6.5 实例46:演示反池化的操作189

8.6.6 实例47:演示gradients基本用法192

8.6.7 实例48:使用gradients对多个式子求多变量偏导192

8.6.8 实例49:演示梯度停止的实现193

8.7 实例50:用反卷积技术复原卷积网络各层图像195

8.8 善用函数封装库198

8.8.1 实例51:使用函数封装库重写CIFAR卷积网络198

8.8.2 练习题201

8.9 深度学习的模型训练技巧201

8.9.1 实例52:优化卷积核技术的演示201

8.9.2 实例53:多通道卷积技术的演示202

8.9.3 批量归一化204

8.9.4 实例54:为CIFAR图片分类模型添加BN207

8.9.5 练习题209

第9章 循环神经网络——具有记忆功能的网络210

9.1 了解RNN的工作原理210

9.1.1 了解人的记忆原理210

9.1.2 RNN网络的应用领域212

9.1.3 正向传播过程212

9.1.4 随时间反向传播213

9.2 简单RNN215

9.2.1 实例55:简单循环神经网络实现——裸写一个退位减法器215

9.2.2 实例56:使用RNN网络拟合回声信号序列220

9.3 循环神经网络(RNN)的改进225

9.3.1 LSTM网络介绍225

9.3.2 窥视孔连接(Peephole)228

9.3.3 带有映射输出的STMP230

9.3.4 基于梯度剪辑的cell230

9.3.5 GRU网络介绍230

9.3.6 Bi-RNN网络介绍231

9.3.7 基于神经网络的时序类分类CTC232

9.4 TensorFlow实战RNN233

9.4.1 TensorFlow中的cell类233

9.4.2 通过cell类构建RNN234

9.4.3 实例57:构建单层LSTM网络对MNIST数据集分类239

9.4.4 实例58:构建单层GRU网络对MNIST数据集分类240

9.4.5 实例59:创建动态单层RNN网络对MNIST数据集分类240

9.4.6 实例60:静态多层LSTM对MNIST数据集分类241

9.4.7 实例61:静态多层RNN-LSTM连接GRU对MNIST数据集分类242

9.4.8 实例62:动态多层RNN对MNIST数据集分类242

9.4.9 练习题243

9.4.10 实例63:构建单层动态双向RNN对MNIST数据集分类243

9.4.11 实例64:构建单层静态双向RNN对MNIST数据集分类244

9.4.12 实例65:构建多层双向RNN对MNIST数据集分类246

9.4.13 实例66:构建动态多层双向RNN对MNIST数据集分类247

9.4.14 初始化RNN247

9.4.15 优化RNN248

9.4.16 实例67:在GRUCell中实现LN249

9.4.17 CTC网络的loss——ctc_loss251

9.4.18 CTCdecoder254

9.5 实例68:利用BiRNN实现语音识别255

9.5.1 语音识别背景255

9.5.2 获取并整理样本256

9.5.3 训练模型265

9.5.4 练习题272

9.6 实例69:利用RNN训练语言模型273

9.6.1 准备样本273

9.6.2 构建模型275

9.7 语言模型的系统学习279

9.7.1 统计语言模型279

9.7.2 词向量279

9.7.3 word2vec281

9.7.4 实例70:用CBOW模型训练自己的word2vec283

9.7.5 实例71:使用指定侯选采样本训练word2vec293

9.7.6 练习题296

9.8 处理

 

PYTHON数据挖掘与机器学习实战

 

前言

第1章 机器学习基础1

1.1 机器学习概述2

1.2 机器学习的发展历程2

1.3 机器学习分类3

1.3.1 监督学习3

1.3.2 无监督学习3

1.3.3 强化学习4

1.3.4 深度学习4

1.4 机器学习的应用4

1.5 开发机器学习的步骤7

1.6 Python语言的优势8

1.6.1 可执行伪代码8

1.6.2 Python语言使用广泛8

1.6.3 Python语言特色8

1.6.4 Python语言的缺点9

1.7 Python开发工具介绍9

1.7.1 IDLE简介10

1.7.2 IPython简介11

1.7.3 PyCharm简介11

1.7.4 Jupyter Notebook简介12

1.7.5 Anaconda和Spyder简介13

1.8 本章小结15

第2章 Python语言简介16

2.1 搭建Python开发环境16

2.1.1 安装Anaconda16

2.1.2 安装Spyder18

2.1.3 运行和保存Python程序19

2.2 Python计算与变量19

2.2.1 用Python做简单的计算20

2.2.2 Python的运算符20

2.2.3 Python的变量21

2.3 Python的字符串22

2.4 Python的列表23

2.5 Python的元组25

2.6 Python的字典27

2.7 网络爬虫的发展历史和分类28

2.7.1 网络爬虫的发展历史28

2.7.2 网络爬虫的分类30

2.8 网络爬虫的原理30

2.8.1 理论概述30

2.8.2 爬虫的工作流程31

2.9 爬虫框架介绍36

2.9.1 Scrapy介绍36

2.9.2 XPath介绍39

2.10 网络爬虫的设计与实现40

2.10.1 网络爬虫的总体设计40

2.10.2 具体实现过程40

2.10.3 爬虫结果与分析45

2.11 本章小结49

第3章 回归分析50

3.1 回归分析概述50

3.1.1 基本概念50

3.1.2 可以解决的问题51

3.1.3 回归分析的步骤51

3.2 线性回归51

3.2.1 简单线性回归分析51

3.2.2 多元线性回归分析52

3.2.3 非线性回归数据分析52

3.3 用Python实现一元线性回归53

3.4 用Python实现多元线性回归56

3.4.1 使用pandas读取数据56

3.4.2 分析数据57

3.4.3 线性回归模型58

3.5 基于线性回归的股票预测62

3.5.1 数据获取62

3.5.2 数据预处理63

3.5.3 编码实现64

3.5.4 结果分析65

3.6 逻辑回归66

3.6.1 构造预测函数67

3.6.2 构造损失函数J68

3.6.3 梯度下降法求解最小值69

3.7 基于逻辑回归的环境数据检测71

3.7.1 数据来源71

3.7.2 数据处理72

3.7.3 异常数据分析72

3.7.4 数据预测74

3.8 本章小结76

第4章 决策树与随机森林77

4.1 决策树77

4.1.1 决策树的基本原理77

4.1.2 决策树的分类78

4.1.3 决策树的优缺点81

4.2 使用决策树对鸢尾花分类82

4.2.1 Iris数据集简介82

4.2.2 读取数据83

4.2.3 鸢尾花类别83

4.2.4 数据可视化84

4.2.5 训练和分类85

4.2.6 数据集多类分类86

4.2.7 实验结果86

4.3 随机森林87

4.3.1 随机森林的基本原理87

4.3.2 随机森林的收敛性88

4.3.3 随机森林的OOB估计89

4.3.4 随机森林的随机特征选取89

4.3.5 随机森林的优缺点90

4.4 葡萄酒数据集的随机森林分类91

4.4.1 数据收集91

4.4.2 相关库函数简介92

4.4.3 数据基本分析93

4.4.4 使用随机森林构建模型97

4.4.5 实验结果98

4.5 本章小结99

第5章 支持向量机100

5.1 SVM的工作原理及分类100

5.1.1 支持向量机的原理100

5.1.2 线性可分的支持向量机101

5.1.3 非线性可分的支持向量机102

5.2 核函数103

5.2.1 核函数简介103

5.2.2 几种常见的核函数104

5.2.3 核函数如何处理非线性数据104

5.2.4 如何选择合适的核函数105

5.3 SVR简介106

5.3.1 SVR原理106

5.3.2 SVR模型106

5.4 时间序列曲线预测107

5.4.1 生成训练数据集107

5.4.2 运用不同的核函数进行支持向量回归108

5.4.3 生成测试数据集109

5.4.4 预测并生成图表110

5.4.5 获取预测误差111

5.4.6 创建数据集112

5.4.7 选取最优参数112

5.4.8 预测并生成图表112

5.4.9 获取预测误差113

5.5 本章小结114

第6章 隐马尔可夫模型115

6.1 隐马尔可夫模型简介115

6.1.1 隐马尔可夫模型的概念115

6.1.2 详例描述116

6.1.3 HMM流程117

6.2 Viterbi算法117

6.3 HMM模型用于中文分词119

6.3.1 UI界面119

6.3.2 数据及其编码119

6.3.3 HMM模型121

6.3.4 实验结果122

6.4 本章小结124

第7章 BP神经网络模型125

7.1 背景介绍125

7.2 结构特点126

7.3 网络模型126

7.4 人工神经网络简介127

7.4.1 神经元127

7.4.2 单层神经网络128

7.4.3 双层神经网络129

7.4.4 多层神经网络130

7.5 BP神经网络131

7.6 通过TensorFlow实现BP神经网络132

7.7 本章小结134

第8章 卷积神经网络135

8.1 传统图像识别技术135

8.1.1 图像预处理135

8.1.2 图像特征提取136

8.1.3 图像分类方法136

8.2 卷积神经网络结构简介137

8.2.1 卷积神经网络发展历程137

8.2.2 卷积神经网络结构简介137

8.3 卷积神经网络的结构及原理139

8.3.1 卷积层139

8.3.2 池化层140

8.3.3 激活函数142

8.3.4 全连接层144

8.3.5 反馈运算144

8.4 卷积神经网络的优点146

8.5 雷达剖面图识别模型148

8.5.1 数据准备148

8.5.2 构建模型150

8.6 模型测试分析157

8.6.1 部署基本模块157

8.6.2 创建项目结构157

8.6.3 训练网络158

8.6.4 自动化测试158

8.7 本章小结160

第9章 循环神经网络161

9.1 自然语言处理161

9.1.1 自然语言处理概述161

9.1.2 自然语言处理应用162

9.2 对话系统163

9.2.1 对话系统分类163

9.2.2 聊天机器人分类164

9.3 基于LSTM结构的循环神经网络165

9.3.1 循环神经网络165

9.3.2 通过时间反向传播166

9.3.3 长短期记忆网络(LSTM)169

9.4 Seq2Seq模型172

9.4.1 Encoder-Decoder框架173

9.4.2 Attention机制174

9.5 聊天机器人的程序实现176

9.5.1 准备数据176

9.5.2 创建模型178

9.5.3 训练模型179

9.5.4 测试模型180

9.6 本章小结181

第10章 聚类与集成算法182

10.1 聚类方法简介182

10.1.1 聚类定义183

10.1.2 聚类要求183

10.2 聚类算法184

10.2.1 划分方法184

10.2.2 层次方法184

10.2.3 基于密度的方法184

10.2.4 基于网格的方法185

10.2.5 基于模型的方法185

10.3 K-Means算法185

10.3.1 K-Means算法概述185

10.3.2 K-Means算法流程185

10.3.3 K-Means算法实现186

10.3.4 实验结果及分析188

10.3.5 K-Means算法存在的问题188

10.4 K-Means++算法189

10.4.1 K-Means++的基本思想189

10.4.2 K-Means++的数学描述190

10.4.3 K-Means++算法流程190

10.5 K-Means++的实现191

10.5.1 数据集191

10.5.2 代码实现192

10.5.3 K-Means++实验结果193

10.6 Adaboost集成算法的原理194

10.6.1 Boosting算法的基本原理194

10.6.2 Adaboost算法介绍195

10.6.3 Adaboost分类问题的损失函数优化197

10.6.4 Adaboost二元分类问题的算法流程198

10.6.5 Adaboost回归问题的算法流程199

10.6.6 Adaboost算法的正则化200

10.6.7 Adaboost的优缺点200

10.7 Adaboost算法实现201

10.7.1 数据集处理201

10.7.2 实现过程201

10.7.3 实验结果分析206

10.8 本章小结208

第11章 其他机器学习算法209

11.1 贝叶斯分类器210

11.1.1 概率基础知识210

11.1.2 贝叶斯决策准则211

11.1.3 极大似然估计212

11.2 贝叶斯分类模型213

11.2.1 朴素贝叶斯分类模型213

11.2.2 半朴素贝叶斯分类模型216

11.2.3 贝叶斯网络分类模型217

11.3 朴素贝叶斯分类器在破产预测中的应用219

11.3.1 数据集219

11.3.2 训练多项式朴素贝叶斯模型220

11.4 在线学习222

11.4.1 线性模型的在线学习222

11.4.2 非线性模型的在线学习224

11.5 Bandit在线学习算法225

11.5.1 Bandit算法与推荐系统226

11.5.2 常用Bandit算法226

11.6 Bandit算法原理及实现228

11.7 GAN网络229

11.7.1 GAN产生的背景230

11.7.2 模型结构230

11.7.3 GAN的实现原理232

11.8 DCGAN网络236

11.8.1 模型结构236

11.8.2 反卷积237

11.9 DCGAN人脸生成240

11.9.1 实验准备240

11.9.2 关键模块的实现240

11.9.3 实验结果展示243

11.10 本章小结245

附录A 机器学习常见面试题246

附录B 数学基础257

B.1 常用符号257

B.2 数学基础知识259

B.2.1 线性代数259

B.2.2 概率论261

B.2.3 信息论262

参考文献264

 

神经网络与深度学习实战:Python+Keras+TensorFlow

深度学习之PyTorch物体检测实战

机器学习算法框架实战:Java和Python实现

深度学习之人脸图像处理:核心算法与案例实战

 

 


店铺

客服

购物车
领取优惠
立即购买