• 最后更新 2024-03-16
  • 销量/好评 0 + 评论
  • 交易规则(重要)

动手学强化学习 机器学习实战人工智能深度学习程序设计神经网络前端开发PyTorch框架python编程入门零基础自学书籍人民邮电出版社
本站优惠价
44.90
6.0折 原价:¥75.00
  • 销量
  • 卖家
  • 9+
  • 悦悦图书旗舰店

服务由"悦悦图书旗舰店"发货,并提供售后服务。

    担保交易,安全保证,有问题不解决可申请退款。购买前请询问清楚卖家,以卖家承诺为准! 自动发货商品,随时可以购买,付款后在订单详情下载,零等待。 不同会员等级尊享不同购买折扣。
天猫优惠券

天猫优惠券

已缴纳保证金

该商家已加入保障计划

产品展示

基本信息

图书名称: 动手学强化学习
作者: 张伟楠,沈键,俞勇
定价: 89.90
ISBN号: 9787115584519
出版社: 人民邮电出版社
开本: 16开
装帧: 平装
编辑推荐

内容介绍
本书系统地介绍了强化学习的原理和实现,是一本理论扎实、落地性强的图书。 本书包含3个部分:第一部分为强化学习基础,讲解强化学习的基础概念和表格型强化学习方法;第二部分为强化学习进阶,讨论深度强化学习的思维方式、深度价值函数和深度策略学习方法;第三部分为强化学习前沿,介绍学术界在深度强化学习领域的主要关注方向和前沿算法。同时,本书提供配套的线上代码实践平台,展示源码的编写和运行过程,让读者进一步掌握强化学习算法的运行机制。 本书理论与实践并重,在介绍强化学习理论的同时,辅之以线上代码实践平台,帮助读者通过实践加深对理论的理解。本书适合对强化学习感兴趣的高校学生、教师,以及相关行业的开发和研究人员阅读、实践。
作者介绍
张伟楠,上海交通大学副教授,博士生导师,ACM班机器学习、强化学习课程授课老师,吴文俊人工智能 青年奖、达摩院青橙奖得主,获得中国科协“青年人才托举工程”支持。他的科研领域包括强化学习、数据挖掘、知识图谱、深度学习以及这些技术在 系统、搜索引擎、文本分析等场景中的应用。他在 会议和期刊上发表了100余篇相关领域的学术论文,于2016年在英国伦敦大学学院(UCL)计算机系获得博士学位。 沈键,上海交通大学APEX实验室博士生,师从俞勇教授,研究方向为深度学习、强化学习和教育数据挖掘。在攻读博士期间,他以 作者身份发表机器学习 会议NeurIPS、AAAI论文,参与发表多篇机器学习和数据挖掘 会议(包括ICML、IJCAI、SIGIR、KDD、AISTATS等)论文,并担任多个 会议和SCI学术期刊的审稿人。 俞勇,享受 特殊津贴专家,教学名师,上海交通大学特聘教授,APEX实验室主任,上海交通大学ACM班创始人。俞勇教授曾获得“ 高层次人才特殊支持计划”教学名师、“上海市教学名师奖”“全国师德标兵”“上海交通大学校长奖”和“ 受学生欢迎教师”等荣誉。他于2018年创办了伯禹人工智能学院,在上海交通大学ACM班人工智能专业课程体系的基础上,对AI课程体系进行创新,致力于培养 的AI算法工程师和研究员。
目录
第 一部分 强化学习基础 第 1 章 初探强化学习 2 1.1 简介 2 1.2 什么是强化学习 2 1.3 强化学习的环境 4 1.4 强化学习的目标 4 1.5 强化学习中的数据 5 1.6 强化学习的独特性 6 1.7 小结 6 第 2 章 多臂老虎机问题 7 2.1 简介 7 2.2 问题介绍 7 2.2.1 问题定义 7 2.2.2 形式化描述 8 2.2.3 累积懊悔 8 2.2.4 估计期望奖励 8 2.3 探索与利用的平衡 10 2.4 -贪婪算法 11 2.5 上置信界算法 14 2.6 汤普森采样算法 16 2.7 小结 18 2.8 参考文献 18 第 3 章 马尔可夫决策过程 19 3.1 简介 19 3.2 马尔可夫过程 19 3.2.1 随机过程 19 3.2.2 马尔可夫性质 19 3.2.3 马尔可夫过程 20 3.3 马尔可夫奖励过程 21 3.3.1 回报 21 3.3.2 价值函数 22 3.4 马尔可夫决策过程 24 3.4.1 策略 25 3.4.2 状态价值函数 25 3.4.3 动作价值函数 25 3.4.4 贝尔曼期望方程 25 3.5 蒙特卡洛方法 28 3.6 占用度量 31 3.7 最优策略 32 3.8 小结 33 3.9 参考文献 33 第 4 章 动态规划算法 34 4.1 简介 34 4.2 悬崖漫步环境 34 4.3 策略迭代算法 36 4.3.1 策略评估 36 4.3.2 策略提升 36 4.3.3 策略迭代 37 4.4 价值迭代算法 40 4.5 冰湖环境 42 4.6 小结 45 4.7 扩展阅读:收敛性证明 45 4.7.1 策略迭代 45 4.7.2 价值迭代 45 4.8 参考文献 46 第 5 章 时序差分算法 47 5.1 简介 47 5.2 时序差分 48 5.3 Sarsa 算法 48 5.4 多步 Sarsa 算法 53 5.5 Q-learning 算法 56 5.6 小结 60 5.7 扩展阅读:Q-learning 收敛性证明 61 5.8 参考文献 62 第 6 章 Dyna-Q 算法 63 6.1 简介 63 6.2 Dyna-Q 63 6.3 Dyna-Q 代码实践 64 6.4 小结 69 6.5 参考文献 69 第二部分 强化学习进阶 第 7 章 DQN算法 72 7.1 简介 72 7.2 车杆环境 72 7.3 DQN 73 7.3.1 经验回放 74 7.3.2 目标网络 74 7.4 DQN代码实践 75 7.5 以图像作为输入的DQN算法 79 7.6 小结 80 7.7 参考文献 80 第 8 章 DQN改进算法 81 8.1 简介 81 8.2 Double DQN 81 8.3 Double DQN代码实践 82 8.4 Dueling DQN 88 8.5 Dueling DQN代码实践 90 8.6 小结 93 8.7 扩展阅读:对Q值过高估计的定量分析 93 8.8 参考文献 94 第 9 章 策略梯度算法 95 9.1 简介 95 9.2 策略梯度 95 9.3 REINFORCE 96 9.4 REINFORCE代码实践 97 9.5 小结 100 9.6 扩展阅读:策略梯度证明 100 9.7 参考文献 102 第 10 章 Actor-Critic算法 103 10.1 简介 103 10.2 Actor-Critic 103 10.3 Actor-Critic代码实践 105 10.4 小结 108 10.5 参考文献 108 第 11 章 TRPO算法 109 11.1 简介 109 11.2 策略目标 109 11.3 近似求解 111 11.4 共轭梯度 112 11.5 线性搜索 112 11.6 广义优势估计 113 11.7 TRPO代码实践 114 11.8 小结 122 11.9 参考文献 123 第 12 章 PPO算法 124 12.1 简介 124 12.2 PPO-惩罚 124 12.3 PPO-截断 125 12.4 PPO代码实践 125 12.5 小结 131 12.6 参考文献 132 第 13 章 DDPG算法 133 13.1 简介 133 13.2 DDPG 133 13.3 DDPG代码实践 135 13.4 小结 140 13.5 扩展阅读:确定性策略梯度定理的证明 140 13.6 参考文献 141 第 14 章 SAC算法 142 14.1 简介 142 14.2 最大熵强化学习 142 14.3 Soft策略迭代 143 14.4 SAC 143 14.5 SAC代码实践 145 14.6 小结 154 14.7 参考文献 155 第三部分 强化学习前沿 第 15 章 模仿学习 158 15.1 简介 158 15.2 行为克隆 159 15.3 生成对抗模仿学习 159 15.4 代码实践 160 15.4.1 生成专家数据 160 15.4.2 行为克隆的代码实践 163 15.4.3 生成对抗模仿学习的代码实践 165 15.5 小结 167 15.6 参考文献 168 第 16 章 模型预测控制 169 16.1 简介 169 16.2 打靶法 169 16.2.1 随机打靶法 170 16.2.2 交叉熵方法 170 16.3 PETS算法 171 16.4 PETS算法实践 172 16.5 小结 179 16.6 参考文献 179 第 17 章 基于模型的策略优化 180 17.1 简介 180 17.2 MBPO算法 180 17.3 MBPO代码实践 181 17.4 小结 192 17.5 拓展阅读:MBPO理论分析 192 17.5.1 性能提升的单调性保障 192 17.5.2 模型推演长度 192 17.6 参考文献 193 第 18 章 离线强化学习 194 18.1 简介 194 18.2 批量限制 Q-learning算法 195 18.3 保守 Q-learning算法 197 18.4 CQL代码实践 199 18.5 小结 208 18.6 扩展阅读 208 18.7 参考文献 210 第 19 章 目标导向的强化学习 211 19.1 简介 211 19.2 问题定义 211 19.3 HER算法 212 19.4 HER代码实践 213 19.5 小结 221 19.6 参考文献 221 第 20 章 多智能体强化学习入门 222 20.1 简介 222 20.2 问题建模 223 20.3 多智能体强化学习的基本求解范式 223 20.4 IPPO算法 223 20.5 IPPO代码实践 224 20.6 小结 228 20.7 参考文献 229 第 21 章 多智能体强化学习进阶 230 21.1 简介 230 21.2 MADDPG算法 230 21.3 MADDPG代码实践 232 21.4 小结 240 21.5 参考文献 240 总结与展望 241 总结 241 展望:克服强化学习的落地挑战 241 中英文术语对照表与符号表 244 中英文术语对照表 244 符号表 246
617808850
  • 商品评价
  • 交易规则


  • 发货方式


  • 自动:在特色服务中标有自动发货的商品,拍下后,源码类 软件类 商品会在订单详情页显示来自卖家的商品下载链接,点卡类 商品会在订单详情直接显示卡号密码。

    手动:未标有自动发货的的商品,付款后,商品卖家会收到平台的手机短信、邮件提醒,卖家会尽快为您发货,如卖家长时间未发货,买家也可通过订单上的QQ或电话主动联系卖家。


  • 退款说明


  • 1、源码类:商品详情(含标题)与实际源码不一致的(例:描述PHP实际为ASP、描述的功能实际缺少、功能不能正常使用等)!有演示站时,与实际源码不一致的(但描述中有"不保证完全一样、可能有少许偏差"类似显著公告的除外);

  • 2、营销推广:未达到卖家描述标准的;

    3、点卡软件所售点卡软件无法使用的;

  • 3、发货:手动发货商品,在卖家未发货前就申请了退款的;

    4、服务:卖家不提供承诺的售后服务的;(双方提前有商定和描述中有显著声明的除外)

    5、其他:如商品或服务有质量方面的硬性常规问题的。未符合详情及卖家承诺的。

  • 注:符合上述任一情况的,均支持退款,但卖家予以积极解决问题则除外。交易中的商品,卖家无法修改描述!


  • 注意事项


  • 1、在付款前,双方在QQ上所商定的内容,也是纠纷评判依据(商定与商品描述冲突时,以商定为准);

    2、源码商品,同时有网站演示与商品详情图片演示,且网站演示与商品详情图片演示不一致的,默认按商品详情图片演示作为纠纷评判依据(卖家有特别声明或有额外商定的除外);

  • 3、点卡软件商品,默认按商品详情作为纠纷评判依据(特别声明或有商定除外);

  • 4、营销推广商品,默认按商品详情作为纠纷评判依据(特别声明或有商定除外);

    5、在有"正当退款原因和依据"的前提下,写有"一旦售出,概不支持退款"等类似的声明,视为无效声明;

    6、虽然交易产生纠纷的几率很小,卖家也肯定会给买家最完善的服务!但请买卖双方尽量保留如聊天记录这样的重要信息,以防产生纠纷时便于送码网快速介入处理。


  • 送码声明


  • 1、送码网作为第三方中介平台,依据双方交易合同(商品描述、交易前商定的内容)来保障交易的安全及买卖双方的权益;

  • 2、非平台线上交易的项目,出现任何后果均与送码网无关;无论卖家以何理由要求线下交易的(如:要求买家支付宝转账付款的,微信转账付款的等),请联系管理举报,本平台将清退卖家处理。


热门推荐
浏览记录