基本信息
出版社: 高等教育出版社; 第1版 (2018年8月1日)
平装: 222页
ISBN: 9787040502435
条形码: 9787040502435
ASIN: B07GHZKG3G
内容简介
机器翻译是人工智能,尤其是自然语言处理方向的一个重要研究领域。本书作为该领域的入门书籍,内容上尽可能覆盖机器翻译研究历史上各种主流的研究方法和相关资源。全书分为七章,包括三个主要部分。第一部分(第一、第二章) 主要介绍了机器翻译的历史、研究概况和基础知识,第二部分 (第三、第四章) 详细讨论了统计机器翻译方法的理论和实现,第三部分(第五至七章) 则着重介绍了深度学习在机器翻译研究中应用的最新进展,内容包括深度学习的基础知识和在机器翻译中应用深度学习的不同方法。每章后均附有扩展阅读的内容供想深入研究的读者参考。
本书可以作为高等院校计算机类和电子信息类等相关专业的研究生教材,也可供对机器翻译的研究和进展有兴趣的读者和工程技术人员参考。
目录
前辅文
第一章 绪论
1.1 机器翻译概述
1.1.1 机器翻译定义
1.1.2 机器翻译简史
1.1.3 机器翻译方法
1.1.4 机器翻译分析及展望
1.2 机器翻译的应用
1.2.1 文本翻译
1.2.2 语音翻译
1.2.3 应用扩展
1.3 本书章节总览
参考文献
第二章 机器翻译语料和评测
2.1 机器翻译语料
2.1.1 单语语料
2.1.2 双语语料
2.1.3 语料获取
2.1.4 语料处理
2.2 机器翻译评测
2.2.1 人工评测
2.2.2 自动评测
2.2.3 评测活动
参考文献
第三章 统计机器翻译基础
3.1 统计机器翻译简介
3.1.1 统计机器翻译系统框架
3.1.2 统计机器翻译基本流程
3.2 统计机器翻译建模
3.2.1 噪声-信道模型
3.2.2 对数-线性模型
3.2.3 模型训练方法
3.3 语言模型
3.3.1 n元文法语言模型定义
3.3.2 语言模型的平滑
3.3.3 语言模型的评价指标
3.4 翻译模型
3.4.1 词汇翻译模型
3.4.2 短语翻译模型
3.5 调序模型
3.5.1 基于跳转距离的调序模型
3.5.2 词汇化调序模型
3.5.3 基于句法的调序模型
3.6 扩展阅读
参考文献
第四章 统计机器翻译系统模型
4.1 基于短语的统计机器翻译模型
4.1.1 噪声-信道模型短语翻译模型
4.1.2 对数-线性模型短语翻译模型
4.1.3 解码
4.2 基于形式文法的统计机器翻译模型
4.2.1 基于反向转录文法的统计机器翻译模型
4.2.2 基于层次化短语的统计机器翻译模型
4.3 基于句法的统计机器翻译系统模型
4.3.1 树到串的翻译模型
4.3.2 串到树的翻译模型
4.4 多系统融合
4.4.1 句子级系统融合
4.4.2 短语级系统融合
4.4.3 词级系统融合
4.5 领域自适应
4.5.1 基于数据选择的领域自适应
4.5.2 基于自学习的领域自适应
4.5.3 基于上下文信息的领域自适应
4.6 统计机器翻译开源工具
4.7 扩展阅读
参考文献
第五章 自然语言处理中的深度学习基础
5.1 深度学习基础
5.1.1 简介
5.1.2 感知机
5.1.3 多层感知机
5.1.4 激活函数
5.1.5 反向传播算法
5.2 神经网络学习算法
5.2.1 随机梯度下降算法
5.2.2 基于动量的随机梯度下降算法
5.2.3 AdaGrad算法
5.2.4 RMSProp 算法
5.2.5 AdaDelta算法
5.2.6 Adam算法
5.2.7 不同参数更新方法的比较
5.3 自然语言处理中常用的神经网络模型
5.3.1 前馈神经网络
5.3.2 循环神经网络
5.3.3 长短时记忆网络
5.3.4 深层循环神经网络
5.3.5 卷积神经网络
5.3.6 通用词嵌入
5.4 扩展阅读
5.5 词汇缩写详解
参考文献
第六章 神经机器翻译
6.1 简单的神经网络机器翻译模型
6.2 神经联合模型
6.2.1 从语言模型到联合模型
6.2.2 基于神经网络的联合模型
6.2.3 基于神经网络的联合模型的训练
6.2.4 联合模型解码速度的优化
6.3 基于序列转换的神经机器翻译
6.3.1 编码器-解码器框架
6.3.2 编码器及其构造
6.3.3 其他方式的编码器
6.3.4 解码器及其构造
6.4 注意力模型
6.4.1 基本序列转换模型的困难
6.4.2 注意力网络
6.4.3 匹配函数
6.4.4 局部匹配与全局匹配
6.5 卷积串到串模型
6.5.1 卷积编码器和解码器
6.5.2 多步注意力机制
6.6 完全基于注意力网络的神经翻译模型
6.6.1 基于注意力网络的编码器和解码器
6.6.2 分组(multi-head)注意力网络
6.6.3 位置编码(positional encoding)
6.6.4 自注意力网络性能分析
6.7 参数正则化
6.7.1 L1/L2正则化
6.7.2 maxout和dropout正则化
6.8 神经机器翻译解码
6.8.1 贪心搜索(greedy search)
6.8.2 束搜索(beam search)
6.8.3 集合解码(ensemble decoding)
6.9 神经机器翻译模型的训练
6.10 扩展阅读
6.11 本章小结
参考文献
第七章 前沿课题
7.1 基于句法的神经机器翻译
7.2 并行化训练
7.2.1 数据并行化
7.2.2 模型并行化
7.3 神经机器翻译的快速解码技术
7.3.1 网络预计算
7.3.2 参数的量化
7.3.3 受限词表优化
7.4 注意力模型的改进
7.4.1 覆盖度和能产度
7.4.2 循环注意力网络
7.5 神经机器翻译的可伸缩性
7.5.1 近似softmax函数
7.5.2 未登录词处理
7.5.3 基于词根分解的开放词汇表
7.6 单语数据在神经机器翻译中的应用
7.6.1 独立的神经语言模型
7.6.2 往返翻译(back translation)
7.6.3 联合训练(joint training)
7.6.4 强化学习在神经机器翻译中的应用
7.6.5 生成对抗网络
7.7 扩展阅读
7.8 本章小结
参考文献