商品名称: | 神经机器翻译 | 开本: | 16开 |
作者: | (德)菲利普·科恩|责编:王春华//孙榕舒|译者:张家俊//赵阳//宗成庆 | 页数: | |
定价: | 139 | 出版时间: | 2022-03-01 |
ISBN号: | 9787111701019 | 印刷时间: | 2022-03-01 |
出版社: | 机械工业 | 版次: | 1 |
商品类型: | 图书 | 印次: | 1 |
......
目录:作者寄语<br/>译者序<br/>前言<br/>阅读指南<br/> 部分 绪论<br/>第1章 翻译问题 2<br/>1.1 翻译的目标 2<br/>1.2 歧义性 4<br/>1.2.1 词汇翻译问题 4<br/>1.2.2 短语翻译问题 4<br/>1.2.3 句法翻译问题 5<br/>1.2.4 语义翻译问题 5<br/>1.3 语言学观点 6<br/>1.4 数据视角 9<br/>1.4.1 忠实度 9<br/>1.4.2 流畅度 10<br/>1.4.3 齐普夫定律 11<br/>1.5 实际问题 13<br/>1.5.1 公开的数据 13<br/>1.5.2 评测活动 13<br/>1.5.3 工具集 14<br/>第2章 机器翻译的应用 15<br/>2.1 信息获取 15<br/>2.2 人工辅助翻译 16<br/>2.3 交流 18<br/>2.4 自然语言处理的管道式系统 21<br/>2.5 多模态机器翻译 21<br/>第3章 历史回顾 23<br/>3.1 神经网络 24<br/>3.1.1 生物学启发 24<br/>3.1.2 感知器学习 25<br/>3.1.3 多层网络 25<br/>3.1.4 深度学习 26<br/>3.2 机器翻译 27<br/>3.2.1 密码破译 27<br/>3.2.2 ALPAC报告与后续影响 27<br/>3.2.3 商用系统 28<br/>3.2.4 基于中间语言的翻译系统 28<br/>3.2.5 数据驱动的方法 28<br/>3.2.6 开源的研发环境 29<br/>3.2.7 深入用户 30<br/>3.2.8 神经翻译的兴起 30<br/>第4章 评价方法 32<br/>4.1 基于任务的评价 32<br/>4.1.1 真实世界的任务 33<br/>4.1.2 内容理解 33<br/>4.1.3 译员翻译效率 34<br/>4.2 人工评价 35<br/>4.2.1 忠实度和流畅度 35<br/>4.2.2 排序 37<br/>4.2.3 连续分数 38<br/>4.2.4 众包评价 40<br/>4.2.5 人工译文编辑率 41<br/>4.3 自动评价指标 41<br/>4.3.1 BLEU 42<br/>4.3.2 同义词和形态变体 43<br/>4.3.3 TER 44<br/>4.3.4 characTER 45<br/>4.3.5 自举重采样 45<br/>4.4 指标研究 47<br/>4.4.1 关于评价的争论 47<br/>4.4.2 对评价指标的评价 48<br/>4.4.3 自动评价指标缺点的相关证据 49<br/>4.4.4 新的评价指标 50<br/>第二部分 基础<br/>第5章 神经网络 54<br/>5.1 线性模型 54<br/>5.2 多层网络 55<br/>5.3 非线性模型 56<br/>5.4 推断 57<br/>5.5 反向传播训练 59<br/>5.5.1 输出节点权重 60<br/>5.5.2 隐藏层节点权重 61<br/>5.5.3 公式总结 63<br/>5.5.4 权重 新示例 63<br/>5.5.5 验证集 64<br/>5.6 探索并行处理 65<br/>5.6.1 向量和矩阵运算 65<br/>5.6.2 小批量训练 65<br/>5.7 动手实践:使用Python实现神经网络 66<br/>5.7.1 Numpy库中的数据结构和函数 66<br/>5.7.2 前向计算 67<br/>5.7.3 反向计算 67<br/>5.7.4 链式法则的重复使用 68<br/>5.8 扩展阅读 71<br/>第6章 计算图 72<br/>6.1 用计算图描述神经网络 72<br/>6.2 梯度计算 73<br/>6.3 动手实践:深度学习框架 77<br/>6.3.1 利用PyTorch实现前向和反向计算 77<br/>6.3.2 循环训练 79<br/>6.3.3 批训练 80<br/>6.3.4 优化器 81<br/>第7章 神经语言模型 83<br/>7.1 前馈神经语言模型 83<br/>7.1.1 表征单词 84<br/>7.1.2 神经网络架构 85<br/>7.1.3 训练 86<br/>7.2 词嵌入 86<br/>7.3 噪声对比估计 88<br/>7.4 循环神经语言模型 89<br/>7.5 长短时记忆模型 91<br/>7.6 门控循环单元 93<br/>7.7 深度模型 94<br/>7.8 动手实践:PyTorch中的神经语言模型 96<br/>7.8.1 循环神经网络 96<br/>7.8.2 文本处理 97<br/>7.8.3 循环训练 98<br/>7.8.4 建议 99<br/>7.9 扩展阅读 100<br/>第8章 神经翻译模型 101<br/>8.1 编码器–解码器方法 101<br/>8.2 添加对齐模型 102<br/>8.2.1 编码器 102<br/>8.2.2 解码器 103<br/>8.2.3 注意力机制 104<br/>8.3 训练 106<br/>8.4 深度模型 108<br/>8.4.1 解码器 108<br/>8.4.2 编码器 109<br/>8.5 动手实践:利用PyTorch实现神经翻译模型 110<br/>8.5.1 编码器 111<br/>8.5.2 解码器 111<br/>8.5.3 训练 113<br/>8.6 扩展阅读 115<br/>第9章 解码 116<br/>9.1 柱搜索 116<br/>9.2 集成解码 119<br/>9.2.1 生成候选系统 120<br/>9.2.2 融合系统输出 120<br/>9.3 重排序 121<br/>9.3.1 利用从右到左解码的重排序 121<br/>9.3.2 利用反向模型的重排序 122<br/>9.3.3 增加n-best列表的多样性 122<br/>9.3.4 评分组件的权重学习 123<br/>9.4 优化解码 126<br/>9.5 约束解码 127<br/>9.5.1 XML模式 127<br/>9.5.2 网格搜索 127<br/>9.5.3 强制注意力 128<br/>9.5.4 评价 129<br/>9.6 动手实践:Python中的解码 129<br/>9.6.1 假设 129<br/>9.6.2 柱空间 129<br/>9.6.3 搜索 131<br/>9.6.4 输出 译文 132<br/>9.7 扩展阅读 133<br/>第三部分 提高<br/> 0章 机器学习技巧 138<br/>10.1 机器学习中的问题 138<br/>10.2 确保随机性 140<br/>10.2.1 打乱训练数据 141<br/>10.2.2 权重初始化 141<br/>10.2.3 标签平滑 142<br/>10.3 调整学习率 142<br/>10.3.1 动量项 142<br/>10.3.2 调整每个参数的学习率 143<br/>10.3.3 批梯度 新 144<br/>10.4 避免局部 145<br/>10.4.1 正则化 145<br/>10.4.2 课程学习 145<br/>10.4.3 drop-out法 146<br/>10.5 处理梯度消失和梯度 问题 147<br/>10.5.1 梯度裁剪 147<br/>10.5.2 层归一化 147<br/>10.5.3 捷径连接和高速连接 148<br/>10.5.4 LSTM和梯度消失 149<br/>10.6 句子级优化 150<br/>10.6.1 小风险训练 150<br/>10.6.2 生成对抗训练 151<br/>10.7 扩展阅读 152<br/> 1章 替代架构 155<br/>11.1 神经网络组件 155<br/>11.1.1 前馈层 155<br/>11.1.2 因子分解 156<br/>11.1.3 基本的数学运算 157<br/>11.1.4 循环神经网络 158<br/>11.1.5 卷积神经网络 159<br/>11.2 注意力模型 160<br/>11.2.1 注意力计算 160<br/>11.2.2 多头注意力 161<br/>11.2.3 细粒度注意力 162<br/>11.2.4 自注意力 162<br/>11.3 卷积机器翻译模型 163<br/>11.4 融合注意力机制的卷积神经网络 165<br/>11.4.1 编码器 165<br/>11.4.2 解码器 166<br/>11.4.3 注意力 167<br/>11.5 自注意力:Transformer 167<br/>11.5.1 自注意力层 167<br/>11.5.2 解码器中的注意力 168<br/>11.6 扩展阅读 171<br/> 2章 重温单词 173<br/>12.1 词嵌入 173<br/>12.1.1 潜在语义分析 174<br/>12.1.2 连续词袋模型 175<br/>12.1.3 Skip Gram 176<br/>12.1.4 GloVe 176<br/>12.1.5 ELMo 177<br/>12.1.6 BERT 178<br/>12.2 多语言词嵌入 178<br/>12.2.1 特定语言词嵌入之间的映射 179<br/>12.2.2 语言无关的词嵌入 180<br/>12.2.3 仅使用单语数据 180<br/>12.3 大词汇表 182<br/>12.3.1 低频词的特殊处理 182<br/>12.3.2 字节对编码算法 183<br/>12.3.3 句子片段化算法 184<br/>12.3.4 期望 化训练 185<br/>12.3.5 子词正则化 185<br/>12.4 基于字符的模型 186<br/>12.4.1 字符序列模型 186<br/>12.4.2 基于字符的单词表示模型 186<br/>12.4.3 集成基于字符的模型 188<br/>12.5 扩展阅读 189<br/> 3章 领域自适应 195<br/>13.1 领域 195<br/>13.1.1 语料库之间的差异 196<br/>13.1.2 多领域场景 197<br/>13.1.3 领域内与领域外 198<br/>13.1.4 自适应效应 198<br/>13.1.5 合理的警告 199<br/>13.2 混合模型 199<br/>13.2.1 数据插值 199<br/>13.2.2 模型插值 200<br/>13.2.3 领域感知训练 201<br/>13.2.4 主题模型 202<br/>13.3 欠采样 204<br/>13.3.1 Moore-Lewis:语言模型交叉熵 204<br/>13.3.2 基于覆盖范围的方法 205<br/>13.3.3 样本加权 206<br/>13.4 微调 206<br/>13.4.1 约束 新 207<br/>13.4.2 文档级自适应 208<br/>13.4.3 句子级自适应 209<br/>13.4.4 课程训练 210<br/>13.5 扩展阅读 210<br/> 4章 平行语料库 214<br/>14.1 使用单语数据 215<br/>14.1.1 增加语言模型 215<br/>14.1.2 回译 216<br/>14.1.3 迭代回译 217<br/>14.1.4 往返训练 217<br/>14.2 多种语言对 218<br/>14.2.1 多种输入语言 219<br/>14.2.2 多种输出语言 219<br/>14.2.3 共享模块 220<br/>14.3 训练相关任务 221<br/>14.3.1 预训练词嵌入 221<br/>14.3.2 预训练编码器和解码器 221<br/>14.3.3 多任务训练 222<br/>14.4 扩展阅读 222<br/> 5章 语言学结构 228<br/>15.1 有指导的对齐训练 228<br/>15.2 建模覆盖度 230<br/>15.2.1 在推断过程中约束覆盖度 230<br/>15.2.2 覆盖度模型 231<br/>15.2.3 繁衍率 232<br/>15.2.4 特征工程与机器学习 232<br/>15.3 添加语言学标注 233<br/>15.3.1 输入句子的语言学标注 233<br/>15.3.2 输出句子的语言学标注 234<br/>15.3.3 语言学结构化的模型 235<br/>15.4 扩展阅读 236<br/> 6章 当前挑战 238<br/>16.1 领域不匹配 238<br/>16.2 训练数据规模 240<br/>16.3 稀有词 241<br/>16.4 噪声数据 243<br/>16.4.1 真实世界中的噪声 243<br/>16.4.2 合成噪声 245<br/>16.4.3 噪声对翻译质量的影响 246<br/>16.5 柱搜索 248<br/>16.6 词对齐 250<br/>16.7 扩展阅读 251<br/> 7章 分析与可视化 253<br/>17.1 错误分析 253<br/>17.1.1 神经机器翻译的典型错误 253<br/>17.1.2 语言学错误类型 255<br/>17.1.3 真实世界中的研究案例 256<br/>17.1.4 目标测试集 257<br/>17.1.5 合成语言 259<br/>17.2 可视化 259<br/>17.2.1 词嵌入 260<br/>17.2.2 编码器状态:词义 261<br/>17.2.3 注意力机制 262<br/>17.2.4 多头注意力机制 263<br/>17.2.5 语言模型预测中的记忆 264<br/>17.2.6 解码器状态 266<br/>17.2.7 柱搜索 266<br/>17.3 探测向量表示 267<br/>17.3.1 分类器方法 267<br/>17.3.2 实验发现 268<br/>17.4 分析神经元 269<br/>17.4.1 认知理论 269<br/>17.4.2 个体神经元 269<br/>17.4.3 揭示神经元 271<br/>17.5 追溯模型决策过程 271<br/>17.5.1 层级间相关性传递 271<br/>17.5.2 相关性传递在机器翻译中的应用 273<br/>17.5.3 显著性计算 274<br/>17.6 扩展阅读 275<br/>参考文献 279......
精 彩 页:发货方式
自动:在特色服务中标有自动发货的商品,拍下后,源码类 软件类 商品会在订单详情页显示来自卖家的商品下载链接,点卡类 商品会在订单详情直接显示卡号密码。
手动:未标有自动发货的的商品,付款后,商品卖家会收到平台的手机短信、邮件提醒,卖家会尽快为您发货,如卖家长时间未发货,买家也可通过订单上的QQ或电话主动联系卖家。
退款说明
1、源码类:商品详情(含标题)与实际源码不一致的(例:描述PHP实际为ASP、描述的功能实际缺少、功能不能正常使用等)!有演示站时,与实际源码不一致的(但描述中有"不保证完全一样、可能有少许偏差"类似显著公告的除外);
2、营销推广类:未达到卖家描述标准的;
3、点卡软件类:所售点卡软件无法使用的;
3、发货:手动发货商品,在卖家未发货前就申请了退款的;
4、服务:卖家不提供承诺的售后服务的;(双方提前有商定和描述中有显著声明的除外)
5、其他:如商品或服务有质量方面的硬性常规问题的。未符合详情及卖家承诺的。
注:符合上述任一情况的,均支持退款,但卖家予以积极解决问题则除外。交易中的商品,卖家无法修改描述!
注意事项
1、在付款前,双方在QQ上所商定的内容,也是纠纷评判依据(商定与商品描述冲突时,以商定为准);
2、源码商品,同时有网站演示与商品详情图片演示,且网站演示与商品详情图片演示不一致的,默认按商品详情图片演示作为纠纷评判依据(卖家有特别声明或有额外商定的除外);
3、点卡软件商品,默认按商品详情作为纠纷评判依据(特别声明或有商定除外);
4、营销推广商品,默认按商品详情作为纠纷评判依据(特别声明或有商定除外);
5、在有"正当退款原因和依据"的前提下,写有"一旦售出,概不支持退款"等类似的声明,视为无效声明;
6、虽然交易产生纠纷的几率很小,卖家也肯定会给买家最完善的服务!但请买卖双方尽量保留如聊天记录这样的重要信息,以防产生纠纷时便于送码网快速介入处理。
送码声明
1、送码网作为第三方中介平台,依据双方交易合同(商品描述、交易前商定的内容)来保障交易的安全及买卖双方的权益;
2、非平台线上交易的项目,出现任何后果均与送码网无关;无论卖家以何理由要求线下交易的(如:要求买家支付宝转账付款的,微信转账付款的等),请联系管理举报,本平台将清退卖家处理。
正版 steam 原子之心 Atomic Heart 国区激活码 cd...
steam 英雄连3 国区激活码CDKEY PC游戏正版 Compan...
【骑砍中文站】PC 中文Steam 骑马与砍杀2 霸主 骑砍2 豪华版...
正版 steam 原子之心 Atomic Heart 国区激活码 cd...
M,日朋礼送男友老公创意实人用星人际机器蓝牙音箱走心情节生礼...
PC中文正版Steam 消逝的光芒2 消失的光芒2 Dying Lig...
Steam 女神异闻录5 皇家版 国区激活码CDKey秒发 Perso...
Steam怪物猎人崛起 曙光DLC 激活码cdkey 怪物猎人曙光 M...
steam 只狼 激活码CDKey 只狼影逝二度 Sekiro: Sh...
steam 女神异闻录5皇家版 国区激活码CDKey P5R 女神异闻...