国内首部专注于自然语言生成的作品
清华大学张钹院士亲自作序
*民烈、*斐、朱小燕著作
《现代自然语言生成》已上市!
开年巨献
首印10天已售罄,火热加印中!
“这些年来自然语言生成是一个比较热门的研究领域,没有同行的杰出工作就不可能有本书的出版。感谢张钹院士亲自做序,一连几天把书读完,序言中每个字都是他写的。在他身上再次感受到老一代科学家的敬业和专业精神,实乃我辈楷模。感谢周明、李航、刘兵老师的费心推荐,感谢所有的人。”
——摘自*民烈的朋友圈
近几年随着深度学习的兴起,自然语言处理在许多应用领域取得了长足的进步,如机器翻译、对话系统、自动摘要系统的性能都获得了很大提升。基于现代深度学习框架的自然语言处理模型,在性能上显著地超越了基于规则或传统机器学习的方法。从狭义上说,自然语言处理包括自然语言生成和自然语言理解。自然语言生成(NaturalLanguageGeneration,NLG)是自然语言处理中非常重要和基础的任务,经过几十年的发展,已经成为人工智能和自然语言处理的重要研究领域。由此,《现代自然语言生成》一书应运而生。这也是国内首部专注于自然语言生成的作品。
重磅新书/
*民烈*斐朱小燕著
ISBN-7---4
定价:79.00元
出版日期:年1月
作序推荐
中国科学院院士、清华大学教授
张钹先生亲自作序
联袂力荐
创新工场首席科学家
周明博士
ACL/IEEEFellow
李航博士
ACM/AAAI/IEEEFellow
刘兵教授
联袂力荐
作者简介
*民烈博士清华大学计算机科学与技术系长聘副教授
主要研究兴趣包括人工智能、自然语言处理,尤其是对话系统、语言生成。曾获中国人工智能学会吴文俊人工智能科技进步奖一等奖(排名第一)、中文信息学会汉王青年创新奖,多次在国际主流会议获得最佳或杰出论文奖。研发对话系统平台ConvLab和ConvLab-2,获得NTCIR年组织的短文本对话生成评测冠*。担任神经领域顶级期刊TNNLS(SCI一区,影响因子11)编委,自然语言处理领域顶级期刊TACL执行编辑,多次担任自然语言处理顶级会议ACL、EMNLP的领域主席或资深领域主席。
专家推荐
1
周明
原微软亚洲研究院副院长
国际计算语言学会(ACL)主席
创新工场首席科学家
在AI创作风起云涌的今天,故事、诗歌、散文,甚至代码,都可以由AI自动生成。《现代自然语言生成》无疑是非常及时和重要的一本书,它详细阐述了以神经网络为代表的现代自然语言生成的基本思想、模型和框架,全书由浅入深、浑然一体,强烈推荐读者们阅读和收藏。
2
李航
字节跳动AILabDirector
ACL/IEEEFellow
ACM杰出科学家
深度学习给自然语言处理带来了革命性的变革,尤其体现在语言生成方面。《现代自然语言生成》一书系统全面地介绍了语言生成技术,特别是基于深度学习的语言生成技术。这是一本不可多得的好书,相信对从事自然语言处理工作的人,以及学习自然语言处理知识的人都会有很大帮助。强烈推荐!
3
刘兵
伊利诺伊大学芝加哥分校杰出教授
ACM/AAAI/IEEEFellow
这是一本关于自然语言生成的非常卓越的教材。内容覆盖全面,有深度,并且由浅入深,很容易阅读。每一个与自然语言生成相关的学者和实践者都值得拥有一本。
十大关键词
循环神经网络
Transformer
变分自编码器
生成式对抗网络
序列到序列模型
统计语言模型
神经语言模型
非自回归生成
知识融合
语言生成评价
本书框图
本书特色
本书围绕自然语言文本的概率建模展开。无论是传统的统计语言模型,还是现代神经网络语言模型,都可以归结到一个基本问题,即给定上文如何预测下文。传统的统计语言模型采用符号化的条件概率表,并利用共现次数直接估计条件概率。在基于神经网络的模型中,条件概率通过一个参数化模型来表达。模型容量越大,数据越多,这种参数化模型的优势体现得越明显。从统计语言建模到神经语言建模的发展过程实际是从语言文字的符号表示到向量表示的转变过程。静态词向量、语境化语言表示的建模思路深刻地改变了传统语言表示的计算范式,但其背后恒久不变的思想依然是分布假设:出现在相似上下文中的词是相似的。
本书围绕文本的“条件概率建模”这条主线,从基础模型、优化方法、生成方式、生成机制等多个层面进行介绍。在基础模型方面,介绍了目前主流的循环神经网络和Transformer两类模型,并从模型结构、注意力机制等角度分析了两者的区别与联系。在优化方法方面,介绍了变分自编码器中变分优化和生成式对抗网络中的对抗优化方法。在生成方式方面,除了经典的自回归语言生成方式,还介绍了前沿的非自回归生成方式,为文本生成提供了一种新的视角。在生成机制方面,介绍了语言生成中重要的规划机制和知识融入机制,并介绍了具体应用案例。最后系统地整理了语言生成的评价方法,从语言生成到语言评价形成了一个闭环。
本书目录
向上滑动阅览
第1章自然语言生成的研究背景1.1自然语言生成的背景概述1.2基本定义与研究范畴1.3自然语言生成与自然语言理解.1.4传统的模块化生成框架1.5端到端的自然语言生成框架1.6典型的自然语言生成任务1.7自然语言生成的可控性1.8本书结构第2章从统计语言模型到神经网络语言建模2.1统计语言模型2.2神经网络语言模型2.3静态词向量模型2.4语境化语言表示模型2.5本章小结第3章基于RNN的语言生成模型3.1RNN的基本原理3.2RNN的训练算法3.3长短期记忆神经网络与门控循环单元3.4RNN的架构设计3.5基于RNN的语言模型3.6序列到序列模型3.7解码器的解码方法3.8序列到序列模型存在的问题3.9本章小结第4章基于Transformer的语言生成模型4.1Transformer模型的基本原理4.2基于Transformer的编码器—解码器结构4.3Transformer模型与RNN模型的比较4.4Transformer模型问题与解决方案4.5基于Transformer的预训练语言生成模型4.6本章小结第5章基于变分自编码器的语言生成模型5.1自编码器5.2变分自编码器5.3条件变分自编码器5.4解码器设计5.5变分自编码器在语言生成任务上的应用实例5.6主要问题及解决方案5.7本章小结第6章基于生成式对抗网络的语言生成模型6.1生成式对抗网络的背景6.2生成式对抗网络的基本原理6.3生成式对抗网络的基本结构6.4生成式对抗网络的优化问题6.5生成式对抗模型在文本与图像中的区别6.6生成式对抗网络的应用6.7本章小结第7章非自回归语言生成7.1基本原理7.2非自回归模型的挑战7.3非自回归模型的改进7.4应用与拓展7.5本章小结第8章融合规划的自然语言生成8.1数据到文本生成任务中的规划8.2故事生成任务中的规划8.3本章小结第9章融合知识的自然语言生成9.1引入知识的动机9.2引入知识面临的挑战9.3知识的编码与表示9.4融合知识的解码方法9.5应用实例9.6发展趋势9.7本章小结第10章常见的自然语言生成任务和数据资源10.1机器翻译10.2生成式文本摘要10.3意义到文本生成10.4数据到文本生成10.5故事生成10.6对话生成10.7多模态语言生成10.8无约束语言生成10.9本章小结第11章自然语言生成的评价方法11.1语言生成评价的角度11.2人工评价11.3自动评价11.4自动评价与人工评价的结合11.5自动评价与人工评价的统计相关性11.6本章小结第12章自然语言生成的趋势展望12.1现状分析12.2趋势展望参考文献
本书适合谁?
高等院校计算机科学与技术、人工智能、大数据、物联网等相关专业高年级本科生、研究生。
从事自然语言处理研究、应用实践的科研人员和工程技术人员。
本书实拍
点击封面查看图书详情
(各大平台搜索“现代自然语言生成*民烈”均可购买)
长
按
关
注
知否智否
让知识更有价值
预览时标签不可点收录于话题#个上一篇下一篇