蒋欣,华为诺亚方舟实验室研究员,语音语义实验室主任,负责语音语义领域的技术研究。加入华为前,曾就职于网易有道和百度。博士毕业于北京大学。研究方向包括自然语言处理、机器学习和信息检索,在相关学术会议和期刊上发表过 20 余篇论文。
蒋欣,华为诺亚方舟实验室研究员,语音语义实验室主任,负责语音语义领域的技术研究。加入华为前,曾就职于网易有道和百度。博士毕业于北京大学。研究方向包括自然语言处理、机器学习和信息检索,在相关学术会议和期刊上发表过 20 余篇论文。
在无监督的语料上进行语言模型(如BERT、GPT)的预训练(Pre-Training),并在下游 NLP 任务上微调(fine-tuning),已经成为自然语言处理的新范式。诺亚方舟实验室语音语义团队在预训练语言模型上进行了研究和探索,推出了哪吒(NEZHA)预训练语言模型,包含中文、英文及多语言版本,在多项下游 NLP 任务上达到了 SOTA 效果。此外,由于语言模型的规模较大,无法高效地在线上或端侧设备上使用,我们研发了基于 Transformer 结构的预训练模型压缩技术 TinyBERT,能够将模型大小压缩 7.5 倍,推理速度提升 9.4 倍,并很大程度保持了在下游任务上的精度。 哪吒和 TinyBERT 已经在华为的产品中落地应用,同时我们也开源了代码和模型。
本次演讲将会重点介绍华为诺亚方舟实验室在预训练预言模型及其小型化方面的技术探索,希望可以给大家带来一些启发和思考。
1. 华为诺亚方舟实验室总体介绍
2. 预训练语言模型基础
3. 哪吒预训练模型
4. 预训练模型小型化
5. 总结