图书目录

目录

本书源代码

目录

第1章导论(13min)

1.1基于深度学习的自然语言处理

1.2本书章节脉络

1.3自然语言处理算法流程

1.4小结

第2章Python开发环境配置(35min)

2.1Linux服务器

2.1.1MobaXterm

2.1.2使用MobaXterm连接远程服务器

2.1.3在服务器上安装Python开发环境

2.1.4使用Anaconda国内源

2.1.5pip设定永久阿里云源

2.2Python虚拟环境

2.3PyCharm远程连接服务器

2.4screen任务管理

2.5Docker技术

2.6小结

第3章自然语言处理的发展进程

3.1人工规则与自然语言处理

3.2机器学习与自热语言处理

3.2.1词袋模型

3.2.2ngram

3.2.3频率与逆文档频率

3.3深度学习与自然语言处理

3.4小结

第4章无监督学习的原理与应用(30min)

4.1浅层无监督预训练模型

4.2深层无监督预训练模型

4.2.1BERT

4.2.2SelfAttention Layer原理

4.2.3SelfAttention Layer的内部运算逻辑

4.2.4MultiHead SelfAttention

4.2.5Layer Normalization

4.2.6BERT预训练

4.2.7BERT的微调过程

4.3其他预训练模型

4.3.1RoBERTa

4.3.2ERNIE

4.3.3BERT_WWM

4.3.4ALBERT

4.3.5Electra

4.3.6NEZHA

4.3.7NLP预训练模型对比

4.4自然语言处理四大下游任务

4.4.1句子对分类任务

4.4.2单句子分类任务

4.4.3问答任务

4.4.4单句子标注任务

4.5小结

第5章无监督学习进阶

5.1生成式对抗网络

5.2元学习

5.2.1MetricBased Method

5.2.2ModelBased Method

5.2.3PretrainBased Method

5.3小结

第6章预训练

6.1赛题任务

6.2环境搭建

6.3代码框架

6.4数据分析实践

6.4.1数据预处理

6.4.2预训练任务模型构建与数据生成

6.4.3模型训练

6.5小结

第7章文本分类(45min)

7.1数据分析

7.2环境搭建

7.3代码框架

7.4文本分类实践

7.4.1数据预处理

7.4.2模型构建

7.4.3数据迭代器

7.4.4模型训练

7.4.5模型预测

7.5小结

第8章机器阅读理解(16min)

8.1机器阅读理解的定义

8.1.1完形填空

8.1.2多项选择

8.1.3片段抽取

8.1.4自由回答

8.1.5其他任务

8.2评测方法

8.3研究方法

8.3.1基于规则的方法

8.3.2基于神经网络的方法

8.3.3基于深层语义的图匹配方法

8.4经典结构

8.4.1BiDAF模型

8.4.2QANet模型

8.4.3基于BERT模型的机器阅读理解

8.5多文档机器阅读理解实践

8.5.1疫情政务问答助手

8.5.2信息检索

8.5.3多任务学习

8.5.4实践

8.6小结

第9章命名实体识别(15min)

9.1NER技术的发展现状

9.2命名实体识别的定义

9.3命名实体识别模型

9.3.1预训练模型

9.3.2下接结构

9.3.3条件随机场

9.4命名实体识别实验

9.4.1数据介绍

9.4.2评估指标

9.4.3数据预处理

9.4.4模型构建

9.4.5数据迭代器

9.4.6模型训练

9.4.7模型预测

9.5小结

第10章文本生成(26min)

10.1文本生成的发展现状

10.1.1文本生成模板

10.1.2变分自编码器

10.1.3序列到序列技术

10.2基于预训练模型的文本生成模型

10.3文本生成任务实践

10.3.1数据介绍

10.3.2评估指标

10.3.3模型构建

10.3.4数据迭代器

10.3.5模型训练

10.3.6模型预测

10.4小结

第11章损失函数与模型瘦身

11.1损失函数

11.2常用的损失函数

11.2.1回归

11.2.2分类

11.3损失函数的进阶

11.3.1样本不均衡

11.3.2Focal Loss

11.3.3Dice Loss

11.3.4拒识

11.3.5带噪学习

11.4模型瘦身

11.4.1知识蒸馏

11.4.2模型剪枝

11.5小结