图书目录

目   录

第1章  绪论 1

1.1  多模态信息处理的概念 1

1.2  多模态信息处理的难点 2

1.3  使用深度学习技术的动机 3

1.4  多模态信息处理的基础技术 4

1.4.1  表示技术 4

1.4.2  对齐技术 4

1.4.3  融合技术 5

1.4.4  转换技术 5

1.5  多模态深度学习技术的发展历史 5

1.6  小结 8

1.7  习题 9

第2章  多模态任务 10

2.1  图文跨模态检索 10

2.1.1  数据集 11

2.1.2  评测指标 12

2.2  图像描述 13

2.2.1  数据集 14

2.2.2  评测指标 14

2.3  视觉问答 19

2.3.1  数据集 20

2.3.2  评测指标 23

2.4  文本生成图像 23

2.4.1  数据集 24

2.4.2  评测指标 25

2.5  指称表达 27

2.5.1  数据集 29

2.5.2  评测指标 30

2.6  小结 31

2.7  习题 31

第3章  文本表示 32

3.1  基于词嵌入的静态词表示 33

3.1.1  Word2vec 33

3.1.2  GloVe 35

3.2  基于循环神经网络的动态词表示 36

3.2.1  循环神经网络基础 36

3.2.2  现代循环神经网络 37

3.2.3  动态词表示和整体表示 40

3.3  基于注意力的预训练语言模型表示 42

3.3.1  自注意力 43

3.3.2  transformer编码器 46

3.3.3  BERT 47

3.3.4  BERT词表示和整体表示 49

3.4  小结 50

3.5  习题 50

第4章  图像表示 51

4.1  基于卷积神经网络的整体表示和网格表示 53

4.1.1  卷积神经网络基础 53

4.1.2  现代卷积神经网络 54

4.1.3  整体表示和网格表示 55

4.2  基于目标检测模型的区域表示 57

4.2.1  基于深度学习的目标检测基础 57

4.2.2  区域表示 58

4.3  基于视觉transformer的整体表示和块表示 59

4.3.1  使用自注意力代替卷积 59

4.3.2  视觉transformer 60

4.3.3  整体表示和块表示 61

4.4  基于自编码器的压缩表示 62

4.4.1  量化自编码器:VQ-VAE 62

4.4.2  量化生成对抗网络:VQGAN 64

4.4.3  变分生成对抗网络:KLGAN 67

4.4.4  压缩表示 67

4.5  小结 68

4.6  习题 68

第5章  多模态表示 69

5.1  共享表示 71

5.1.1  多模态深度自编码器 72

5.1.2  多模态深度生成模型 73

5.2  对应表示 79

5.2.1  基于重构损失的方法 80

5.2.2  基于排序损失的方法 81

5.2.3  基于对抗损失的方法 84

5.3  实战案例:基于对应表示的跨模态检索 85

5.3.1  跨模态检索技术简介 85

5.3.2  模型训练流程 86

5.3.3  读取数据 87

5.3.4  定义模型 95

5.3.5  定义损失函数 99

5.3.6  选择优化方法 100

5.3.7  评估指标 101

5.3.8  训练模型 103

5.4  小结 107

5.5  习题 107

第6章  多模态对齐 109

6.1  基于注意力的方法 110

6.1.1  交叉注意力 110

6.1.2  基于交叉注意力的图文对齐和相关性计算 112

6.2  基于图神经网络的方法 115

6.2.1  图神经网络基础 115

6.2.2  单模态表示提取 120

6.2.3  单模态图表示学习 120

6.2.4  多模态图对齐 122

6.3  实战案例:基于交叉注意力的跨模态检索 123

6.3.1  读取数据 123

6.3.2  定义模型 129

6.3.3  定义损失函数 131

6.3.4  选择优化方法 137

6.3.5  评估指标 137

6.3.6  训练模型 140

6.4  小结 143

6.5  习题 144

第7章  多模态融合 145

7.1  基于双线性融合的方法 146

7.1.1  多模态低秩双线性池化 147

7.1.2  多模态因子双线性池化 148

7.1.3  多模态Tucker融合 149

7.2  基于注意力的方法 150

7.2.1  基于交叉注意力的基础方法 150

7.2.2  基于多步交叉注意力的方法 151

7.2.3  基于交叉transformer编码器的方法 152

7.3  实战案例:基于MFB的视觉问答 153

7.3.1  视觉问答技术简介 153

7.3.2  读取数据 154

7.3.3  定义模型 165

7.3.4  定义损失函数 170

7.3.5  选择优化方法 170

7.3.6  选择评估指标 171

7.3.7  训练模型 171

7.4  小结 175

7.5  习题 175

第8章  多模态转换 177

8.1  基于编解码框架的方法 178

8.1.1  基于循环神经网络的编解码模型 179

8.1.2  基于注意力的编解码模型 181

8.1.3  基于transformer的编解码模型 183

8.2  基于生成对抗网络的方法 185

8.2.1  基于条件生成对抗网络的基本方法 185

8.2.2  基于多阶段生成网络的方法 187

8.2.3  基于注意力生成网络的方法 191

8.3  实战案例:基于注意力的图像描述 193

8.3.1  图像描述技术简介 193

8.3.2  读取数据 194

8.3.3  定义模型 195

8.3.4  定义损失函数 203

8.3.5  选择优化方法 204

8.3.6  选择评估指标 204

8.3.7  训练模型 206

8.4  小结 209

8.5  习题 210

第9章  多模态预训练 211

9.1  总体框架 211

9.2  预训练数据集 212

9.3  模型结构 213

9.3.1  基于编码器的模型 214

9.3.2  基于编解码框架的模型 215

9.4  预训练任务 216

9.4.1  掩码语言模型 216

9.4.2  掩码视觉模型 216

9.4.3  图像文本匹配 217

9.4.4  跨模态对比学习 217

9.5  下游任务 217

9.5.1  视觉常识推理 217

9.5.2  视觉语言推理 218

9.5.3  视觉蕴含 218

9.6  典型模型 218

9.6.1  基于融合编码器的双流模型:LXMERT 218

9.6.2  基于融合编码器的单流模型:ViLT 220

9.6.3  基于双编码器的模型:CLIP 222

9.6.4  基于编解码框架的模型:OFA 223

9.7  小结 226

9.8  习题 226

参考文献 227