图书目录

目   录

基础篇

第1章  导论  003

1.1  机器学习应用 003

1.2  机器学习框架的设计目标 004

1.3  机器学习框架的基本组成原理 005

1.4  机器学习系统生态 006

1.5  本书结构和读者对象 007

第2章  编程模型 009

2.1  机器学习系统编程模型的演进 009

2.2  机器学习工作流 011

2.2.1  环境配置 011

2.2.2  数据处理 012

2.2.3  模型定义 013

2.2.4  损失函数和优化器 014

2.2.5  训练及保存模型 015

2.2.6  测试和验证 016

2.3  定义深度神经网络 017

2.3.1  以层为核心定义神经网络 017

2.3.2  神经网络层的实现原理 021

2.3.3  自定义神经网络层 022

2.3.4  自定义神经网络模型 023

2.4  C/C++编程接口 024

2.4.1  在Python中调用C/C++函数的原理 025

2.4.2  添加C++编写的自定义算子 025

2.5  机器学习框架的编程范式 030

2.5.1  机器学习框架编程需求 030

2.5.2  机器学习框架编程范式现状 030

2.5.3  函数式编程案例 031

2.6  总结 032

2.7  拓展阅读 032

第3章  计算图  033

3.1  设计背景和作用 033

3.2  计算图的基本构成 034

3.2.1  张量和算子 035

3.2.2  计算依赖 037

3.2.3  控制流 038

3.2.4  基于链式法则计算梯度 041

3.3  计算图的生成 043

3.3.1  静态生成 043

3.3.2  动态生成 046

3.3.3  动态图和静态图生成的比较 048

3.3.4  动态图与静态图的转换和融合 049

3.4  计算图的调度 051

3.4.1  算子调度执行 051

3.4.2  串行与并行 052

3.4.3  数据载入同步与异步机制 053

3.5  总结 054

3.6  拓展阅读 055

进阶篇

第4章  AI 编译器和前端技术 059

4.1  AI编译器设计原理 059

4.2  AI编译器前端技术概述 061

4.3  中间表示 062

4.3.1  中间表示的基本概念 062

4.3.2  中间表示的种类 063

4.3.3  机器学习框架的中间表示 065

4.4  自动微分 072

4.4.1  自动微分的基本概念 072

4.4.2  前向与反向自动微分 074

4.4.3  自动微分的实现 077

4.5  类型系统和静态分析 081

4.5.1  类型系统概述 081

4.5.2  静态分析概述 082

4.6  常见前端编译优化方法 083

4.6.1  前端编译优化简介 083

4.6.2  常见编译优化方法介绍及实现 083

4.7  总结 085

第5章  AI 编译器后端和运行时 086

5.1  概述 086

5.2  计算图优化 088

5.2.1  通用硬件优化 088

5.2.2  特定硬件优化 090

5.3  算子选择 091

5.3.1  算子选择的基础概念 091

5.3.2  算子选择的过程 095

5.4  内存分配 095

5.4.1  Device内存概念 096

5.4.2  内存分配 096

5.4.3  内存复用 098

5.4.4  常见的内存分配优化手段 099

5.5  计算调度与执行 101

5.5.1  单算子调度 101

5.5.2  计算图调度 102

5.5.3  交互式执行 106

5.5.4  下沉式执行 110

5.6  算子编译器 110

5.6.1  算子调度策略 111

5.6.2  子策略组合优化 112

5.6.3  调度空间算法优化 114

5.6.4  芯片指令集适配 115

5.6.5  算子表达能力 116

5.6.6  相关编译优化技术 117

5.7  总结 117

5.8  拓展阅读 118

第6章  硬件加速器  119

6.1  概述 119

6.1.1  硬件加速器设计的意义 119

6.1.2  硬件加速器设计的思路 119

6.2  硬件加速器基本组成原理 120

6.2.1  硬件加速器的架构 120

6.2.2  硬件加速器的存储单元 121

6.2.3  硬件加速器的计算单元 122

6.2.4  DSA芯片架构 124

6.3  加速器基本编程原理 125

6.3.1  硬件加速器的可编程性 125

6.3.2  硬件加速器的多样化编程方法 128

6.4  加速器实践 132

6.4.1  环境 132

6.4.2  广义矩阵乘法的朴素实现 133

6.4.3  提高计算强度 135

6.4.4  使用共享内存缓存复用数据 138

6.4.5  减少寄存器使用 139

6.4.6  隐藏共享内存读取延迟 140

6.4.7  隐藏全局内存读取延迟 141

6.4.8  与cuBLAS对比 142

6.4.9  小结 143

6.5  总结 143

6.6  拓展阅读 144

第7章  数据处理 145

7.1  概述 146

7.1.1  易用性 146

7.1.2  高效性 147

7.1.3  保序性 147

7.2  易用性设计 147

7.2.1  编程抽象与接口 147

7.2.2  自定义算子支持 151

7.3  高效性设计 153

7.3.1  数据读取的高效性 154

7.3.2  数据计算的高效性 157

7.4  保序性设计 162

7.5  单机数据处理性能的扩展 163

7.5.1  基于异构计算的数据预处理 163

7.5.2  基于分布式的数据预处理 165

7.6  总结 166

第8章  模型部署 168

8.1  概述 168

8.2  训练模型到推理模型的转换及优化 169

8.2.1  模型转换 169

8.2.2  算子融合 170

8.2.3  算子替换 172

8.2.4  算子重排 173

8.3  模型压缩 173

8.3.1  量化 174

8.3.2  模型稀疏 176

8.3.3  知识蒸馏 178

8.4  模型推理 179

8.4.1  前处理与后处理 179

8.4.2  并行计算 180

8.4.3  算子优化 181

8.5  模型的安全保护 186

8.5.1  概述 186

8.5.2  模型混淆 186

8.6  总结 188

8.7  拓展阅读 189

第9章  分布式训练 190

9.1  设计概述 190

9.1.1  设计动机 190

9.1.2  系统架构 191

9.1.3  用户益处 192

9.2  实现方法 192

9.2.1  方法分类 192

9.2.2  数据并行 194

9.2.3  模型并行 194

9.2.4  混合并行 197

9.3  流水线并行 197

9.4  机器学习集群架构 198

9.5  集合通信 200

9.5.1  常见集合通信算子 200

9.5.2  基于AllReduce的梯度平均算法 203

9.5.3  集合通信算法性能分析 205

9.5.4  利用集合通信优化模型训练的实践 206

9.5.5  集合通信在数据并行的实践 207

9.5.6  集合通信在混合并行的实践 208

9.6  参数服务器 210

9.6.1  系统架构 210

9.6.2  异步训练 211

9.6.3  数据副本 212

9.7  总结 212

9.8  拓展阅读 213

拓展篇

第10章  联邦学习系统 217

10.1  概述 217

10.1.1  定义 217

10.1.2  应用场景 217

10.1.3  部署场景 218

10.1.4  常用框架 218

10.2  横向联邦学习 219

10.2.1  云云场景中的横向联邦 219

10.2.2  端云场景中的横向联邦 220

10.3  纵向联邦学习 222

10.3.1  纵向联邦架构 222

10.3.2  样本对齐 223

10.3.3  联合训练 224

10.4  隐私加密算法 225

10.4.1  基于LDP算法的安全聚合 226

10.4.2  基于MPC算法的安全聚合 226

10.4.3  基于LDP-SignDS算法的安全聚合 227

10.5  展望 229

10.5.1  异构场景下的联邦学习 229

10.5.2  通信效率提升 230

10.5.3  联邦生态 230

10.6  总结 231

第11章  推荐系统 232

11.1  系统基本组成 232

11.1.1  消息队列 233

11.1.2  特征存储 233

11.1.3  稠密神经网络 234

11.1.4  嵌入表 234

11.1.5  训练服务器 235

11.1.6  参数服务器 235

11.1.7  推理服务器 236

11.2  多阶段推荐系统 236

11.2.1  推荐流水线概述 236

11.2.2  召回 237

11.2.3  排序 239

11.3  模型更新 241

11.3.1  持续更新模型的需求 241

11.3.2  离线更新 242

11.4  案例分析:支持在线模型更新的大型推荐系统 243

11.4.1  系统设计挑战 244

11.4.2  系统架构 245

11.4.3  点对点模型更新传播算法 246

11.4.4  模型更新调度器 247

11.4.5  模型状态管理器 248

11.4.6  小结 249

11.5  总结 249

11.6  扩展阅读 250

第12章  强化学习系统 251

12.1  强化学习介绍 251

12.2  单节点强化学习系统 252

12.3  分布式强化学习系统 255

12.4  多智能体强化学习 257

12.5  多智能体强化学习系统 260

12.6  总结 264

第13章  可解释AI 系统 265

13.1  背景 265

13.2  可解释AI定义 266

13.3  可解释AI算法现状介绍 267

13.3.1  数据驱动的解释 267

13.3.2  知识感知的解释 270

13.4  常见可解释AI系统 272

13.5  案例分析:MindSpore XAI 273

13.5.1  为图片分类场景提供解释 273

13.5.2  为表格数据场景提供解释 275

13.5.3  白盒模型 276

13.6  未来研究方向 277

13.7  总结 277

第14章  机器人系统 278

14.1  机器人系统概述 278

14.1.1  感知系统 279

14.1.2  规划系统 280

14.1.3  控制系统 281

14.1.4  机器人安全 282

14.2  机器人操作系统 283

14.2.1  ROS2节点 285

14.2.2  ROS2主题 285

14.2.3  ROS2服务 286

14.2.4  ROS2参数 286

14.2.5  ROS2动作 286

14.3  案例分析:使用机器人操作系统 287

14.3.1  创建节点 290

14.3.2  读取参数 296

14.3.3  服务端-客户端服务模式 298

14.3.4  客户端 301

14.3.5  动作模式 303

14.3.6  动作客户端 305

14.4  总结 308

参考文献 309