AI可解释性(Python语言版)
通过构建XAI的方法论体系,形成一组工具和方法,从而解释ML模型产生的复杂结果,帮助人们理解ML模型。

作者:[意] 列奥尼达·詹法纳(Leonida Gianfagna)、安东尼奥·迪·塞科(Antonio Di Cecco)著 郭涛 译

定价:59.8元

印次:1-4

ISBN:9787302605690

出版日期:2022.08.01

印刷日期:2024.12.25

图书责编:王军

图书分类:零售

电子书
在线购买
分享
内容简介
作者简介
前言序言
资源下载
查看详情 查看详情 查看详情

《AI可解释性(Python语言版)》全面介绍了AI可解释性的概念和可用技术,使机器学习系统更易于解释。书中提出的方法可以应用于几乎所有现有的机器学习模型:线性和逻辑回归、深度学习神经网络、自然语言处理和图像识别等等。 随着机器学习的发展,如今人们越来越多地使用人工智能体来执行以前由人类处理的关键任务(医疗、法律和金融等等)。虽然智能体的设计原则已被理解,但目前的大多数深度学习模型对人类理解而言是“不透明的”。《AI可解释性(Python语言版)》从理论和实践的角度填补了这个新兴主题文献方面的空白,使读者能够快速地使用可解释性AI的工具和代码。

Leonida Gianfagna博士是一位理论物理学家,目前在网络安全领域工作,担任Cyber Guru的研发总监。在加入Cyber Guru之前,他在IBM工作了15年,担任ITSM(IT服务管理)软件开发的领导。Leonida发表了多篇理论物理和计算机科学的论文,被授予IBM发明大师(IBM Master Inventor)。Antonio Di Cecco是一位理论物理学家,拥有强大的数学背景。他完全致力于提供从入门到专家等不同层次的线上或线下AIML教育,使用深入挖掘AIML模型的数学基础的教育方法,并打开了新的角度来展示AIML知识和现有技术的改进空间。Antonio还拥有专注于创新和教学经验的经济学硕士学位。他还是一家意大利人工智能学院的领导,该学院在罗马和佩斯卡拉都有分支机构。译者:郭涛,主要从事模式识别与人工智能、智能机器人、软件工程、地理人工智能(GeoAI)和时空大数据挖掘与分析等前沿交叉技术的研究。翻译出版了《复杂性思考:复杂性科学与计算模型(第2版)》《神经网络设计与实现》和《概率图模型及计算机视觉应用》等畅销书。

暂无课件

暂无样章

暂无网络资源

扫描二维码
下载APP了解更多

目录
荐语
查看详情 查看详情
目    录

第1章 前景   1

1.1  AI可解释性示例   2

1.1.1  学习阶段   3

1.1.2  知识发现   4

1.1.3  可靠性和鲁棒性   5

1.1.4  三个示例的启示   5

1.2  ML和XAI   6

1.2.1  ML分类法   8

1.2.2  常见误解   11

1.3  对AI可解释性的需求   12

1.4  可解释性与可理解性:是否为表达相同事物的不同词语   14

1.4.1  从物质世界到人类   15

1.4.2  相关性不是因果性   16

1.4.3  那么可理解性和可解释性的区别是什么   19

1.5  使ML系统具备可解释性   21

1.5.1  XAI工作流程   21

1.5.2  全局视觉   24

1.6  我们真的需要ML模型的可解释性吗   26

1.7  小结   28

参考文献   29

第2章 AI可解释性:需求、机遇和挑战   31

2.1  人工介入   32

2.1.1  半人马座XAI系统   32

2.1.2  从“人工介入”的角度评估XAI   35

2.2  如何使ML模型具备可解释性   37

2.2.1  内在可解释性   41

2.2.2  事后可解释性   44

2.2.3  全局或局部可解释性   46

2.3  解释的性质   49

2.4  小结   51

参考文献   52

第3章 内在可解释性模型   53

3.1  损失函数   54

3.2  线性回归   57

3.3  逻辑...

《AI可解释性(Python语言版)》的出版恰逢其时,通过构建XAI的方法论体系,形成一组工具和方法,从而解释ML模型产生的复杂结果,帮助人们理解ML模型。本书从不可知论、依赖模型方法或内在可解释性构建了人工智能模型方法论,从全局可解释性和局部可解释性两个方面来回答AI“是什么”“为什么以及“如何做”等方面的问题。本书适合人工智能从业者、计算机科学家、统计科学家以及所有对机器学习模型可解释性感兴趣的读者阅读。