可穿戴计算在个人生活、医疗卫生、国防军事等诸多领域都有广泛的应用需求。虽然可穿戴计算不是一个崭新的研究领域,但是随着近年来在传感器网络、机器学习、大数据、云计算等方面的研究进展,给可穿戴计算的实际应用带来了更丰富的可能性。廉价的传感、存储、计算设备的普及以及高度集成化,已经使以往需要背着沉重的电脑才能进行的可穿戴式体验可以轻松地通过智能眼镜、智能手表、智能手环等灵巧设备,以一种“消失了”的、“无所不在”的形式来实现。同时,高带宽移动通信以及云计算等基础设施也给大量反映真实世界的多媒体数据的传输、分析、挖掘等提供了“透明”的处理方式。可以说,可穿戴计算在硬件水平上已经基本满足了很多实际应用的需要,从而克服软件上的瓶颈成为可穿戴计算在很多领域得以进一步普及的重中之重。其中,如何对可穿戴式传感设备所捕捉的日常行为进行分析和理解是提供用户行为挖掘、个性化服务等诸多应用的前提,即需要借助可穿戴式设备有效提取用户日常生活中的行为语义。
本书以可穿戴式设备采集的传感器数据为主要研究对象,对这些多媒体数据所反映的日常行为语义进行感知及增强,并介绍了研究过程中的主要思路和方法,并针对性地给出了实验评估和演示结果。虽然计算机视觉研究的很多成果都可以用于可穿戴式行为语义的识别,本书在介绍中重点强调了采用可穿戴形式进行长期生活记录的特点和挑战,并针对用户行为对语义分析的影响,从上下文特征分析和利用的角度,沿着从图像层到事件层进行语义处理的路线,介绍了行为识别和增强的方法。如果把传感器媒体数据的处理作为对“物理空间”的理解和利用的话,那么充分利用“信息空间”中的知识,如概念本体和在线知识库等,也是本书的另一特色。
本书所介绍的主题是一个高度学科交叉的领域,并且涉及的多个研究方向如机器学习、计算机视觉、语义网、知识建模等在近几年的发展都异常迅速。由于时间所限,本书在内容设置和撰写的过程中尽可能将相关的研究成果成体系地进行归纳整理,以便读者能对可穿戴式日常行为语义感知及增强方法有全面的了解。