多模态交互技术:从概念到应用的全面解析
多模态交互技术:从概念到应用的全面解析
多模态交互技术是当前人工智能领域的重要研究方向之一,它通过融合多种感官信息,实现更自然、更智能的人机交互方式。本文将从概念、创新设计到具体应用,为您详细解析多模态交互技术的核心原理和应用场景。
概念
在与智能系统交互的过程中,存在双方相互理解的过程,也就是双方都通过各种通道去表达,然后也都通过各种通道去分析对方的意图。多模态是站在智能系统一方来表达,它更多强调的是智能系统通过多个通道去捕获人和环境的信息,或者通过多个通道去呈现信息。
从多个通道呈现信息并非是个新鲜概念,比如我们的电影就是同时有画面和声音的多通道呈现的。手机反馈要让用户通过视觉、听觉和触觉三个反馈通道去感知,这些也是多通道呈现信息的交互。
多模态创新设计
非接触式交互
非接触式交互(Touchless UI,简称 TUI)顾名思义就是指人不需要去触碰键盘、鼠标或者屏幕,直接通过身体运动、隔空手势、眼动凝视等手段完成与设备的交互。
非接触式交互的技术有很多种,有的需要普通的可见光摄像头,有的是需要感知深度的摄像头,有的是 3D 立体摄像头,有的是利用了毫米波雷达技术的摄像头,还有些是穿戴在人身上的设备,比如手套、手表、护腕等等。技术肯定是不断在演进的,但作用都是殊途同归。
和触屏交互不同,非接触式交互最近几年才在不同场合被热点关注(包括手机、VR/AR、智能驾驶等)。对任何交互而言,它的适用场景都非常重要。
非接触式交互疲劳监测
你在很多科幻电影比如《钢铁侠》中,都会看到隔空手势的设计。
隔空手势有一点被经常忽视掉,就是大猩猩臂效应(大猩猩臂是指人们根本无法在手臂往外展开的姿势下长时间操作,这是灵长类动物身体结构的限制)。如果你的隔空手势需要长时间抬起整个手臂进行,那这就是一种不符合人体工学、效率低并且极容易疲惫的交互手势,并不是一种理想的设计。理想的手势设计应该如操作鼠标一般,不需要大幅度的动作就可以轻松完成任务。比如下图左半部分的动作整个手臂放在椅子扶手上,手的动作稳定,而且运动过程放松,不至于劳累。但是右半部分就不同了,相信人操作一会儿胳膊就会酸了。
手势识别设计受技术的约束
手势识别也分为静态手势识别和动态手势识别,前者技术需求较为简单,但是要求手势交互要有停顿,不能够流畅、自然地识别,后者对摄像头和智能系统图像实时动态捕获精度和分析准确度的要求更高,需要能够识别运动的方向、速度以及加速度。
接下来是肌电信号来实现手势识别。这个需要一些非侵入式的穿戴设备来配合(比如手臂或腿部上戴上带着传感器的绑带或者特殊的手套),这些设备再通过蓝牙方式连接智能系统。肌电信号有其特殊的优点,它不依赖于摄像头,有着最大的移动自由度,也不必在乎遮挡问题。对于设计师而言,手势发挥的空间更大,不过缺点就是需要穿戴在用户身上。
接着是毫米波雷达技术,这种技术完美规避大猩猩手臂的那种大幅度动作交互设计,能够对人体和手势的轻微的动作作出精准的跟踪,已经不仅仅是骨骼绑定的那种粗狂的颗粒度了。设计师可以进行更加细腻的手势设计,比如下图,我们通过搓捏拇指和食指的指腹就能够灵活调整手表的时间了。
多模态多通道
如果我们要在一个严格的意义上来说,非接触式交互其实也只是单类型的模态交互,并不是真正的多模态交互。多通道获取信息不仅仅是指切换不同的通道来获取数据,也指同时从多个通道获取信息,并且能够针对上述信息进行进一步的整合,更加精准地获取用户的意图。比如智能系统通过计算机视觉技术感知到了用户正在盯着屏幕上的某个 App,然后嘴巴说出“打开”就直接打开了这个应用。这个过程其实就是两个通道同时在配合理解用户的意图的过程,这就是多模态交互。
再举一个例子,假设一个电视节目增加字幕,仅仅是把通过录音设备采集到的语音数据通过语音识别算法转换为文字,那这只是一种单模态的场景。但是如果也同时通过图像中的唇语读取技术来修正语音中的干扰及背景噪音,即视频通道的输入加上语音通道的输入进行双重的信息采集,两个一起做校对性的文字转换,这就是多模态交互了。
监测用户是否疲劳驾驶也是一样的。我们通过同时检测用户的生物电信号(比如呼吸和心跳速度)、驾驶行为(比如是否出现驾驶者驾驶状况突变、违规异常,或者突然紧握方向盘等情况),还有用户面部状况的疲劳特征(比如是否闭眼、是否眼神游离、是否眼睑下垂、是否伴随不停瞌睡或者打哈欠的情况),综合判断疲劳状况后再给予针对性的交互输出和应对,这就是多模态交互。
素材来源:
1.https://mp.weixin.qq.com/s/Q_BZgPH5sgPfvZSYojKndQ
2.https://mp.weixin.qq.com/s/NiB79nWKTLXMYUC5oO9j_A