新闻中心

车载语音的下半场:智能化和情感化

作者:华一汽车科技    来源:www.itas-hk.com    发布时间:2018-12-21 12:17    阅读:

现在在汽车行驶过程中,通过唤醒车载语音助手实现导航、播放音乐、开关车窗等这些的简单操作对用户已经没有多少吸引力了。
 
车载语音
 
或许是受到智能音箱、手机、机器人的语音交互功能带来的人性化、趣味性体验的影响,又或是在自动驾驶、智能汽车风潮的大力推动下,用户从最初对车载语音只要求能听到听懂就好变成希望它能够像真正的人工智能助手一样,不只是一问一答的简单人机对话,而是真正倾听他们的需求,给与情感上的反馈。
 
这样的要求好像对于现在发展还不够健全的车载语音交互来说,有点困难。当我们暂且抛开车载语音交互,单纯谈论语音交互的应用,会发现它其实已经在其他的场景中得到了较为成熟的应用。
 
比如智能家居就是一个很明显的例子,诸如国外的谷歌、亚马逊、苹果,国内的百度、小米等公司他们都可以使用旗下的智能音箱或是在手机端下载APP来实现对家居、电器下达语音指令实现语音控制。
 
一般讨论的语音交互包括三个模块,语音识别ASR(将声音转化为文字)、自然语言处理NLP(机器理解人类表达的意思,并给与反馈)和语音合成TTS(将文字转化为声音)。
 
语音识别对于国内外具有一定技术研发实力和积累的公司已经不是一个紧迫的问题,真正现在困扰供应商和用户的是自然语言处理部分,即语义理解,不仅是识别到用户的语音指令,更重要的是理解用户指令的含义。
 
比如对Siri说,今天下午五点帮我预约XX餐厅,这句话识别起来比较容易,但Siri却无法理解该句话表达的意思,因为它含有语义上的歧义。语音交互其实最终也是消解歧义和模糊的表达,来达到理解对话目的和用途。
 
智能化和情感化的车载语音
车载语音也遵循同样的原理,只是发展困境显然比其他类型终端的语音交互艰难得多。汽车无人驾驶级别的不断递推,也是车载语音交互持续进化的一个过程,它们是一个相辅相成的关系。
 
2000年宝马推出了第一款具有语音识别的汽车,当时这款汽车语音识别能力非常有限,根本无法满足用户车内的交互需求,之后随着人工智能、AI、大数据、深度神经网络的发展,车载语音也实现了一次华丽的蜕变。
 
今年9月份,外媒报道,新梅赛德斯-奔驰A级车的车载语音角将很快可以实现驾驶员与汽车的深度融合,利用本地数据和云端数据解锁更多丰富的场景和功能。例如,当用户饿了,可以向语音助手寻求有关餐厅的建议,包括食物种类、餐厅风格等个性化需求。
 
这其实才是用户对车载语音真正的期待——向智能和情感方向的演进。在这方面科幻电影倒是发挥的淋漓尽致,在电影《Her》中,主人公西奥多爱上了人工智能系统OS1的化身萨曼莎,萨曼莎是基于深度学习算法而形成的,虽然是个虚拟的女友,但她对人类情感的洞察却丝毫不亚于真实的人类,不仅可以精确地捕捉到主人公语言表达的意图,还能分析出当时的情绪状态和变化。
 
对车载语音来说这种智能和情感是如何体现的呢?
 
试想一个场景:在下班开车过程中,对车载语音助手说一句,“XX,下班了来首音乐”,基于对下班这个词的语义理解,它推测出用户现在需要的是舒缓、安神类的歌曲,而不用再次询问用户,播放什么歌曲。减少了无意义的对话,增加了交互和沟通的效率。
 
语音交互是车载人机交互的主入口
人机交互的本质是人与机器的交流,而交流必定是双方之间有互动有反馈,人对机器发出指令,机器也要能在极快的时间内做出回应,这才称得上是优质的人机交互体验。从物理按键、触控、语音交互、手势控制,车内交互方式的更迭与共存是一个体验升级的过程。
 
车载语音能够不断的进化变得越来越懂用户,这与它自身具有优势条件密不可分。车内的交互大部分时间都处于汽车行驶状态下,安全驾驶成为交互的首要考虑选项,这也是为什么在中控屏幕上采用触控而被大家吐槽。
 
因为触控意味着用户需要频繁低头看屏幕来确认自己的操作是否正确,毕竟在中控屏上实现盲操作还是一件挺困难的事情。虽然对于部分经验丰富的老司机来说,使用物理按键能够实现部分功能的盲操作,但绝大多数的普通司机并没有掌握这一项技能。
 
与之相对比,语音控制就成为了车内交互的首选方案。它只需要用户发出语音指令就可以完成相关操作,不用低头、不用动手,全程确保驾驶员的注意力集中在驾驶上。
 
此外,语音交互增加了用户与汽车之间的互动,并且这一互动是具有趣味性和新鲜感的,它能够用更加人性化的方式给予用户反馈,而不是冰冷的机械触感。这也契合了近年来智能座舱的内涵,让汽车从出行工具转变为智能的生活平台。
 
 
 

文章转载请保留原文网址:http://www.itas-hk.com/news/hyzx/686.html


上一篇:HUD抬头显示,让你不做低头族

下一篇:北汽2020年为全系车型配备无人驾驶技术


液晶仪表 返回列表