新闻中心

什么才是真正的智能座舱?并不只是一机多屏

作者:华一汽车科技    来源:www.itas-hk.com    发布时间:2019-02-20 17:48    阅读:

“ 如何定义智能座舱?前两年更多的讲智能座舱的时候就是在车里面装几块显示屏,这只是数字化的体现。”智能座舱的概念并不在于车子里面是一机多屏,域控制器,电子架构更加集中化,或者多模态的交互方式,这些只是智能座舱的一种表现方式,但都不能真正体现“智能”两个字。
 
智能座舱不只是几块显示屏
 
一、智能座舱“智能”二字如何体现
智能座舱首先是诠释新型人车关系,是无缝、持续学习的过程,是跟AI技术进步同步发展的。
 
第二,智能座舱是把人的生活场景、个性化特征,通过云端和车载的各种传感器信息,融合感知用户的需求。智能座舱必须要理解人到底需要什么,在识别和理解这些需求的时候,车要有一个合适的方式和人发生主动的交互。它必须是主动的帮人思考、解决问题。
 
第三,以一种简化的方式解决人出行当中的行动,通过多模态的交互方式使出行成为愉悦的体验。如果从汽车和IOT、ITS的集成程度,以及车本身的智能度来看的话, 在L3自动驾驶的时候,车的智能度已经可以部分感知到人的需求。
 
到L4自动驾驶的时候,驾乘人员可以有很多的有效时间。不只是从A点到B点,更多的是一个生活场景,是未来的一种移动的生活空间,这里面可以工作、学习,可以去做各种其他的交互或者交流。
 
汽车工业的发展已经历经了130年,从一开始是A点到B点,只是单纯的交通运载工具,这个时候外界的评价标准是百公里加速测试、制动测试、绕桩测试、碰撞测试。到互联网时代更多的是生态和车的融合。
 
未来汽车要具有以下几方面特征才会吸引用户购买,尤其是现在90后逐渐成为购车主力群体:
 
首先,汽车颜值要高,在整个设计过程当中,首先吸引到用户的是外观的设计,包括内饰或者是HMI的设计以及整车的匹配。
 
第二个是智商,反映个体的生物学特征,需要有持续的OTA、驾驶辅助系统、车机性能交互、稳定的操作系统、手势、虹膜控制、语音控制多模的交互方式。
 
第三个是情商,车要懂人,车要理解人的性格特征,感知到人的情绪,更像在出行过程当中的助手或者伙伴的关系,持续的学习人的行为习惯,最终帮人解决问题,提供个性化的服务,做到千人千面。
 
二、汽车感知能力的匮乏
人和车的关系可以简单划分为理性和感性两大维度,现在厂商更多的是关注如何在感性部分来提升用户的体验。
 
感性部分需要理解的第一个问题是车和人之间如何发生交流,第二个是通过V2X技术,和各种场景之间打通,发生交往。第三个是更多的理解人的诉求,更多帮助用户解决诉求,也就是怎么样解决人和车之间深入交流的过程,这是未来几年智能座舱的发展重点。
 
从智能化这个角度考虑,实现智能座舱或者是数字座舱需要哪些基本的技术或者是条件?
 
首先是输入,汽车里面要有内置的传感器感知当前位置汽车的状态、人的状态和环境状态。
 
第二,把内置传感器和座舱传感器IOT融合起来之后,加上外部的信息,比如说天气、目的地状态、路况、驾驶时间、充电桩等等,再叠加到从云端获取的用户个性化信息和个人画像,进行融合之后,把这些信息放到一个类似于知识管理的体系或者知识图谱,由这个知识图谱决定下一步做怎么样的交互。
 
第三个是驾驶者的行为状况,不同的状况可能会推送不同的服务以及一些外部的信息,比如天气信息、POI信息。
 
现在车里缺的是感知能力,汽车要知道用户的状态,需要很强大的感知能力。
 
如果要汽车要监控用户的表情,首先需要的三种技术的融合,第一个是摄像头,通过摄像头判断这个人的6种状态,第二通过声频判断当前说话的属性,第三个通过可穿戴设备感知这个人当前心跳变化、皮肤湿度、体温。把不同传感器搜集的信息,通过归类的传感器融合之后,才能感知到这个人现在到底是热情的状态,冷漠的状态还是愤怒的状态,这也是当前还没有解决的问题。
 
汽车的天然属性是移动,必须要有位置的信息,目前语音是车内交互最方便的一种方式。
 
所有的出行、服务,或者在车里面的车联网服务,最终都需要支付作为闭环,支付也是一个非常关键的点。所有的人的行为、车的行为、支付的行为、习惯等等都需要在云端进行融合,这些都应该由云端把所有的信息进行融合。
 
 

文章转载请保留原文网址:http://www.itas-hk.com/news/cjwt/713.html


上一篇:智慧高速公路悄然落地,5G助推如何发展?

下一篇:5G早已成为焦点,但5G出行真正的样子是啥样?


液晶仪表 返回列表