新闻中心

智能座舱的演进与发展趋势

作者:华一汽车科技    来源:www.itas-hk.com    发布时间:2020-08-18 11:51    阅读:

从“电子座舱”到“智能助理”,再到“人机共驾”,直至最终实现“第三生活空间”,智能座舱发展的四个阶段正变得逐渐清晰起来。
 
 
智能座舱
 
阶段1:电子座舱——电子信息系统逐步整合,组成“电子座舱域”,并形成系统分层
 
在这一阶段,为了满足用户对车载交互体验的新需求,车载中控屏正向高清化、大屏化方向发展,原先的其他显示方式也逐步被“显示屏”替代,如仪表、后视镜被高清液晶仪表、流媒体后视镜替代。此外,很多新的显示方案也开始在座舱中普及,如抬头显示(HUD)、增强现实(AR-HUD)等。
 
阶段2:智能助理——生物识别技术应用,催生驾驶员监控系统迭代,增强车辆感知能力;消费者对车辆智能化功能的期望不仅仅局限在自动驾驶与人机交互。
 
比如智能座舱系统通过独立感知层,能够拿到足够的感知数据,例如车内视觉(光学)、语音(声学)以及方向盘、刹车踏板、油门踏板、档位、安全带等底盘和车身数据,利用生物识别技术(车舱内主要是人脸识别、声音识别),来综合判断驾驶员(或其他乘员)的生理状态(人像、脸部特征等)和行为状态(驾驶行为、声音、肢体行为),做到“理解”人。
 
阶段3:人机共驾——语音控制和手势控制技术突破,车内软硬件一体化聚合,实现车辆感知精细化;车辆可在上车-行驶-下车的整个用车周期中,为驾乘人主动提供场景化的服务,实现机器自主/半自主决策。
 
这一阶段关键的驱动因素包括三方面:在电子控制单元(ECU)向域控制器(DCU)的电子架构过度中,车载影音娱乐底层硬件的计算能力快速增强,得以支持一芯多屏;自动驾驶辅助系统(ADAS)的丰富功能增加了驾驶员处理信息的难度,在面临即时性信息处理的需求下,更加需要智能交互与显示;以及AI引擎逐步成熟,大幅提升了智能化体验。
 
阶段4:第三生活空间——未来汽车使用场景将更加丰富化和生活化,基于车辆位置信息,融合信息、娱乐、订餐、互联等功能,为消费者提供更加便捷的体验。
 
而除了前文谈到的近期座舱智能化成为汽车智能化发展的重点外,另外三个值得关注的趋势则包括:车辆视觉感知“由外向内”发展,车内感知需求日趋强烈;触摸屏不是交互的“终点”;多模交互要求整合分散的感知能力,催生出“独立感知层”。
 
智能交互
 
例如得益于触控屏幕材质和技术的显著提升(LCD-OLED)、GPU对复杂图像快速处理能力的提升、声音取代屏幕成为新交互方式等,车内视觉感知能够有效支持座舱多样功能和自动驾驶功能的实现。未来,智能座舱的HMI设计也不会局限于触屏交互,而是结合车外环境、车内视觉、语音识别、AR等多种感知手段的多模交互。车载主芯片之外也有可能建立独立的AI计算,即通过使用单颗性能出众的AI感知芯片,实现车外/车内视觉感知及语音识别等多模感知算法。
 
他强调说,未来十年,车对云的连接、车对车以及车对行人的连接将是汽车行业发展的关键。因此,必须要对车载信息处理、数字座舱和C-V2X领域给予足够的重视,从而能够更好的赋能车对车、车对基础设施、车对云、车对行人之间的连接,并利用移动技术来变革数字仪表盘、信息影音系统、后座娱乐等驾乘体验。
 
NXP
东风启辰T90年度改款车型中融入的“启辰智联3.0PLUS”智能座舱由东风日产技术中心、航盛电子和恩智浦联合开发,整合了车家互联、全时在线导航、全新升级的语音交互、手机远程控车、智能安防系统、全场景账号服务系统、高品质娱乐体验、智能车联服务等八大功能场景,NXP i.MX8 QuadMax处理器平台在其中扮演了重要角色。
 
i.MX 8QuadMax具有安全域分区功能,通过四块呈现独立内容的高清屏幕或4K屏幕提供多显示屏汽车应用,帮助驾驶员优化信息娱乐体验。硬件分区架构和功能,可以在没有管理程序的情况下运行多个操作系统,确保其他eCockpit子系统(包括安全关键型显示器)正常运行。此外,最新的i.MX 8处理器集成了高级安全技术和标准,包括加密引导、椭圆曲线加密和安全密钥存储,并且支持AES、SHE及其他汽车安全标准——全部整合到单个AEC-Q100 3级认证设备中。
 
NXP模拟电子座舱
基于恩智浦i.MX 8QuadMax的模拟电子座舱
 
 

文章转载请保留原文网址:http://www.itas-hk.com/news/yjyb/1220.html


上一篇:要实现汽车的智能座舱,还需要克服哪些困难?

下一篇:从吐槽与赞美中走过来的汽车中控屏,会否受到你的青睐?


液晶仪表 返回列表