首页 行业报告下载文章正文

汽车智能座舱行业发展趋势报告(29页)

行业报告下载 2019-12-03 108 管理员

近年来,汽车行业高速发展的主要驱动力已经由过去供给端的产品和技术驱动逐 步转换为不断提高的客户需求驱动 • 消费者对汽车的认知也逐渐从 “单一的交通工具”向“第三空间”转变,而座舱 则是实现空间塑造的核心载体 • 同时,5G、AI/大数据、人机交互、汽车芯片与操作系统技术的进步将推动智能 座舱未来的发展,甚至引发变革 • 此时各大主机厂、Tier 1与部分异业玩家均将视线聚焦在智能座舱领域,欲提前布 局,占据智能座舱生态圈内的优势领地。传统座舱域是由几个分散子系统或单独模 块组成,每个系统像“孤岛”一般,这种 架构无法支持多屏联动、多屏驾驶等复杂 电子座舱功能,因此催生出座舱域控制器 这种域集中式的计算平台 • 硬件的整合的价值包括 – 成本角度:可以平抑因实现复杂功能而 导致的系统软硬件成本的飙升,甚至能 够一定程度上降低整个座舱域的系统成 本 – 技术角度:整合性方案打通了原来硬件 的分布式架构限制,能够降低系统硬件 和通信架构的设计难度,尤其是能够有 效降低各个分散的控制器之间的通信资 源,此外,计算资源的集中能够帮助系 统进行软硬件分层,形成诸如硬件层、 驱动层、操作系统层、感知层、应用层 等层级。分层产生后,有利于整合系统 资源,推动原汽车的软件架构由“基于 信号的架构”(Signal-Oriented)向“基 于服务的架构”(SOA,ServiceOriented)转变,大大提升复杂功能在车 辆上落地可能性 • 计算资源集中化也会在边缘侧的感知计算 中发生,即由单颗强力AI感知芯片负责车 外视觉、车内视觉、语音识别等需要AI加 速的感知任务。这种硬件层的变化,最终 将促使系统软件层的“独立感知层”的形 成。

独立感知层的形成,使得车辆具备了“感知”人、 “理解”人的能力 智能座舱系统通过独立感知层,能够拿到足够的感知 数据,例如车内视觉(光学)、语音(声学)以及方 向盘、刹车踏板、油门踏板、档位、安全带等底盘和 车身数据,利用生物识别技术(车舱内主要是人脸识 别、声音识别),来综合判断驾驶员(或其他乘员)的 生理状态(人像、脸部特征等)和行为状态(驾驶行 为、声音、肢体行为),做到“理解”人 随后根据具体场景,推送交互请求,如提供咨询信 息,提供车辆状态信息,提供“车对人”主动交 互,降低驾驶员在驾驶过程中“人对车”的交互负 担,改善交互体验。目前车内交互手段,早已从仅有“物理按键交互” (即硬开关),发展至与“触屏交互”(软开 关)、“语音交互”、“手势交互”并存的状态 尤其是随着自动驾驶对车内视觉的感知要求,基于 视觉的驾驶员监控技术在车舱内也更加快速地落 地。而该技术的普及,大大增强了智能汽车的感知 能力,也助推着智能助理的前身 - 多模交互技术在 智能座舱的落地实现 多模交互技术,通过融合“视觉”、“语音”等模 态的感知数据,做到更精准、更智能、更人性化的 交互;基于多模交互,继续优化迭代,最终演化为 车载智能助理。

汽车智能座舱行业发展趋势报告(29页)

文件下载
资源名称:汽车智能座舱行业发展趋势报告(29页)


标签: 汽车|汽车零部件

站点地图   关于我们   意见反馈   免责声明     京ICP备12009579号

分享:

支付宝

微信