为了实现人车新对话形式,国际汽车零部件供应商大陆集团开发出增强现实抬头显示器(AR- HUD)。该增强现实抬头显示器通过内部特殊设计的光学系统将图像信息精确地结合于实际交通路况中,从而扩展了或者说增强了驾驶者对于实际驾驶环境的感 知。 因此, AR-HUD技术极有可能成为汽车人机界面 (HMI) 最具创新性的发展方向。
AR-HUD 现已达到试生产开发的后期阶段。 演示车辆一方面用于证明其可行性,另一方面为批量开发提供宝贵经验。 大陆集团预计在2017年达到批量生产水平。
AR-HUD: 所见即所知
“AR-HUD光学系统能够在驾驶员的视野区域合理的叠加显示驾驶员辅助系统的状态以及这些信 息的含义,”大陆集团车身电子事业部 HUD 技术专家 Pablo Richter 博士说道。 “为此,作为人机界面新成员的 AR-HUD 在试生产阶段就已与驾驶员辅助系统的环境传感器以及GPS数据、地图资料和驾驶动态数据建立密切的网络联系。”
在演示车辆上大陆集团首次示范使用这项新技术的后期研发成果。 所选车辆在前保险杠和后视镜上分别安装有雷达传感器和一个 CMOS 单摄像头。 为 AR-HUD 应用所选择的高级驾驶员辅助系统(ADAS)包括车道偏离警示系统(LDW)、自适应巡航控制系统(ACC)和导航系统路线指示。
“如果驾驶员辅助系统识别到重要情况,AR-HUD会将报警信息以虚拟图像的方式呈递给驾驶 者。” Richter 解释说。 “除了直接带来安全好处外,这种对话形式还是未来自动化驾驶的一项关键技术。 “这种增强的信息显示效果将更容易让驾驶者建立起对于自动驾驶这种新驾驶功能的信任。”
两个不同投影距离的投影面 - 基于两个不同的成像单元
大陆集团的 AR-HUD 可以实现由两个不同投影距离产生的投影面,其也被称为近投影或状态投影面,和远投影或增强投影面。近景投影出现在驾驶员前方的发动机罩末端,能够显示驾驶 员所选的状态信息,如即时速度、有效距离限制如禁止超车和限速、或 ACC 当前设置。 如要查看这些信息,驾驶员只需稍稍将视线下调约 6°。 状态投影信息的视域尺寸为 5°x 1°(相当于 210 mm x 42 mm),投影距离 2.4 m。 其相当于“传统”抬头显示器的虚拟图像,该传统方式的抬头显示器是基于一个反射镜光学系统和成像单元(PGU)。 后者由一个 TFT(薄膜晶体管)显示器组成,使用 LED 强背光显示内容。 此成像单元极其紧凑地集成在 AR- HUD 模块的上部。 这个反射镜光学系统将虚拟显示的内容放大。 这些功能借助曲面反射镜得以实现。 为了实现不同投影距离的两个投影面,大陆集团在 AR-HUD 中采用了精巧的光学设计。 两个投影面的光路在内部微微重叠。 近投影面的光路只使用AR- HUD 镜(非球面)的上缘区域,不需要另外一个“反射镜”。 AR-HUD 系统的这一部分代表了大陆集团第二代 HUD 在量产车辆上的现有技术。
以电影技术增强汽车
“AR-HUD 中的主角当然是增强投影面。 它的投影距离在驾驶员前方 7.5 m,可将增强的显示符号直接投射在道路上,与当前交通状况相融合”,Richter 说。 远投影面的内容是由大陆集团首次在 IAA 2013 展出的新成像单元生成。 与在电影数字投影机中一样,由数字微镜元件(DMD)生成图像元素。 PGU 的核心是一种拥有数十万微小反射镜矩阵的光学半导体,其可借助静电场单独倾斜。 微反射镜矩阵按时间顺序被三色 LED(红色、蓝色和绿色)快速交替照亮。 用带滤色功能的偏转反射镜(即双色滤镜)确保三色光准直(平行方向)。 这些特殊镜子根据颜色让光线通过或反射。 为了与点亮的颜色同步,该颜色的所有微反射镜倾斜,使射入的光线通过透镜反射出去,在后面的成像屏幕上形成该颜色的单个像点。 所有三种颜色的同步方法是相同的。 人眼“综合”成像屏幕上的所有三种颜色,得到全色图像。
从成像屏幕正面看,接下来的光学路径类似于传统的抬头显示器的光学路径: 成像幕上的图像通过第一个镜子(反射镜)反射到第二个更大的镜子(AR HUD 镜)上。 从那里射向风玻璃。 增强光学系统的出射面几乎达到 DIN A4 尺寸。 由此形成视域尺寸为 10°X 4.8°的增强投影面,相当于直接视野内有几何宽度 130 厘米和高度 63 厘米的可增强视域。 如要读取这个远投影面中的信息,驾驶员的视野可稍稍下调 2.4°。 两个投影面(状态和增强投影面)的成像单元能够配合环境亮度调整显示亮度,光密度可达到 10000 坎德拉/平方米以上。 因此,几乎在任何强烈的环境光条件下都能清晰显示。
在试验车中,系统使用大陆集团两个不同投影距离的投影面的 AR-HUD 后,优点也是显而易见的: 在大多数交通情况下,用 7.5 m 远投影面直接在行驶道路上增强内容,而 2.4 m 近投影面则用于显示状态信息。
AR-Creator 融合数据和生成图像
大量模拟实验和大陆集团真人实验表明,增强图像显示出现在车辆前方约 18 到 20 m且根据路线持续大约 100 m时,驾驶员会感到比较舒适。 负责研发 AR-Creator 的 Peter Giegerich 阐述了图像提示的生成原理以及正确放置这些图像提示的方法: “AR-Creator 是一种极具挑战的最新发展方向。 此控制器须对大量数据流进行评估,以使图像元素在成像幕上精确定位,从而准确投影到驾驶员的 AR- HUD 视域中。 其中一些需要进行相当多的运算。”
AR-Creator 将对三个来源的数据进行融合: 单摄像头可用于绘制道路几何形状。 其中包括回旋曲线、车辆前方车道曲率的数学描述。 车辆前方物体的大小、位置和距离来自雷达传感器数据与对照的相机数据组合。 最后,大陆集团的电子地平线(eHorizon) 提供地图框架,将现场传感数据编译其中。 在演示车辆上 eHorizon 仍是静态的,仅仅使用导航数据资料。 大陆集团业的高动态联网eHorizon产品已到达批量生产水平,它可以处理各种来源(车对车、交通控制中心等)的数据并在AR-HUD 上显示。 通过整合行驶动态数据、摄像头数据和 GPS 数据在数字地图上定位车辆位置。
AR-Creator利用 融合的数据计算出从驾驶员位置看到的车前方道路的几何图形。 这样可行是因为驾驶员眼睛的位置是知道的: 在演示车辆上司机在驾驶前需正确设置一下眼睛识别框的位置。 这个操作可以通过内部摄像头自动进行。 它能够识别驾驶者眼睛的位置并指导眼睛识别框定位。 眼睛识别框是一个矩形区域,其宽度和高度与理论“视窗”相当。 就只要驾驶员从这个窗口看向道路,他就能看到完整的AR-HUD 图像。 乘客看不到 HUD 和 AR-HUD 显示的内容。
“AR-Creator 从眼睛识别框的可调节位置知道,驾驶员眼睛在哪里,以及正在以哪个角度查看交通状况和周围环境。”Giegerich 解释道。 驾驶员辅助系统如果探测到什么情况,相应的虚拟图像提示就会生成并投射到AR-HUD屏幕的正确位置上。
少即是多
据人机界面(HMI)开发人员 Stephan Cieler 称,大部分开发工作都是围绕虚拟提示的设计进行的。 “经过无数次的设计研究和真人实验,我们在 AR-HUD 上也贯彻了: 少即是多的座右铭。”因此最初的想法,在车道上铺一条透明的彩色地毯,很快就被丢弃。 “我们希望只给驾驶员提供必要的最少的图像提示,不遮住真实的驾驶视野。”
例如作为导航辅助的折角箭头,可以选择将它们“平放”在车道上,以及换向时直立旋转到新的行驶方向,就像一个指示牌。 这样的设计在急转弯处也能提供虚拟提示,但在这种情况下由于缺少远景视距不能实际增强。
越过车道边界的警告也会谨慎地提示。 只有当驾驶员无意中越过所有预示标志后,演示车辆的 AR-HUD 才会强调车道边界。
如果 eHorizon 预先收到事故信息,一个设置了高关注值的危险标志就会适时出现在驾驶员视野内。 “只要安装了这种与驾驶者的新型交互形式,HMI 就能提供多种途径使驾驶者了解和预见行车情况。 就像司机与汽车展开了一场无声的对话”,Richter 说。
技术专区
- Bolt EV电芯出现故障可能会导致车辆瞬间失去动力
- 东芝大手笔分拆,成功拉升市场信心
- 降低宽泛输入DC/DC 的解决方案
- PCB在汽车电子中发展现状分析及前景预测
- 实例分析基于车载时钟芯片如何实现显示屏1s以内时钟误差