» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


 30 12
发新话题
打印

[经验交流] ADAS之奥迪A8, 奔驰S, 特斯拉HW 2.0 设备研究

1, 奥迪A8
奥迪称之为zFAS中央驾驶辅助控制系统, 新A8的这套系统, 就是前几年在上海A7测试车上的那套, 2011年开始研发, 定位L3. 最新一代的zFAS据说也已经接近完工了.
a8的系统由4大块构成,
---Intel(Mobileye)的EyeQ3,负责交通信号识别,行人检测,碰撞报警,光线探测和车道识别
---Nvidia的K1, 负责驾驶员状态检测,360度全景, 360度全景处理
---Intel(Altera)的Cyclone V, 负责目标识别融合,地图融合,自动泊车,预刹车,激光雷达传感器数据处理
---英飞凌的Aurix TC297T负责自动拥堵驾驶, 系统校验辅助, 矩阵大灯以及道路构图. 用作安全MCU, 达到最高ASIL-D级

新A8前后左右配置了12个超声波传感器, 4个360度全景摄像头, 在风挡边缘配置前置摄像头,在车角配置4个中程雷达,前部配置了远程雷达和红外摄象机, 此外是目前唯一在车辆前部配置激光雷达的车辆. 这套系统采用了新的数据交换总线, 由飞机的总线制造商TTTech完成.

一个图总结

[ 本帖最后由 TJ-NNY 于 2017-10-28 02:05 编辑 ]
附件: 您所在的用户组无法下载或查看附件


TOP

2, 特斯拉HW1/HW2
HW1: 博世的77GHz前向毫米波雷达,内置ECU。前向摄像头,内置以Mobileye EyeQ3为核心的ECU,12个超声波传感器
HW2: 前向三个摄像头,B柱上两个摄像头,车后视镜下方各一组摄像头,一个后置摄像头. 总控制器ECU集中为一个, 位于手套箱里, 属于跟本不考虑, 时间大于一切强上新方案的设计.
ECU使用Nvidia PX2+Tegra, 就是auto pilot 2.0, 2大芯片
---PX2: GTX1060, 8G GDDR5的显存, 单芯片. 负责360度全景以及处理
---Parker的Tegra 16G LPDDR4. 负责17寸大屏PAD和仪表显示运行, 摄像头ADAS等等等等, PPT上峰值性能接近是苹果A9X的2倍
系统安全ASIL-D级, 也是使用英飞凌TC297T
前方的三个前向摄像头镜头视角分别是150度、50度和25度, 可以理解为3个不同角度的单目摄像头, 但是无法组成双目搭配出来的前后间距3d效果. 单纯硬件上说远不如新A8

[ 本帖最后由 TJ-NNY 于 2017-10-28 02:17 编辑 ]



TOP

奔驰S, 看图说话
优点是奔驰S采用了双目摄像头, 能够比对精确计算出物体距离车辆的远近程度, 道理同人眼
其他同新A8大同小异, 缺点是没有A8的激光雷达, 极端环境下摄像头应用有限

[ 本帖最后由 TJ-NNY 于 2017-10-28 02:27 编辑 ]
附件: 您所在的用户组无法下载或查看附件


TOP

最后纯摄像头方案的局限性(会在不需要刹车的地方主动刹车)
L1/L2/L3道路识别的差别
以及L5 PEGASUS的PPT

[ 本帖最后由 TJ-NNY 于 2017-10-28 02:31 编辑 ]
附件: 您所在的用户组无法下载或查看附件

TOP

有关仅使用摄像头方案, 国内厂商的Q&A, 足够解释斯巴鲁的问题了 没啥扫地僧的可能性, 优势是廉价.

Q:第二代Smarter Eye距离大概是80米左右,您估计以后发展能够到多少距离?
A:我们觉得3D的视觉传感器跟光学特性有关系,如果我用长焦的镜头,我加大相机基线可以看到150米甚至200米的东西,但是视角会比较小。可能我们在看到120米左右,能维持10%的测距误差,而视角小于10度;如果看到150米估计视角会小于5度,或者在7度左右,这就是视角受限。有可能会产生一些需求,就是你多个双目相机的融合,比如我一个视角在40度左右,看80米以内,一个视角在20度以内,我们看120米之内的,还有一个是视角在10度左右的,我们看160米之内。我们可以看到像沃尔沃或者Mobileye,他们有一个三单目融合,双目也可以做三组双目融合,但是体积受不了。可以做单目和双目融合。

Q:双目相机以后会不会有变焦的摄像头?
A:其实我觉得也可能产生这样一种需求,就是科研单位或者院校用一种变焦的镜头,可以设计好固定的几个焦距来做实验,但是行车过程中变焦比较危险,至少有来回变焦的延时,这一段时间内采集的图像不清楚,这个时候所有的感知都不可靠。不采用变焦镜头,成本不是主因,主要是看它是否满足我们车辆对安全行驶的需求,如果是一辆低速车辆,3公里之下行驶,变焦头应该还是可以的,车速80,变焦头就比较危险,毕竟车辆每秒钟行使两米多。

Q:我还是很关心误差,你刚才讲80米左右误差5米,5米来讲是不是还是有可能把误差降低一点?
A:一个光学系统所能达到的精确程度,跟很多的因素有关,比如镜头的选型,还有镜头的分辨率,以及对焦准确性,成像的环境是怎样的。我们在晴朗平坦的地方测距精度肯定要好于雨雪天气下的测距精度。另外,定焦镜头的测距的有效范围也是有限的。我们要做到一组双目相机,尽量近处看到最近,远处尽量远,这是矛盾的。我们想如果看到80米很精确,我们就要用更长焦的镜头,但是问题在于如果你要想在2米看的清楚,又想在80米看的清楚,可能最准确的地方是在50米左右,前后焦段都是逐渐降质的。80米以上的高精度测距,可能需要16分之一的像素匹配精度,这样数据字节的宽度会变大。同时光学系统精度也不是单纯的数据可以解释,跟系统整个的精度有关。

Q:您介绍双目视觉方案这里面,点云万点每秒的速度,明显会比激光雷达快得多。但是我想激光雷达为什么会有速度限制,是因为它必须是现场,因为激光雷达有一个特点,是有脉冲的方式,必须等到脉冲回来才能计算,通过反射波的时长计算距离。按照我对光学的理解,是通过时差来计算距离的。那我的前提是两个左右眼成像要是精准的,如果成像不是精准的,比方说我的焦距设在10米,但是我的观察点是在100米,它的原点一定是不同的,在这种情况下,在100米去计算时差,应该是非常不精确的,得到的点也是不精确的。所以我想对于双目视觉,同样会有扫描的过程,这个扫描就不是我们讲的激光扫描,是调焦距的,因为我们在做分子级的电子显微镜的时候,我们是在不断的调焦距,我们必须要把每一层都要拍下来,才能得到准确的图像。但是因为你刚才提到一个问题,就是没有变焦,如果用一个镜头肯定只有一个距离是最清晰的,其他距离是不清晰的,我们可以推断出来,你刚才彩色的那个图上只有一个点是准确的,其他非焦距点都是不准确的。
A:清晰不清晰是看大家怎么定义,比如可以容许的弥散圆半径,与设备的焦距,光圈,以及镜头与sensor的素质,安装精度等息息相关。不是说清晰就是某一个物理点的成像聚焦在一微米上,这是没有意义的。所谓的清晰就是一个物理点在成像里是能被一个像素的尺寸范围涵盖住,还是被半个像素的尺寸范围涵盖住,如果这个像素的感光面积是6微米大小的,你成的像是三微米大小,那一个像素就可能含有两个物理点的信息。
设备需要达到的清晰度是由使用者来设定的,需要通过对镜头的分析以及传感器的分析来实现,里面有一些的计算公式和原理,感兴趣的朋友可以搜索了解一下。在某一个对焦距离上,该处的物体成像肯定最清晰,但该位置前后清晰度容许的景深范围内的物体成像都是清晰的。另外,成像清晰双目视觉的一个重要需求,第二个需求是匹配算法能不能实现实时准确的匹配。
还有一个问题,双目视觉的远端测距误差大,是因为障碍物距离的越远,对应的视差值越小,例如,远处的障碍物视差为3的时候,距离是150米,视差为2的时候,距离是200米,一个整数视差值差了50米,这样的情况下的障碍物提取分析就不容易稳定。因此,我们说真正产品开放出来的测距或者障碍物提取的距离,是缩小到2米到80米的区间,原因是在于让设备提供的功能在该范围内是真实可用的,不是夸大其词。
车用视觉传感器在物体特别近的时候,太高的测距准确性意义没有特别大,因为这个时候测距值相对变化较小,假如这一个点是10.212米,下一个点变成了10.211米,这种误差用途不大。双目视觉与人眼的视觉感受相似,越近的物体测的越准,越远越不准,但是这种感觉是真实可用的,可以帮助我们安全驾驶,因为一个驾驶员只要有健全的双眼就能把车开好。所以我们的双目视觉也在模拟人眼进行学习和实时道路感知,也在提升我们设备的精度和体验,我们相信这种性价比很好的传感器一定能应用到10万元的家用轿车上。

[ 本帖最后由 TJ-NNY 于 2017-10-28 18:35 编辑 ]

TOP

posted by wap, platform: Android
明显s级最高

TOP

引用:
原帖由 tainey 于 2017-10-28 03:36 发表
posted by wap, platform: Android
明显s级最高
a8比s高
a8用到激光雷达了
时间新的优势, 你就算再怎么不计成本, 产品现在就只有这些, 那也没办法, 只能用这些

TOP

纯摄像头的就跟特斯拉那样,极端情况下傻逼,关键是一傻逼,你就嗝屁了

TOP

引用:
原帖由 bsseven 于 2017-10-28 22:54 发表
纯摄像头的就跟特斯拉那样,极端情况下傻逼,关键是一傻逼,你就嗝屁了
失效管理是功能安全的必要内容,如果失效的话车辆应该会提醒驾驶员接管并且自己减速。不会保持功能继续工作的

TOP

引用:
原帖由 TJ-NNY 于 2017-10-28 02:44 发表
有关仅使用摄像头方案, 国内厂商的Q&A, 足够解释斯巴鲁的问题了 没啥扫地僧的可能性, 优势是廉价.

Q:第二代Smarter Eye距离大概是80米左右,您估计以后发展能够到多少距离?
A:我们觉得3D的视觉传感器跟光 ...
我觉得视觉最大的问题是信息提取太费劲。夜里双目视觉相当不靠谱。

现在的技术方向是摄像头就老老实实的做目标辨识。对于距离和速度的判断通过光流来做。精准的测距交给激光做就好。

很多资料都不会说的事情是:

毫米波雷达在 160m 这种中距测量下的时候,测距精度只有 1m
双目摄像头在 10cm 左右的基线长度下,根据环境在 60m ~ 80m 就没有任何深度提取能力了
只有激光可以在 120m 这种距离下提供 5cm 以内的距离精度,而且最近一直可以探测到 0.5m 范围

在车辆前方感知上,没有激光车辆就无法进入复杂环境

TOP

引用:
原帖由 FXCarl 于 2017-11-1 20:53 发表


失效管理是功能安全的必要内容,如果失效的话车辆应该会提醒驾驶员接管并且自己减速。不会保持功能继续工作的
驾驶员需要时间介入车辆的警告, 从麻痹大意的到回神接管车辆通常要好几秒, 高速上一秒就是3米
失效以后并不是紧急刹停的, 但是很多时候不给你这个时间去反应, 比如盘山公路转弯对面来车, 一旦出了事情就完蛋了, 你经不起那0.01%的可能性的折腾

TOP

技术的奥迪

TOP

posted by wap, platform: iPhone
现在定性了,奥迪A8属于3.0,而特斯拉现在阶段最多只能算2.5

TOP

posted by wap, platform: iPhone
引用:
原帖由 @KARUTO  于 2017-11-2 11:57 发表
现在定性了,奥迪A8属于3.0,而特斯拉现在阶段最多只能算2.5
普及面不一样的,特斯拉低配标配,a8高配选装
35万和135差距巨大

TOP

在Tesla方面,LZ缺乏大量的技术细节甚至有一些错误。

首先,Tesla的Autopilot2.0硬件上包括:
1. 前置雷达
2. 8个摄像头,3个前方,2个侧前方,2个侧后方,1个后方
3. 12个声纳
而且Tesla刚刚升级了计算处理器到更高配置的Autopilot 2.5 (2.1),内部代号AP3。

其次,激光雷达并不是什么更先进的技术或者更好,激光雷达在很多厂商的实验室里面已经被论证过了,精度上的确有优势,但是容易被下雨和下雪等天气因素干扰。

最重要的是,无论采用什么样的硬件传感器搭配。自动驾驶的核心技术是识别物体算法,目前的主流技术是深度学习(Deep Learning)AI。该技术的关键是通过大量的数据进行不间断的重复迭代来实现算法优势和识别精度。这一点上Tesla具有其他厂商都无法比拟的优势。从2016年初开始生产的所有的Tesla都标配Autopilot2.0硬件,而且全部配备LTE网络,就算用户不选配Autopilot,只是用户无法使用其提供的功能,每辆车仍都参与数据积累,并且随时把数据上传到Tesla的网路上。从目前Tesla公布的数据,配备Autopilot2.0的Model S和Model X超过12万辆,就算Model 3目前生产速度仍然没有上去,但是2年后,这个数字也会提高到40-50万辆,5年后应该在150万辆的规模。这比起Audi或者奔驰只有顶级车辆选配才有来说,在数据积累俩上高了几个数量级。

另外,目前已有的Autopilot的事故报道都是基于Autopilot的,当时因为Tesla不具备独立开发整个系统的资源,所以是和Mobileye合作。后来Tesla自己从零开始搞Autopilot2.0用了仅仅1年的时间,就达到了1.0多年积累下来的水平。接下来的几个月内我相信会看到配备Autopilot2.0硬件的系统会迅速达到并且超过Level3,2-3年内达到Level5。

最后,Tesla的整个硬件系统的高度数字化和平台的可扩展性是其他车厂不可比拟的。之所以说Tesla是唯一配得上和iPhone同时代的汽车正因为这一点。用户不再需要通过更换汽车来更新系统,就以前两个月来说。Tesla连续推出了3个Autopilot的优化补丁,大幅度提高了系统识别率。同时甚至通过软件升级的方式提高了Model X 75D的加速性能。这种快速迭代才能够适应自动驾驶这种新技术进步的速度。Tesla已经展示了Autopilot2.0可以实现Level5的驾驶体验(参看官网展示视频),而且原计划在今年年底或者明年年初进行从美国西海岸到东海岸的Level5驾驶展示。

TOP

 30 12
发新话题
     
官方公众号及微博