- 主题:自动驾驶的技术悖论,L3短期也无法实现
【 在 whistlingMe 的大作中提到: 】
: 如果一个系统能分辨自己不能处理的情况,那就离能处理这种情况不远了,换句话说,智能系统分辨自己不会的问题和解决这个问题两者之间技术难度差别不大,尤其是现阶段各种机器学习技术的系统。
: 比如特斯拉会撞击翻在高速公上的白色货车,因为它从来没有见过这种情况,L3会要求立即让人来接管,但是如果特斯拉明确知道要让人来接管,那就几乎可以自动绕开继续往前开了,技术上两者几乎没区别。
: 再比如识别红绿灯子系统的准确率是99.9%,如果加个功能:识别不准确的时候让人类接管判断红绿灯呢?其实帮助并不大,因为如果此系统可以判断自己不能准确识别的红绿灯,那在开发阶段大概率就可以解决这种情况了。
: ...................
突然冲出一人,然后边上是一辆千万豪车,直接撞人不行,撞车赔钱不说,也可能有人命,顶级富豪打官司打得你穷家,人工智能如何取舍?
--
FROM 219.143.13.*
你描述的意思是“你不知道你不知道的事情”。
但是这种描述不像是技术从业人员的语体风格。
--
FROM 106.120.30.*
【 在 alou 的大作中提到: 】
: 那这样的L3跟L2还有什么区别?
:
L3能自己上环路高速匝道,能自己并线超车,能自己过部分红绿灯。
L2不能。
就这点区别。
--
FROM 111.199.52.*
应该不是知道自己不能处理,而是根本就识别错了,或者根本没看到
【 在 whistlingMe 的大作中提到: 】
: 如果一个系统能分辨自己不能处理的情况,那就离能处理这种情况不远了,换句话说,智能系统分辨自己不会的问题和解决这个问题两者之间技术难度差别不大,尤其是现阶段各种机器学习技术的系统。
: 比如特斯拉会撞击翻在高速公上的白色货车,因为它从来没有见过这种情况,L3会要求立即让人来接管,但是如果特斯拉明确知道要让人来接管,那就几乎可以自动绕开继续往前开了,技术上两者几乎没区别。
: 再比如识别红绿灯子系统的准确率是99.9%,如果加个功能:识别不准确的时候让人类接管判断红绿灯呢?其实帮助并不大,因为如果此系统可以判断自己不能准确识别的红绿灯,那在开发阶段大概率就可以解决这种情况了。
: ...................
--
FROM 159.220.77.*
【 在 hondooo 的大作中提到: 】
: 质疑自动驾驶的人总有一个误区,觉得自动驾驶要完美无缺才能用
: 但实际上,自动驾驶只要在概率上发生事故的几率低于人类,就是成功的
: 它可能在一条路上怼大货死了一个人,也可能在另一条路上躲避异物救了2个人
: ...................
你这么讲也是有问题的,第一只讲事故概率,不讲事故严重程度,人开车事故率是高,但是大量的是小事故,ai事故率低,常常是大事故;第二忽略了人与人之间的差异,这世界上不靠谱的司机很多,靠谱的司机也很多,不能单单算一个总体概率,ai驾驶要取代人类,至少要求ai达到靠谱司机的水平吧
--
FROM 111.202.233.*
AI进步+堆硬件,自动驾驶的事故率和死亡率肯定会低于人工驾驶的(也许现在就已经低于了)
不过人类司机弄死人,和AI弄死人,还是不一样。
--
FROM 221.218.5.*
可以这么认为,本质上还是现在各种机器学习的系统原理上就不能识别没见过的东西,只会分类为训练时的类别,所以才会出错。L3和L4都要求系统能在无法处理的情况让人类接管,但实际上系统很难区分什么情况是自己无法处理的,
【 在 omelet 的大作中提到: 】
: 应该不是知道自己不能处理,而是根本就识别错了,或者根本没看到
:
--
FROM 124.64.16.*
像百度那样一个左转灯10分钟转不过去,是可以降低事故率
【 在 david81 的大作中提到: 】
: AI进步+堆硬件,自动驾驶的事故率和死亡率肯定会低于人工驾驶的(也许现在就已经低于了)
: 不过人类司机弄死人,和AI弄死人,还是不一样。
--
FROM 222.128.117.*
你这是被媒体忽悠的太厉害了,悲观的说,本版很大一部人有生之年都见不到事故率低于普通人类司机的全自动驾驶问世。
十年内也不可能实现严格定义的L3。
【 在 david81 的大作中提到: 】
: AI进步+堆硬件,自动驾驶的事故率和死亡率肯定会低于人工驾驶的(也许现在就已经低于了)
: 不过人类司机弄死人,和AI弄死人,还是不一样。
--
FROM 124.64.16.*
即使让人类接管也容易出事,wiki上这个说法很值得思考
Two human-factor challenges are important for safety. One is the handoff from automated driving to manual driving, which may become necessary due to unfavorable or unusual road conditions, or if the vehicle has limited capabilities. A sudden handoff could leave a human driver dangerously unprepared in the moment. In the long term, humans who have less practice at driving might have a lower skill level and thus be more dangerous in manual mode. The second challenge is known as risk compensation: as a system is perceived to be safer, instead of benefiting entirely from all of the increased safety, people engage in riskier behavior and enjoy other benefits.
这两个问题一定会出现在半自动驾驶车辆上,当车辆推卸责任给人类的时候,人类斯基因为上述原因无法及时做正常反应
【 在 whistlingMe (哈哈) 的大作中提到: 】
: 可以这么认为,本质上还是现在各种机器学习的系统原理上就不能识别没见过的东西,只会分类为训练时的类别,所以才会出错。L3和L4都要求系统能在无法处理的情况让人类接管,但实际上系统很难区分什么情况是自己无法处理的,
--
FROM 73.63.245.*