- 主题:自动驾驶的技术悖论,L3短期也无法实现
如果一个系统能分辨自己不能处理的情况,那就离能处理这种情况不远了,换句话说,智能系统分辨自己不会的问题和解决这个问题两者之间技术难度差别不大,尤其是现阶段各种机器学习技术的系统。
比如特斯拉会撞击翻在高速公上的白色货车,因为它从来没有见过这种情况,L3会要求立即让人来接管,但是如果特斯拉明确知道要让人来接管,那就几乎可以自动绕开继续往前开了,技术上两者几乎没区别。
再比如识别红绿灯子系统的准确率是99.9%,如果加个功能:识别不准确的时候让人类接管判断红绿灯呢?其实帮助并不大,因为如果此系统可以判断自己不能准确识别的红绿灯,那在开发阶段大概率就可以解决这种情况了。
现阶段的智能系统准确率可以很高,难点就是不知道自己什么时候不可靠,这应该是整个科技界的硬核难题。
发自「今日水木 on iPhone 12 Pro」
--
FROM 221.221.11.*
翻在高速上的货车怎么预设排除呢?
如果是deep learning模型,很可能会分类到白云 远光之类的,得分还可能很高
【 在 alwaysleaf 的大作中提到: 】
:
: 未必吧
: 可以把有疑问的未预设的一律报警
: --
: 发自xsmth (iOS版)
: --
:
发自「今日水木 on iPhone 12 Pro」
--
FROM 221.221.11.*
你说的是完全的l5,更不知道猴年马月了。这么说吧,本版估计大部分人有生之年看不到事故率比普通人类更低的自动驾驶系统问世....
【 在 hondooo 的大作中提到: 】
:
: 质疑自动驾驶的人总有一个误区,觉得自动驾驶要完美无缺才能用
: 但实际上,自动驾驶只要在概率上发生事故的几率低于人类,就是成功的
: 它可能在一条路上怼大货死了一个人,也可能在另一条路上躲避异物救了2个人
: AI从原理上就不可能100%解决所有问题
: 0.000000.
: ..................
发自「今日水木 on iPhone 12 Pro」
--
修改:whistlingMe FROM 221.221.11.*
FROM 221.221.11.*
开车这项技术的难度很可能被严重低估了,虽然普通人类经过短时间训练就可以拿到驾照。
但“开车”技术很可能隐含了人类的各种人生、世界、社会经验,比如它至少包括了识字,文本理解这些长期教育的结果。还知道遇到警察挥手需要停下,即使是第一次遇到,这实际上是长期的人生经验。
这些隐含的能力需求是现阶段人工智能技术极难学会的。
【 在 sor 的大作中提到: 】
: 人本身就是一个高级的生物机器
: 目前自动驾驶还是人靠谱
: 钢铁机器即使检测能力比人强,但是处理逻辑比人差很多
: ...................
--
FROM 1.202.139.*
可以这么认为,本质上还是现在各种机器学习的系统原理上就不能识别没见过的东西,只会分类为训练时的类别,所以才会出错。L3和L4都要求系统能在无法处理的情况让人类接管,但实际上系统很难区分什么情况是自己无法处理的,
【 在 omelet 的大作中提到: 】
: 应该不是知道自己不能处理,而是根本就识别错了,或者根本没看到
:
--
FROM 124.64.16.*
你这是被媒体忽悠的太厉害了,悲观的说,本版很大一部人有生之年都见不到事故率低于普通人类司机的全自动驾驶问世。
十年内也不可能实现严格定义的L3。
【 在 david81 的大作中提到: 】
: AI进步+堆硬件,自动驾驶的事故率和死亡率肯定会低于人工驾驶的(也许现在就已经低于了)
: 不过人类司机弄死人,和AI弄死人,还是不一样。
--
FROM 124.64.16.*
我怀疑,翻倒在高速上的白色货车 就是一个海量数据无法覆盖的象征,现有机器学习技术如果没有理论的革命性进展,很难解决。
【 在 fornothing 的大作中提到: 】
:
: 你说的是有道理的。但是海量数据,高精度地图,丰富的传感器,可以把危险降到最低。
: --
:
发自「今日水木 on iPhone 12 Pro」
--
FROM 124.64.16.*
如前所述,也许开车这项技术必须包含隐藏的人生世界经验、长期的社会经验等信息。
这也意味着无法单靠摄像头、雷达采集的路面信息决策应对突发状况。
【 在 fornothing 的大作中提到: 】
:
: 目前特斯拉的方案存在盲区,确实存在无法识别的情况
:
: 但是如果增加更大角度的摄像头,或者更多的激光雷达,是可以解决这个问题的。
: --
:
发自「今日水木 on iPhone 12 Pro」
--
FROM 124.64.234.*