“事故前1秒退出”说明这系统只有在要撞的时候才知道自己错了,明显它在好几秒前早就判断/操作错误了。
对于一个自动化系统,如果它能知道自己做错了,那么它就直接做对就行了,又何必自己退出让人类接管呢?
“判断自己有没有做错”和“直接做对这个事情”,对于目前所有的自动系统,基本就是同一个问题,或者至少是同一个难度。
所以说那个L1~L5的自动驾驶分级合理性被质疑太多了, L2->L3的技术难度,可能大于其他几级的总和。
【 在 vta 的大作中提到: 】
: “事故前1秒退出”说明自动驾驶知道自己错了,处理不了了,才退出。如果不知道自己错,就不会退出了
:
: 红绿灯同理,正常做决策,会判断出正确的概率,如果概率低到一个数值就退出
: ...................
--
FROM 123.113.145.*