- 主题:关于华为aeb有一个很危险的场景
这种极端情况在没有辅助驾驶的情况下也是无解的,跟驾驶员水平和运气有关
一开始各种吹嘘的自动驾驶,在出事故后都纷纷改名叫辅助驾驶了,谁也不敢自称自己能完全自主实现自动驾驶,那样死了人会被骂死的
然后换个赛道继续吹,弄点中文意义上看不懂的模棱两可的词再搭上友商,继续遥遥领先。
你举的例子,华为会很明确地解释:根据交警责任认定,是后车没有保持安全距离导致,和我无关。
--
FROM 115.171.21.*
类似的ACC技术早就有,十几年前的大众车上就有了,遇到障碍物主动刹车,但是一般是刹车的同时报警,提醒人工介入,刹到速度20交给人工接管。这本来是个很科学很合理的方案,速度20人工接管是否刹停还是避让,或者低速通过,这样就算后车来不及刹车造成追尾也不是静态追尾,损失会减少很多。
现在新科技能实现全速域ACC,再来个AEB刹停,技术上看似是进步了,实际却修改了合理的规则。理论上任何时候机器处理的优先级都不能高于人工处理,这帮大嘴们的科技以人命为代价
【 在 xtqdm 的大作中提到: 】
: 所以华为和各车企才敢在刹停这件事上让车优先于人,因为出事了也不用负责
--
FROM 115.171.21.*
如果2,人类没命令时呢,AEB能做出准确的决策吗?怎么就能证明它的决策准确呢?
不管是人还是机器,都会出错,区别是人类出错有法律可以处罚,可以降低社会损失。机器出错你去判机器刑啊,还是枪毙设计机器的人?
【 在 nlgdczm 的大作中提到: 】
: 直接踩油门碾过去都不行吗?
: 是时候提出AEB三大定律了:
: 1. AEB不得伤害人类,或者在不损害人类利益的前提下,允许人类受到伤害。
: ...................
--
FROM 115.171.21.*