- 主题:问界M,9要宣称是L3?求证
保险费会爆
【 在 Cobb 的大作中提到: 】
: 如果厂家和保险联合,车的l3的事故算车的,绝对要爆
:
--
FROM 111.167.208.*
需要考虑刑责的问题吗?若不考虑,zf答应吗?若考虑,因为程序的问题压死俩人,程序员要坐牢?
【 在 Cobb 的大作中提到: 】
: 看他l3的智驾驶水平呗
: 用了智驾,事故还更多,那就会爆,会少,那就保费也减少
: 保险公司测算这个很成熟了
: ...................
--
FROM 111.167.208.*
如果程序有问题,是否应该立即停止销售并禁止存量用户继续使用?
让粗粮用户继续使用存在明确安全问题的自动驾驶程序,说不过去吧。
【 在 Cobb 的大作中提到: 】
: 那不知道了
: 不过我的观点,现在车后台记录很详细,如果程序问题,保险赔完厂家再赔一遍
: 如果事故率过高,取消l3资格
: ...................
--
FROM 111.167.208.*
程序没问题,就不应该出事故。出了事故,就说明程序有无法正常工作的corner case,这就是bug。
【 在 Cobb 的大作中提到: 】
: 很多时候程序不一定有问题,可能事情太特殊了,概率问题
: 这个需要专业认定,如果程序的问题,当然应该返厂或者取消l3
:
--
FROM 111.167.208.*
靠谱的人类司机到了可能出现鬼探头的路段会开得足够慢。
另外,程序和人不同,人千差万别,各负其责。但程序是统一的。一套系统,在某个corner case上出了问题,下次遇到同样的输入和边界条件,它还会出问题。而基于DL的架构可解释性很差,根本说不清corner case有哪些。宣传这样的系统自己负责,是很不负责的。
【 在 Cobb 的大作中提到: 】
: 很多事没法避免的,比如鬼探头,极限条件下也没法刹住
: 然后死了,驾驶就要负一定责任,这时候怎么算?
: 比如l3驾驶,能死事故率降低90%,但是无法绝对不出事故?
: ...................
--
FROM 111.167.208.*
别扯这种毫无意义的淡了。难道AI驾驶系统会使用它自认为不够安全的开车方式?
【 在 wsnsw 的大作中提到: 】
: “认为正在使用足够安全的开车方法”恰恰是导致大部分事故的原因:送给你的第一句。
--
FROM 221.197.234.*
我认为如何影响不了设计系统的码农
【 在 wsnsw 的大作中提到: 】
: 问题是你认为他会使用不够安全的方式。
: :
--
FROM 111.167.208.*
你不靠谱,不代表别人不靠谱。认真开车,提高车技,少扯淡少忽悠
【 在 iGeek 的大作中提到: 】
: 靠谱只存在你的想象中,现实是绝大部分司机都不这么做,没出事只是没遇到而已。
: 开的慢只是人类做不到快速反应的处理方法,但计算机比人类快很多,通过计算是可以避免事故的情况下就不需要开的慢了。
: 老司机只是老,不一定好,不一定是最优方法,如果有足够的数据,电脑的处理会比人类好很多。
: ...................
--
FROM 111.167.208.*