- 主题:特斯拉的辅助驾驶拿着显微镜找也找不到一个有问题的案例
能否定义一下什么才叫正常情况下出问题?撞大货车都不算吗?网上有AP各种被接管的视频,算出问题吗?还是说接管了就不算问题?
【 在 bigbreast 的大作中提到: 】
: 几十万辆车,每天测,测了好几年都没发现一个在正常使用下出问题的案例
: 抖音上那些辅助驾驶的视频下面都是在咒司机死
: 这么多人巴不得找一个出问题的案例出来,但是找不到
: ...................
--
FROM 219.142.144.*
网上撞了横躺大货车的视频你搜不到?赶紧退车去吧。
【 在 bigbreast 的大作中提到: 】
: 那拿出来看看呗,要真是特斯拉自动驾驶的责任,我把车退了
--
FROM 61.48.133.*
我对特斯拉的驾驶辅助能力一直是高度认可的。但否认特斯拉出过任何问题,既不必要,也显得无知。
【 在 bigbreast 的大作中提到: 】
: 你自己开心就好
--
FROM 61.48.133.*
如果特斯拉在宣传上也明确限定ap/fsd的应用场景,不让用户真的有full self-driving的错觉,那还好点。如果用户真的相信并且在绝大多数时候ap/fsd也确实开的不错,那真出事故的时候,你是应该怪特斯拉的算法问题,还是怪用户没有及时接管问题?
这就是我问你的,到底什么算问题。如果你说各种corner case都不算问题,那特斯拉当然就没有问题。
【 在 bigbreast 的大作中提到: 】
: 一让特黑找例子,要么就是洛杉矶郊区115公里的速度冲下高速闯红灯
: 要么就是阿拉斯加一辆横跨三车道的巨大雪白卡车挡路躲避不及
: 你咋不说外星人来了躲不开飞碟呢?
: ...................
--
FROM 61.48.133.*
corner case不是违规操作啊,亲。corner case是生活中偶然出现但是每次情况都不太一样的事件,对于人类来说很容易处理,但对于深度学习就可能玩脱线。因为背后机理大不相同。甚至深度学习在不断进化的过程中还会出现性能劣化,以前能处理的一些case现在处理不了或者处理出问题。
【 在 bigbreast 的大作中提到: 】
: 这么说吧,要是特斯拉出一起像小鹏那样高速上遇到停的车辆直接撞死人的事故,销量能跌95%。因为这是可能发生在正常使用场景中的,可惜这么多年了都找不到
: 正是像你说的,事实证明了,只要不违规操作(corner case),那就一定是安全的,这就是特斯拉销量的背书
--
FROM 61.48.133.*
特斯拉确实是很安全的。但不妨碍您标题里的说法是扯淡啊。
【 在 bigbreast 的大作中提到: 】
: 谢谢,您这样的人越多,越证明特斯拉是安全的
: 侍狻
--
FROM 61.48.133.*
首先,joshua brown为了测试与改进ap献出了自己的生命,您这样调侃他是不是有点太没良心了,毕竟是他还有其他人的生命帮助tesla对ap进行进一步研发。
其次,joshua本人曾经在youtube上制作了多个视频,夸奖ap功能,甚至提到ap功能救过他的命。估计也是因此他放松了对ap应有的警惕,造成这个悲剧。您的标题,恕我直言,也表现出跟joshua类似的心理,这才是需要警惕的。ap只是驾驶辅助,即使是没有进中国的fsd也只是高阶驾驶辅助。目前阶段,这些技术表现的越成熟,其实越有潜在的让驾驶者放松警惕的风险。
【 在 bigbreast 的大作中提到: 】
: 感谢您和约书亚.布朗
--
FROM 61.48.133.*
你真是个完全没有任何道德底线的人,不仅调侃死去的车主,还咒好心提示你的人同样去死。但你完全达不到你的目的,因为我不开特斯拉。你只是羞辱了你自己而已。
【 在 bigbreast 的大作中提到: 】
: 据我所知,中国,至少北京,高速上不许掉头,我也没在北京的高速上见过大挂车掉头。
: 北京三千万市民建国73年,有人见过大挂车在高速上掉头么?
: 您只能找到这个案例来证明特斯拉不安全,确实是为了证明特斯拉安全做出了很大贡献
: ...................
--
FROM 61.48.133.*