- 主题:特斯拉的辅助驾驶拿着显微镜找也找不到一个有问题的案例
几十万辆车,每天测,测了好几年都没发现一个在正常使用下出问题的案例
抖音上那些辅助驾驶的视频下面都是在咒司机死
这么多人巴不得找一个出问题的案例出来,但是找不到
反而更证明了安全
--
FROM 36.112.201.*
那拿出来看看呗,要真是特斯拉自动驾驶的责任,我把车退了
【 在 juinjwst 的大作中提到: 】
: 能否定义一下什么才叫正常情况下出问题?撞大货车都不算吗?网上有AP各种被接管的视频,算出问题吗?还是说接管了就不算问题?
:
--
FROM 118.247.52.*
你自己开心就好
【 在 juinjwst 的大作中提到: 】
: 网上撞了横躺大货车的视频你搜不到?赶紧退车去吧。
:
--
FROM 118.247.52.*
谢谢,就是因为你们这样的特黑,绞尽脑汁使尽吃奶的劲才能找到这种案例证明不安全,才让几百万特斯拉车主无比放心
请睁开眼睛看清楚: 119km/h下高速不减速闯红灯
谢谢提醒,我们不会闯红灯的
【 在 dyatpk 的大作中提到: 】
: 在特斯拉Autopilot 处于开启状态下,车辆发生事故致他人死亡,车主被法院以“驾车杀人”的重罪起诉,这还是全球首例。
: 事件经过大致是这样。
: 2019年12月,一名叫Riad的美国人驾驶一辆特斯拉Model S,在洛杉矶郊区驶下高速时车辆在未减速的情况下,在公共开放道路上闯了一个红灯后,撞上一辆本田思域,造成本田思域车上的两名乘客当场身亡。
: ...................
--
FROM 36.112.189.*
一让特黑找例子,要么就是洛杉矶郊区115公里的速度冲下高速闯红灯
要么就是阿拉斯加一辆横跨三车道的巨大雪白卡车挡路躲避不及
你咋不说外星人来了躲不开飞碟呢?
我们的应用就是下班走个高速加五环,你是不是操心有点多?
【 在 dyatpk 的大作中提到: 】
: 不用绞尽脑汁去找
: 新闻一搜就有“特斯拉 烧死”“特斯拉 AutoPilot 事故”“特斯拉 自动驾驶 事故”
: 你还关心特斯拉哪方面的问题,我帮你搜,百度一般第一页就能找到
: ...................
--
修改:bigbreast FROM 36.112.180.*
FROM 36.112.180.*
这么说吧,要是特斯拉出一起像小鹏那样高速上遇到停的车辆直接撞死人的事故,销量能跌95%。因为这是可能发生在正常使用场景中的,可惜这么多年了都找不到
正是像你说的,事实证明了,只要不违规操作(corner case),那就一定是安全的,这就是特斯拉销量的背书
【 在 juinjwst 的大作中提到: 】
: 如果特斯拉在宣传上也明确限定ap/fsd的应用场景,不让用户真的有full self-driving的错觉,那还好点。如果用户真的相信并且在绝大多数时候ap/fsd也确实开的不错,那真出事故的时候,你是应该怪特斯拉的算法问题,还是怪用户没有及时接管问题?
: 这就是我问你的,到底什么算问题。如果你说各种corner case都不算问题,那特斯拉当然就没有问题。
:
--
FROM 36.112.202.*
谢谢,您这样的人越多,越证明特斯拉是安全的
【 在 juinjwst 的大作中提到: 】
: corner case不是违规操作啊,亲。corner case是生活中偶然出现但是每次情况都不太一样的事件,对于人类来说很容易处理,但对于深度学习就可能玩脱线。因为背后机理大不相同。甚至深度学习在不断进化的过程中还会出现性能劣化,以前能处理的一些case现在处理不了或者处理出问题。
:
--
FROM 111.203.26.*
大挂车在高速上掉头,窜到对面车道上..
您能再扯点么
感谢您和约书亚布朗,看到全部都是这种案例,几百万特斯拉车主就放心了
【 在 dyatpk 的大作中提到: 】
: 要高速的死亡案例吗?
: 下面就是三个,国内外都有,你可以继续吹。
: 杰里米·班纳(Jeremy Banner)驾驶着他的Model 3在佛罗里达州棕榈滩一条四车道的高速公路上行驶。当这辆车驶近私人车道时,一辆半挂车停在了它的前面,从私人车道向左拐到了对面的车道上。
: ...................
--
FROM 111.203.26.*
感谢您和约书亚.布朗
【 在 juinjwst 的大作中提到: 】
: 特斯拉确实是很安全的。但不妨碍您标题里的说法是扯淡啊。
:
--
FROM 111.203.26.*