- 主题:特斯拉的辅助驾驶拿着显微镜找也找不到一个有问题的案例
一让特黑找例子,要么就是洛杉矶郊区115公里的速度冲下高速闯红灯
要么就是阿拉斯加一辆横跨三车道的巨大雪白卡车挡路躲避不及
你咋不说外星人来了躲不开飞碟呢?
我们的应用就是下班走个高速加五环,你是不是操心有点多?
【 在 dyatpk 的大作中提到: 】
: 不用绞尽脑汁去找
: 新闻一搜就有“特斯拉 烧死”“特斯拉 AutoPilot 事故”“特斯拉 自动驾驶 事故”
: 你还关心特斯拉哪方面的问题,我帮你搜,百度一般第一页就能找到
: ...................
--
修改:bigbreast FROM 36.112.180.*
FROM 36.112.180.*
Autopilot连红灯都不识别还能这样舔?
【 在 bigbreast 的大作中提到: 】
: 谢谢,就是因为你们这样的特黑,绞尽脑汁使尽吃奶的劲才能找到这种案例证明不安全,才让几百万特斯拉车主无比放心
: 请睁开眼睛看清楚: 119km/h下高速不减速闯红灯
: 谢谢提醒,我们不会闯红灯的
: ...................
--
FROM 114.253.33.*
特效子,现在国内形势对锤子车非常残酷。
估计你买不起fsd
即使买了fsd,在国内也是阉割版
知道为什么北戴河不让锤子车进去吗?
赶紧移民吧
【 在 xxxss 的大作中提到: 】
: 那你算是鹏孝子呗?你对小鹏那么深的感情是因为?
: - 来自 水木社区APP v3.5.5
--
FROM 180.79.242.*
AutoPilot自己加速到100多公里闯红灯,然后撞死了人,然后你说不是AutoPilot的问题?
特粉真nb啊
【 在 bigbreast 的大作中提到: 】
: 一让特黑找例子,要么就是洛杉矶郊区115公里的速度冲下高速闯红灯
: 要么就是阿拉斯加一辆横跨三车道的巨大雪白卡车挡路躲避不及
: 你咋不说外星人来了躲不开飞碟呢?
: ...................
--
FROM 218.247.161.*
如果特斯拉在宣传上也明确限定ap/fsd的应用场景,不让用户真的有full self-driving的错觉,那还好点。如果用户真的相信并且在绝大多数时候ap/fsd也确实开的不错,那真出事故的时候,你是应该怪特斯拉的算法问题,还是怪用户没有及时接管问题?
这就是我问你的,到底什么算问题。如果你说各种corner case都不算问题,那特斯拉当然就没有问题。
【 在 bigbreast 的大作中提到: 】
: 一让特黑找例子,要么就是洛杉矶郊区115公里的速度冲下高速闯红灯
: 要么就是阿拉斯加一辆横跨三车道的巨大雪白卡车挡路躲避不及
: 你咋不说外星人来了躲不开飞碟呢?
: ...................
--
FROM 61.48.133.*
问题就是很多买了特斯拉车的车主不是特效子,他们不像你天天吹你爸爸那样吹特斯拉,所以没买fsd,因为不值当的,去北戴河可以坐高铁,可以开国产车去,这有啥问题啊?只有你觉得小鹏比别的车都好
- 来自 水木社区APP v3.5.5
【 在 AD007 的大作中提到: 】
: 特效子,现在国内形势对锤子车非常残酷。
: 估计你买不起fsd
: 即使买了fsd,在国内也是阉割版
: 知道为什么北戴河不让锤子车进去吗?
: 赶紧移民吧
--
FROM 223.71.122.*
AP本来就不包括红绿灯识别的功能,FSD可以
【 在 LiYingReBa (LiYingReBa) 的大作中提到: 】
: Autopilot连红灯都不识别还能这样舔?
:
:
: 【 在 bigbreast 的大作中提到: 】
--
FROM 114.254.9.*
这么说吧,要是特斯拉出一起像小鹏那样高速上遇到停的车辆直接撞死人的事故,销量能跌95%。因为这是可能发生在正常使用场景中的,可惜这么多年了都找不到
正是像你说的,事实证明了,只要不违规操作(corner case),那就一定是安全的,这就是特斯拉销量的背书
【 在 juinjwst 的大作中提到: 】
: 如果特斯拉在宣传上也明确限定ap/fsd的应用场景,不让用户真的有full self-driving的错觉,那还好点。如果用户真的相信并且在绝大多数时候ap/fsd也确实开的不错,那真出事故的时候,你是应该怪特斯拉的算法问题,还是怪用户没有及时接管问题?
: 这就是我问你的,到底什么算问题。如果你说各种corner case都不算问题,那特斯拉当然就没有问题。
:
--
FROM 36.112.202.*
corner case不是违规操作啊,亲。corner case是生活中偶然出现但是每次情况都不太一样的事件,对于人类来说很容易处理,但对于深度学习就可能玩脱线。因为背后机理大不相同。甚至深度学习在不断进化的过程中还会出现性能劣化,以前能处理的一些case现在处理不了或者处理出问题。
【 在 bigbreast 的大作中提到: 】
: 这么说吧,要是特斯拉出一起像小鹏那样高速上遇到停的车辆直接撞死人的事故,销量能跌95%。因为这是可能发生在正常使用场景中的,可惜这么多年了都找不到
: 正是像你说的,事实证明了,只要不违规操作(corner case),那就一定是安全的,这就是特斯拉销量的背书
--
FROM 61.48.133.*
要高速的死亡案例吗?
下面就是三个,国内外都有,你可以继续吹。
杰里米·班纳(Jeremy Banner)驾驶着他的Model 3在佛罗里达州棕榈滩一条四车道的高速公路上行驶。当这辆车驶近私人车道时,一辆半挂车停在了它的前面,从私人车道向左拐到了对面的车道上。
这辆特斯拉当时以每小时68英里(110公里/小时)的速度行驶,并滑到了卡车的拖车下面。拖车从车前部脱落,撞死了班纳。这辆车继续沿着公路行驶了1600英尺(约500米),然后在中间停下来。
美国国家运输安全委员会(National Transportation Safety Board,以下简称NTSB)周四(5月16日)发布了报告。
“初步数据显示,特斯拉的Autopilot自动驾驶系统……在事故发生时处于工作状态”,NTSB在报告中说明。驾驶员在碰撞前10秒左右启动了Autopilot自动驾驶仪,从撞车前不到8秒一直到碰撞时,汽车都没有发现司机的手放在方向盘上。
班纳是第二个因Autopilot死亡的特斯拉车主。2016年5月,约书亚·布朗(Joshua Brown)在佛罗里达另一条高速公路上驾驶他的Model S时,一辆半挂卡车在他的车前面左转。布朗已经启动了Autopilot自动驾驶系统,但他显然没有注意到那辆卡车。布朗的车以每小时74英里(120公里/小时)的速度撞上了拖车,车顶脱落,布朗当场死亡。
国内首例特斯拉Autopilot 致死案。
2016年1月,高某驾驶特斯拉ModelS,在京港澳高速邯郸段行驶时,与前方的道路清扫车发生追尾事故身亡。
【 在 bigbreast 的大作中提到: 】
: 这么说吧,要是特斯拉出一起像小鹏那样高速上遇到停的车辆直接撞死人的事故,销量能跌95%。因为这是可能发生在正常使用场景中的,可惜这么多年了都找不到
: 正是像你说的,事实证明了,只要不违规操作(corner case),那就一定是安全的,这就是特斯拉销量的背书
:
: ...................
--
FROM 218.247.161.*