- 主题:为什么说特斯拉的行车数据是遮掩的,挑选的,并且美化的
巧妙啊,又显得精确到了毫秒,又天然带着口述的不准确性
处处透着狡猾
【 在 platessa 的大作中提到: 】
: 那是口头报的记录吧
--
FROM 120.245.28.*
这可不一定,一般行车记录仪的系统和powertrain的系统是完全两套。要我设计,肯定是adas一套封闭网络,infotainment一套,adas把数据单向发布给info。powertrain单独系统还要故意隔离开,因为safety level都不一样。tesla肯定有数据截取的设计,但是截的数据有多细致真不好说。
【 在 motour 的大作中提到: 】
: 知乎汽车公开发出了碰撞瞬间视频数据消失的问题
: 低级猜测是有一个截取原始数据的逻辑在工作,而特定版本存在bug,是真的截取了……
: 如果视频能截取,这点can信息比视频体积小多了。完整记录,循环覆盖,碰撞阶段的数据上传,不是不可能的。
: ...................
--
FROM 178.26.114.*
pt上的信号,走网关,走给记录仪,是记录不到这种毫秒粒度的
特斯拉所公布的,是pt级别的数据,至少是100hz以上采样率的UDS才能完成的
【 在 moudy 的大作中提到: 】
: 这可不一定,一般行车记录仪的系统和powertrain的系统是完全两套。要我设计,肯定是adas一套封闭网络,infotainment一套,adas把数据单向发布给info。powertrain单独系统还要故意隔离开,因为safety level都不一样。tesla肯定有数据截取的设计,但是截的数据有多细致真不好说。
--
FROM 120.245.28.*
网上公布的所谓“数据”
是维权女通过电话录音整理出来的
当然不可能是你说的这样曲线
【 在 motour (motour) 的大作中提到: 】
: 以某车的can log为例,我挑三个信号出来放大。车速、加速踏板、刹车踏板。什么时候踩的电门,什么时候踩的油门,对应什么车速,踩的力度多少,是不是都非常清晰?
:
:
:
--
FROM 117.136.38.*
你这个分析的好,有道理。后台数据绝不是这么几条,肯定是有选择的挑出来的。
真正的数据,时间间隔应该是固定的,并且间隔很小才对。
一般数据应该会暂存本地一份,上传一份。本地是滚动删除的,删除间隔应该会很大,比如半年,至少也得是一个月,因为这类文本数据本来就没有多大,特别是本地存储,也会是压缩方式保存,这就更小了。
所以等着看特斯拉提供的数据吧。
【 在 motour 的大作中提到: 】
: 以某车的can log为例,我挑三个信号出来放大。车速、加速踏板、刹车踏板。什么时候踩的电门,什么时候踩的油门,对应什么车速,踩的力度多少,是不是都非常清晰?
:
: [upload=1][/upload]
: ...................
--
FROM 175.190.122.*
数据上传应该不是完全实时的,应该是本地先存储,然后压缩上传。至于时间间隔,可能是一分钟或几分钟。
这些信息没有多大的,都是一些文本的数据,压缩后就更小了。所以保存即使再多的数据也是完全无压力的。
【 在 moudy 的大作中提到: 】
: 基本同意你的观点,但是我深刻怀疑tesla有没有随时随地记录车总线的数据
: 这些数据基本5ms到10ms更新一次,一辆车光CAN总线就十几条,tesla这类新型车还有以太网backbone,想完整记录数据难度其实不小。tesla公布的这些估计都是从uds里抓出来data identifier,离CAN总线原始数据差好多
: 这也是我在另外一个帖子里说tesla应该ota一个有余力的ecu来记录这些数据
--
FROM 175.190.122.*
上传是要花钱的。几百万辆车,每辆车每天上传1M数据就是几T的数据。我给厂家做过上传数据的项目,那真是一个字节一个字节的算的,远没有你想的那么舒服。
本地滚动啥的说明你不知道车上这些ECU是啥级别。
比如当前雷达处理用的S32R274, 对一般的ECU需求来说已经是很nb的CPU了,双核180MHz, 2M(没错2048K)闪存,1.5M内存
https://www.nxp.com/products/processors-and-microcontrollers/power-architecture/s32r-radar-mcus/s32r26-and-s32r27-microcontrollers-for-high-performance-radar:S32R2X
你电脑上玩的DDR内存,NVME固态硬盘都是消费级设计,不能拿来装车的。
【 在 hellogg 的大作中提到: 】
: 你这个分析的好,有道理。后台数据绝不是这么几条,肯定是有选择的挑出来的。
: 真正的数据,时间间隔应该是固定的,并且间隔很小才对。
: 一般数据应该会暂存本地一份,上传一份。本地是滚动删除的,删除间隔应该会很大,比如半年,至少也得是一个月,因为这类文本数据本来就没有多大,特别是本地存储,也会是压缩方式保存,这就更小了。
: ...................
--
FROM 213.95.148.*
这个所谓数据是特斯拉售后经理2月份口头告知女车主的,并不是官方公布的完整数据
等6点之后再来分析吧
--
FROM 210.12.231.*
就这6秒的数,这么多玄机。6点之后,交给监管机构的,大概率依然是人工挑选、隐藏过的。
【 在 visualarts 的大作中提到: 】
: 这个所谓数据是特斯拉售后经理2月份口头告知女车主的,并不是官方公布的完整数据
: 等6点之后再来分析吧
--
FROM 120.245.28.*
何不自信点把大概率三个字去掉?
预设立场就没劲了
【 在 motour 的大作中提到: 】
: 就这6秒的数,这么多玄机。6点之后,交给监管机构的,大概率依然是人工挑选、隐藏过的。
--
FROM 210.12.231.*