你这个分析的好,有道理。后台数据绝不是这么几条,肯定是有选择的挑出来的。
真正的数据,时间间隔应该是固定的,并且间隔很小才对。
一般数据应该会暂存本地一份,上传一份。本地是滚动删除的,删除间隔应该会很大,比如半年,至少也得是一个月,因为这类文本数据本来就没有多大,特别是本地存储,也会是压缩方式保存,这就更小了。
所以等着看特斯拉提供的数据吧。
【 在 motour 的大作中提到: 】
: 以某车的can log为例,我挑三个信号出来放大。车速、加速踏板、刹车踏板。什么时候踩的电门,什么时候踩的油门,对应什么车速,踩的力度多少,是不是都非常清晰?
:
: [upload=1][/upload]
: ...................
--
FROM 175.190.122.*