- 主题:fsd应该是稳了,问题是接下来国内哪家车企率先授权使用?
极狐FSD,太美了…
【 在 interbin 的大作中提到: 】
: [upload=1][/upload]
--
FROM 219.237.183.*
哪能是转进啊,看标题…
【 在 wsnsw 的大作中提到: 】
: 你怎么转进到极狐的?
--
FROM 219.237.183.*
就算现在谈,sop基本需要3年才能量产一款车。
就算有,大概率是合资车先用,比如通用。国企就是我自己纯粹美好愿望而已(当然很可能冒犯到各位,抱歉)…
【 在 wsnsw 的大作中提到: 】
: 他那套系统不需要芯片兼容么?
--
FROM 219.237.183.*
不用,参考泊车雷达,安上标定下就行,传感器都是变化到bev视角下做识别的。主要是新车型研发量产周期长。
【 在 wsnsw 的大作中提到: 】
: 至少要特斯拉自己车型先跑得差不多才行吧
--
FROM 219.237.183.*
90%一致,剩下finetune模型就行,哪怕6个月一个版本,3年够发6版模型了。也就是说,所有hw3用一个小模型,hw4用一个稍大的模型就可以。
如果模型还要分车型,真的累死。
【 在 wsnsw 的大作中提到: 】
: 它不是端到端么,有没有可能它会认为老外跟亚洲人不是同一种东西
--
FROM 219.237.183.*
哈哈,我激动了下,感觉冒犯到w兄了,8楼解释了下。
另外几个,应该是组织行为,搜:《极狐4s店广告拉踩特斯拉被罚》
【 在 litra 的大作中提到: 】
: 几个胡吹哭晕在厕所
--
FROM 219.237.183.*
这么讲就理解了吧…
【 在 litra 的大作中提到: 】
: [upload=1][/upload]
: 你是说这个吧
--
FROM 219.237.183.*
临港很多算力大楼,众多公司出租算力。
【 在 wsnsw 的大作中提到: 】
: 还有就是数据存放现在合规了,但是它的算力在美国,纯粹的端到端方案,数据要去算力上过一遍,这个它怎么弄
--
FROM 223.104.41.*
上海那,光商汤一个楼的算力就3E了。Dojo基本算是失败的产品了,成本是H100的几倍
,可能建了几个E,主要还是H100也说不定,100E可能性有,不大;现在老马只是说算力
不再是约束问题,以及每几个月算力翻倍,每年x10这类的话,已经淡化dojo了。
H100这种,最低都是按周来计费的,v12这种端到端,训练模型其实不难,算力也可以裁
剪的,比如不训练不活跃梯度(这也是国内大模型finetune的主要思路)。最难的还是数
据集,这些都是要更大更好的模型来筛数据的,早在v10阶段,tsl的标注算力就有
500-600P的算力了,仅次于小鹏的训练用算力。v12这种估计会更加消耗算力,2022年tsl
开始搞端到端,计算资源很缺,大概用了8个月老马才直播,不知道demo阶段模型迭代了
几轮。
已经给德国官员demo了,感觉v12还行,国内有可能finetune几次就可以用了,但效果只
能说达到美国的百分之多少,等国内E2E跟上,继续被吊打也是有可能的。毕竟东数西算
,几年内会发生很多事情,国内算力互相很难拉开差距,迭代速度没差异,很难说互相能
差多少。
【 在 wsnsw 的大作中提到: 】
: Dojo今年10月份说算力要达到100E,
: 3月份的一个报道,临港可调度的算力规模是3E,
: 不清楚它的端到端需要多少算力,是连续使用,还是隔几天跑一遍用几个小时。
: ...................
--
FROM 114.246.99.*
nv的a100都不让卖,只能买垃圾的L40这类的,或者用国产的如910b(可能性为0)。
ps: L40、4090都不让卖了。。。
【 在 lalula 的大作中提到: 】
: 让tesla自己想办法在国内布一套呗
: 多大点事
--
修改:hsv FROM 114.246.99.*
FROM 114.246.99.*