- 主题:yu7很有可能错过 Thor 芯片
他不是吹比亚迪的吗
【 在 WHGETKMD 的大作中提到: 】
: 错过关键部件还要说无所谓,这不是丧事喜半?
: 自己习惯了欢呼雀跃当猴王的猴子猴孙,其他人不喜欢了就说魔怔,到底谁魔怔了还不定.
--
FROM 218.247.161.*
智驾的感知算法就靠这个了。
没这个怎么识别人 车 红绿灯?
【 在 Icanread 的大作中提到: 】
: 不就是搞model inference的吗?
: 这玩意我可以明确的说,没啥卵用
--
FROM 60.27.158.*
现在e2e模型的瓶颈不在inference的速度
在模型本身的质量,还有幻觉问题
用最先进的gpu搞推理没啥实际收益
【 在 clyu1981 () 的大作中提到: 】
: 智驾的感知算法就靠这个了。
: 没这个怎么识别人 车 红绿灯?
: 【 在 Icanread 的大作中提到: 】
: : 不就是搞model inference的吗?
--
FROM 125.33.201.*
你在本版就是吹笛子,你的话,终极选择就是:比亚迪。
【 在 Icanread 的大作中提到: 】
: 你咋啥都能回归到byd头上?
: 我意思是现在的e2e的模型,用来做自动驾驶还差的有点远,用那么先进的芯片做推理,p用没有
--
FROM 124.127.200.*
非要说我吹,我吹铁锂电池
【 在 yuandao888 (yes!) 的大作中提到: 】
: 你在本版就是吹笛子,你的话,终极选择就是:比亚迪。
: 【 在 Icanread 的大作中提到: 】
: : 你咋啥都能回归到byd头上?
: : 我意思是现在的e2e的模型,用来做自动驾驶还差的有点远,用那么先进的芯片做推理,p用没有
--
FROM 125.33.201.*
速度还是不够。
【 在 Icanread 的大作中提到: 】
: 现在e2e模型的瓶颈不在inference的速度
: 在模型本身的质量,还有幻觉问题
: 用最先进的gpu搞推理没啥实际收益
--
FROM 60.27.158.*
pixel手机上配的tpu跑模型推理都没问题
除非想federated learning或者edge learning
但是这些东西本质上是客户花钱,替厂商省cloud端gpu的钱,花钱上班了属于是
【 在 clyu1981 () 的大作中提到: 】
: 速度还是不够。
: 【 在 Icanread 的大作中提到: 】
: : 现在e2e模型的瓶颈不在inference的速度
: : 在模型本身的质量,还有幻觉问题
--
FROM 125.33.201.*
@freshcool
属不属于人身攻击?
【 在 WHGETKMD 的大作中提到: 】
: 错过关键部件还要说无所谓,这不是丧事喜半?
: 自己习惯了欢呼雀跃当猴王的猴子猴孙,其他人不喜欢了就说魔怔,到底谁魔怔了还不定.
--
FROM 121.69.12.*