- 主题:告诉你们为啥现在放FSD进来
啥技术也处理不了if else之外的场景,不想稀里糊涂没命,就踏踏实实自己开,把那些当作个辅助工具。
说个昨天高速的事:飞来一个塑料袋。
这要是吸在前面的摄像头上,你说智驾是刹停呢,还是继续开?
【 在 langmanyixia 的大作中提到: 】
: 视觉+毫米波雷达的问题在,二者出矛盾的时候到底听谁的
: 这在技术上无法实现
: 而不是成本增加
: ...................
--
FROM 114.253.36.*
对。 但意外的场景程序员自己都还没有想到。比如隔壁或对向车道的车压了一滩泥,恰好飞来的泥点子盖住了你的全部的2,3个摄像头。
if else 只能处理有限场景。像问界撞大公交,它应该是识别到了吧,但傻眼了,else里面不包括这种这个庞然大物啊。
【 在 S030371 的大作中提到: 】
: 智驾不可能只有一个摄像头
--
修改:fhn FROM 114.253.36.*
FROM 114.253.36.*
什么深度,参数,模型,训练都是扯蛋,没啥大用。
识别完成了就到了执行动作的程序,不是if就是else,一旦都不是,智驾就傻眼,按最后统一的一个方案去处理,听天由命吧。
程序永远不像人灵活,它只能做有限的规定动作。
【 在 whistlingMe 的大作中提到: 】
: ... 至少类似,(实际上我认为深度学习比人类大脑上限更高)端到端深度学习, 视力可以解决90%没问 ...
--
FROM 114.253.36.*
训练,模型都是离线干的事,即时场景下识别和决策都是if else语句, 只能处理有限场景。
else不包括的场景智障必然傻眼。视觉,激光都只是增加识别成功率,但if层数是有限的,它和人没法比灵活性。
实际是啥情况都有,还见过引擎盖没扣上,高速给吹翻起来的。
L2就是L2
【 在 whistlingMe 的大作中提到: 】
: 和算力没关系,最初级手机能跑的模型都能处理多种输入。
: 有关系的是数据,只有训练数据量够,模型自然会学会怎么平衡视觉、激光、声波。
: 大脑走路时同时利用视觉和听力,也就小脑里很小一部分算力而已。
: ...................
--
修改:fhn FROM 114.253.36.*
FROM 114.253.36.*
那你车上的8295上跑的是什么指令,除了顺序执行的,不就是跳转吗,最后一个分支判断完了去哪里?
训练可以离线,现场 是实时处置。
【 在 whistlingMe 的大作中提到: 】
: 你去随便选个机器学习教程,运行教程里的第一个demo,看看有没有if else
: 即使没有端到端模型的上古时代,真用if else时,多加传感器也从来没有降低过系统准确率。
: 只是端到端时代还可以大幅提高多传感器的优势
: ...................
--
FROM 114.253.36.*
8295上跑的是固化的arm汇编指令,简化一下,就是顺序语句和if,这些 if只能处理有限场景,程序是固化的,不可能处理程序员都没有想到的场景,而人可以灵活些。
这是我的观点。和图灵,高维没关系,不用扯那么远,
【 在 whistlingMe 的大作中提到: 】
: …即使只有一层的机器学习模型,也至少是个高维的线性方程组,深层加入激活函数后的模型完全是黑盒子了。
: 如果你能说清楚模型内部怎么构造if else的,那随随便便拿个图灵奖,鉴于去年情况,现在诺贝尔奖也有可能了
:
--
FROM 114.253.36.*
任何程序都可以在8295上跑,她就是个CPU。
我说的是跑在CPU上的智障程序只能处理有限场景。
不再回复了。你找个做板子的人问问吧。
【 在 whistlingMe 的大作中提到: 】
: 有关系,DeepSeek用8295都能跑,就是特别特别慢而已。
: 机器学习几十年多少人都在搞明白这问题
--
FROM 114.253.36.*