- 主题:为啥现在特斯拉的自动驾驶很尴尬,从CVPR2023最佳论文说起
文本生成,有99%的准确率是可以接受的,因为就算人说话也经常口误。
但自动驾驶只有99%的靠谱率是没法用的,会出人命。
大模型在很多任务的性能上有提升,但其不可解释的问题愈发严重;即使它能在技术上实现AGI的性能要求,但因为不可解释,也会有很大的失控风险。这是一条邪路。
【 在 whistlingMe 的大作中提到: 】
: CVPR基本上可以说是人工智能世界第一会,今年的最佳论文是上海AILab的自动驾驶方向《UniAD Planning-oriented Autonomous Driving》含金量不必多说,特斯拉也往这个会投很多论文哦。
: 这论文就是做了个端到端的自动驾驶方案,从各种传感器输入信号到系统,不用人工的规则,直接输出驾驶指令,效果远超过之前传统人工编码组合的系统。当然端到端这个方案一直都有,问题是之前效果就是不好,UniAD超越了,所以被奖励,其中怎么做的技术细节就不说了。
: 这事其实和ChatGPT也有些联系,因为ChatGPT几乎给全世界做人工智能的研究人员洗了脑:Bigger is Better(当然真正的研究员在21年GPT3就被震撼了),越大就是越好,效果不好就是因为模型还不够大,算力还不够多,看今年有多少做自动规划的论文中引用了大模型和这个理念就知道了。
: ...................
--
FROM 221.196.254.*
这是扯淡。很多人类驾驶员一辈子没出过大问题,什么程序能超过他们?反观程序,如果在某个case上出问题了,遇到同样的case就永远会出问题,因为它是程序。卖明知有安全bug的自动驾驶程序,在法理上根本行不通。但不可解释的大模型,根本没法消除所有bug。
【 在 haiyy 的大作中提到: 】
: 自动驾驶不需要百分百的无事故,只要准确率超过人就可以。
: 人驾驶汽车时最大的问题就是注意力不够集中,而这恰是现在大模型底层技术的强项。
: 对于现在人还较有优势的场景判断问题,只要训练数据足够多,自动驾驶肯定会越来越准确。
--
FROM 221.196.254.*
呵呵
【 在 KReutter 的大作中提到: 】
: 反观程序,如果在某个case上出问题了,遇到同样的case就永远会出问题,因为它是程序。
: 你这个认知就是完全错误的。。。
: :
--
FROM 221.196.254.*