- 主题:越来越多的人对大模型和数据驱动的端到端产生了质疑
就是机器有自学能力
【 在 yshuo 的大作中提到: 】
: 谁能给解释一下什么叫端到端,总听但不太明白
--
FROM 120.245.22.*
可以理解为在线训练吗?
【 在 SSJ100 的大作中提到: 】
: 就是机器有自学能力
--
FROM 114.246.239.*
李想原话是 理想的是自动驾驶,不是智能驾驶,更牛逼
【 在 wangstone 的大作中提到: 】
: 怎么 不说想撞都难和发明主动安全你有点不适应?
:
--
FROM 120.244.237.*
siri很聪明嘛?
苹果团队在llm领域做了点啥成就嘛?
苹果为啥不用自己的ai团队,要跟openai合作?
一个没啥成就的团队发的论文有啥好看的。
况且自动驾驶领域和llm可以说除了大家都是transformer外,基本一毛钱关系都没有。
何况这种质疑根本就谈不上越来越多,恰恰相反从llm展露头角的gpt3时代开始就有茫茫多的人在质疑这个,哪怕至今yann lecun都在质疑这个,只不过自从进入chatgpt时代开始,质疑这个的人越来越少了。
最后要说是质疑的人多还是信的人多,很简单看资金在干嘛就行了。
现在的全球的资本都在发了疯一样买nvidia的卡,难不成是为了打游戏嘛。
【 在 qtpr 的大作中提到: 】
: 例如最近苹果团队发了一个文(附图1),结论是“大模型”并没有真正学会推理。最简单的例子,把一些小学水平应用题中的主角从Alice改成Bob,大模型的“计算”正确率就可能显著下降。这说明大模型并不真正理解应用题的题意,而只是机械地死记硬背了若干应用题而已。而且死记硬背得非常蹩脚,连主角改名这个trick都能让大模型失控。这种水准的智能,跟智障有何区别呢,呵呵。
: 另外,最近最近nature也有一篇论文(附图2),看题目就一目了然了——“大模型不可靠”。
: 做语言应用这种对准确率的要求不那么高的任务,都错漏百出可用性很差。这样的架构去做对可靠性要求很高的自动驾驶?呵呵
: ...................
--
修改:lvsoft FROM 222.68.50.*
FROM 222.68.50.*
智驾能在每次出事前精准退出还不够智能吗?
【 在 qtpr 的大作中提到: 】
: 例如最近苹果团队发了一个文(附图1),结论是“大模型”并没有真正学会推理。最简单的例子,把一些小学水平应用题中的主角从Alice改成Bob,大模型的“计算”正确率就可能显著下降。这说明大模型并不真正理解应用题的题意,而只是机械地死记硬背了若干应用题而已。而且死记硬背得非常蹩脚,连主角改名这个tric
: ..................
发自「今日水木 on ELS-AN10」
--
FROM 111.192.247.*
没有主子,也不能见人就咬。
狗咬人还分一下好人坏人啊。
【 在 qtpr 的大作中提到: 】
: 什么叫找错对象?任何厂家吹端到端和数据驱动,都是过度宣传,懂吗。
: 我跟你不一样,没主子。我只是消费者,懂吗。
:
--
FROM 39.144.139.*
扯淡
【 在 SSJ100 的大作中提到: 】
: 就是机器有自学能力
--
FROM 111.167.232.*
@nolonger
人身攻击
【 在 qq330662353 的大作中提到: 】
: 没有主子,也不能见人就咬。
: 狗咬人还分一下好人坏人啊。
:
--
FROM 111.167.232.*
你说别人没事。
我陈述事实,你认为是在说你。
@nolonger
【 在 qtpr 的大作中提到: 】
: @nolonger
: 人身攻击
:
--
FROM 39.144.139.*
人工智障,只能干些二傻子的事情
【 在 qtpr 的大作中提到: 】
: 例如最近苹果团队发了一个文(附图1),结论是“大模型”并没有真正学会推理。最简单的例子,把一些小学水平应用题中的主角从Alice改成Bob,大模型的“计算”正确率就可能显著下降。这说明大模型并不真正理解应用题的题意,而只是机械地死记硬背了若干应用题而已。而且死记硬背得非常蹩脚,连主角改名这个trick都能让大模型失控。这种水准的智能,跟智障有何区别呢,呵呵。
: 另外,最近最近nature也有一篇论文(附图2),看题目就一目了然了——“大模型不可靠”。
: 做语言应用这种对准确率的要求不那么高的任务,都错漏百出可用性很差。这样的架构去做对可靠性要求很高的自动驾驶?呵呵
: ...................
--
FROM 101.230.84.*