- 主题:现在完全可以用ai编Python了啊。。
参数再上一个数量级能解决这个问题吗?
今年的 LLM 比去年强大很多了啊。去年各种扮我奶奶的 BUG 好多。
【 在 lvsoft 的大作中提到: 】
: 很快就不存在这个问题了。
--
修改:hgoldfish FROM 110.84.123.*
FROM 110.84.123.*
可以做针对编程的特定优化,各种RAG用起来
【 在 hgoldfish 的大作中提到: 】
: 参数再上一个数量级能解决这个问题吗?
: 今年的 LLM 比去年强大很多了啊。去年各种扮我奶奶的 BUG 好多。
--
FROM 114.248.219.193
不是参数,现在用强化学习训练了。简单的说有点类似alphago早期和alphago zero的区别。前者基于人类知识和经验,后者完全抛弃人类知识,完全基于自己推理演绎。
对于gpt来说,现在的gpt4o就是前者,基于记忆,联想,直觉训练和给出答案。就跟人下意识拍脑袋的回答一样,只有相关性,往往禁不起推敲。
强化学习的版本叫gpt o1,不再基于相关性,而是基于推理,逻辑和因果性。现在已经可以用了,只不过配额很少一周只有30次对话。据说在编程,数学等需要强逻辑的领域,遥遥领先之前的版本。(大概百分之十几的正确率 vs 百分之七八十的正确率)
有人测试过把今年的高考数学卷丢进去,直接拿了满分。而且用的还是o1-mini。
简单的说,通往AGI的道路现在已经没有任何障碍了。大家祈祷吧。
【 在 hgoldfish 的大作中提到: 】
: 参数再上一个数量级能解决这个问题吗?
: 今年的 LLM 比去年强大很多了啊。去年各种扮我奶奶的 BUG 好多。
:
--
修改:lvsoft FROM 222.68.50.*
FROM 222.68.50.*
我觉得过于乐观了
【 在 lvsoft 的大作中提到: 】
: 不是参数,现在用强化学习训练了。简单的说有点类似alphago早期和alphago zero的区别。前者基于人类知识和经验,后者完全抛弃人类知识,完全基于自己推理演绎。
: 对于gpt来说,现在的gpt4o就是前者,基于记忆,联想,直觉训练和给出答案。就跟人下意识拍脑袋的回答一样,只有相关性,往往禁不起推敲。
: 强化学习的版本叫gpt o1,不再基于相关性,而是基于推理,逻辑和因果性。现在已经可以用了,只不过配额很少一周只有30次对话。据说在编程,数学等需要强逻辑的领域,遥遥领先之前的版本。(大概百分之十几的正确率 vs 百分之七八十的正确率)
: ...................
--
FROM 123.123.153.47
能满分是不是因为网络上本身就有准确答案,它只是搬运工
【 在 lvsoft 的大作中提到: 】
: 不是参数,现在用强化学习训练了。简单的说有点类似alphago早期和alphago zero的区别。前者基于人类知识和经验,后者完全抛弃人类知识,完全基于自己推理演绎。
:
: 对于gpt来说,现在的gpt4o就是前者,基于记忆,联想,直觉训练和给出答案。就跟人下意识拍脑袋的回答一样,只有相关性,往往禁不起推敲。
:
: 强化学习的版本叫gpt o1,不再基于相关性,而是基于推理,逻辑和因果性。现在已经可以用了,只不过配额很少一周只有30次对话。据说在编程,数学等需要强逻辑的领域,遥遥领先之前的版本。(大概百分之十几的正确率 vs 百分之七八十的正确率)
:
: 有人测试过把今年的高考数学卷丢进去,直接拿了满分。而且用的还是o1-mini。
:
: 简单的说,通往AGI的道路现在已经没有任何障碍了。大家祈祷吧。
:
: :
: --
发自「今日水木 on 2206122SC」
--
FROM 58.212.232.*
数学题改变参数排列组合是无穷多的, 能识别出应该怎么改变参数套用方法, 也等于是掌握了
【 在 win2012 的大作中提到: 】
能满分是不是因为网络上本身就有准确答案,它只是搬运工
【 在 lvsoft 的大作中提到: 】
: 不是参数,现在用强化学习训练了。简单的说有点类似alphago早期和alphago zero的区别。前者基于人类知识和经验,后者完全抛弃人类知识,完全基于自己推理演绎。
:
: 对于gpt来说,现在的gpt4o就是前者,基于记忆,联想,直觉训练和给出答案。就跟人下意识拍脑袋的回答一样,只有相关性,往往禁不起推敲。
:
: 强化学习的版本叫gpt o1,不再基于相关性,而是基于推理,逻辑和因果性。现在已经可以用了,只不过配额很少一周只有30次对话。据说在编程,数学等需要强逻辑的领域,遥遥领先之前的版本。(大概百分之十几的正确率 vs 百分之七八十的正确率)
:
: 有人测试过把今年的高考数学卷丢进去,直接拿了满分。而且用的还是o1-mini。
:
: 简单的说,通往AGI的道路现在已经没有任何障碍了。大家祈祷吧。
:
: :
: --
发自「今日水木 on 2206122SC」
--
FROM 114.253.35.*
还得学吧,如果AI给的代码有bug或者不够优化你得能看出来啊
【 在 dmyk 的大作中提到: 】
: 都不用掌握具体的语言
: 语言要消失了
: --
:
发自「今日水木 on iOS」
--
FROM 103.85.166.*
不是参数的问题,而是如何协调先验知识和概率的关系的问题
【 在 hgoldfish 的大作中提到: 】
: 参数再上一个数量级能解决这个问题吗?
: 今年的 LLM 比去年强大很多了啊。去年各种扮我奶奶的 BUG 好多。
--
FROM 39.149.15.*
一般来说,一个很专业的回复,不会考虑不到这么naive的情况。
之所以不说,是因为没必要。
【 在 win2012 的大作中提到: 】
: 能满分是不是因为网络上本身就有准确答案,它只是搬运工
: 发自「今日水木 on 2206122SC」
--
FROM 222.68.50.*
乐观不乐观,反正现在就可以用,自己用下试试呗
另外这句通往agi的道路已经没有任何阻碍也不是我说的,是openai的人说的。
事实上强化学习这条路大家已经都认同为新的方向了。Claude的sonnet 3.5之所以能反超gpt4o,就是走的这条路。新的演化已经开始了
【 在 annals 的大作中提到: 】
: 我觉得过于乐观了
:
--
修改:lvsoft FROM 222.68.50.*
FROM 222.68.50.*