chatgpt就是gpt啊,diffusion model只是图像方面的应用,从突破天花板角度来看远不如gpt。
你说的问题本质上就是gpt还没做到agi就急于应用所产生的问题。这个事情属于刻舟求剑,我不想讨论,没啥意义。大概类似于年初的时候讨论stable diffusion不会画手指一样。这种低层次讨论在网上已经被重复过无数遍了。
gpt目前具备一定的逻辑能力,但不具备正常人类所需的全面的逻辑推理能力。gpt目前的逻辑能力还是更靠近直觉这一侧。用我的话来说就是高级版的模式匹配。这个就是目前gpt能力的本质。
但gpt现在展现的这个能力已经揭示了通往agi的道路。现在针对gpt的诟病无非是这么几点:
1. gpt不具备真正的逻辑推理能力(如你这贴所说)
2. gpt的训练无法脱离人类数据,无法独立前进。
3. gpt的训练已经用了全人类尺度的数据集了,那么更大规模的gpt训练所需的数据集在哪里
4. gpt的本质上就是个文本产生器,它会胡编乱造而你很难去识别它。
但我是觉得这些都不是问题。首先看几个事实:
1. 你抛一个很复杂的问题给gpt4,它大概率能正确的帮你分析整理分解为几个更简单的任务。也即gpt具备divide and conquer的能力。
2. gpt给出的回答,比如给你的程序,你可以运行然后把报错结果直接贴给它,它一样能识别错误并纠正。也即gpt具备trial and error的能力。
3. gpt plugin,把gpt和现存的各类系统桥接了起来。而这些现存的系统,事实上就起了validator的作用,同时把gpt拓展到了更广的领域。
综合以上3点,gpt可以在plugin拓展的更general的领域中,在不依赖人类数据的情况下,实现自我进化。validator,trial and error,就是一个进化方向的监督信号。divide and conquer,则是让它把模式匹配能力演化到更大更复杂场景的推进力。到了那个时候,你就很难再说它不具备逻辑推理能力,只会胡编乱造给出大量错误了。
说的更简单一点,alphago的例子就在眼前。我在很长的时间里都不能理解,为啥alpha zero从完全随机开始下棋却能获得进化。为何从随机对随机,全盘乱下的局面中,能获得下棋的有效信息。直到后来我领悟到了mcts真正的价值,它最重要的地方在于,提供了一个非常微弱的进化方向的信号。这个微弱的信号恰恰是让ai突破随机的关键。gpt现在发生的事情,也是完全一样的。
【 在 hgoldfish 的大作中提到: 】
: 你不觉得 GPT 算法的行为逻辑和 xiaoju 很像吗?都是只考虑统计学上的关联性,但是不懂得挑选样本,不使用正确的统计学方法,更没有逻辑推演的功能。经常会得出“中国人经常喝乳制品致癌风险会增加”这类健康学结论。
: 我的看法是他是非常有益的人类处理信息的助理工具,但是大多数工作仍然需要人类的干预。比如最近短视频以及 PORN 领域,已经出现了大量使用 AI 生成图片视频然后人工挑选结果的应用。
: 筛选信息这个场景我觉得不太适合,对于大多数人现有的(包含大量人工干预的)推荐算法已经足够了。对于我们这种总是希望打破信息茧房的人,GPT 算法不止带来茧房还可能给出大量错误的信息提高识别的代价不如不要。
: ...................
--
FROM 180.111.25.*