- 主题:用ChatGPT设计一门新语言
ChatGPT还只是gpt3的模型,要是gpt4出来还不逆天,参数达到人类规模,但人类大脑只开发了10%,那他至少超人类10倍,人类的输入输出带宽很窄。
--
FROM 223.94.44.*
【 在 lvsoft 的大作中提到: 】
: 前半句同意,但后面开始都是误传...
: gpt4不会达到100T参数规模,人类大脑也并不是只开发了10%,而且一个ai网络参数也不能等于人脑一个突触...
: 总的来说按照目前ai工业界发展速度,达到人脑规模还是需要10年的,没那么快。
: ...................
人脑的神经网络组网方式肯定不是最优解(受限于人脑的形状),模拟训练的还可以不断调整进步,后续再出自我调整模型连接,再加上训练带宽不知是人的多少倍(量变带来质变),会很快突破的,担心奇点到来后ai一骑绝尘人类该如何生存。
--
FROM 223.94.44.*
【 在 lvsoft 的大作中提到: 】
: 啊这个你应该不太了解情况吧...
: 事实上现在用计算机实现的ai也不是最优解,人脑的模式才是更好的方向。所以还有个快速发展的领域叫类脑计算。
: 原因是现在的计算机还是冯机那一套,有大量数据搬运的开销,浪费了大量的能量,所以对于目前的AI来说这个反而是目前的一大短板。所以你光说带宽高是没意义了,事实上ai并不需要高带宽。只是把ai跑在冯机上需要而已。
: ...................
浪费能量就训练一个通用模型也是可接受的,现在计算机上肯定不是最优解,但有很大改进空间,人脑模式肯定只是大脑这种形状的局部最优解,离最优解肯定也差的很远,而且功率小,高带宽有很大意义啊,人18年的训练,机器1秒不到就学会了,各种知识融汇贯通会量变引起质变的。
--
FROM 223.94.44.*
【 在 lvsoft 的大作中提到: 】
: 怎么可能机器1秒就学会人18年的训练...
: GPT3的训练代价大概是128张A100卡和1年的时间。训练的数据量也只是45TB而已。
: 你人活18年就只产生45TB数据么?你的眼睛相当于600万像素的相机,帧率算是10fps,你睁开眼一秒就会产生1.34G的数据,两只眼睛还要乘以2好不好。这还只是视觉,触觉,听觉等等其他感官也都是时刻产生巨量数据的。你真以为人的带宽很低啊?那个只是语言的IO带宽很低罢了。
: ...................
128张卡而已,要是再多1000倍呢,你眼睛600万像素大多是无用信息,你在训练么,你最多只是在推理而已,大多数时间推理都没推。
--
FROM 223.94.44.*
所以我说你不是一直在训练,你产生的训练数据其实很少的,只做识别,电脑的核显都够了。不争了,大家都是期待ai带来美好生活
--
修改:nsyncxyz FROM 223.94.44.*
FROM 223.94.44.*