他们回答的都不形象。
目前主流的人工智能模式是人工神经网络。
大模型就是大规模多层人工神经网络。
实际上非常简单。就是模拟人类大脑的构成
一个节点代表一个神经元,一个神经元通过轴突和树突与其他神经元接受和发送信息。
人工神经元的一个参数就是两个神经元之间的神经链接。
人工神经网络再60年代的时候就热过,不过当时算力很弱,只能局限于很小规模
的有限层数的网络。
随着算力的增长,现在大规模人工神经网络的训练成为可能,于是各种基于大规模神经网络的应用开始涌现
这个大规模什么概念?
人类大脑大概有10^11的神经元,10^13的神经连接
相当于10^11个节点,10^13的参数。
所以,要达到人脑复杂度,需要10万亿参数的大模型。
【 在 chunhui 的大作中提到: 】
: 哪位给科普一下。多谢。这些参数是具体指什么?参数是由什么划分出来的,根据什么来划分这些参数?
--
FROM 223.72.40.*