a和b叫参数,超参数应该是训练前定的参数,比如iteration_num和学习速度a
【 在 alwaysfaint (熊二出没) 的大作中提到: 】
: 虽然是搞这个领域的,但仍然觉得说不太明白,不太好给别人科普
: 举个最简单例子,我们假定神经元就是两输入一个输出a*x1+b*x2=y,输入是两个x,输出是一个y
: 现在我要学习一下,有100组x1,x2和y,迭代99次,得出了a和b,别想的那么绝对,这种一元二次方程无解之类的问题。那么好,我们假定最终结果是a=1.1,b=2.2,这两个数字就是学习之后的超参数,反正我是学完了,超参数数量就是两个,只要我日后不再继续学习,超参数的值和数量都不变了,这就是个神经网络。
: 一般模型呢,也无非就是加减乘除卷积池化变点花花样,这些也不重要,重要的是轻量级的模型设计好了,层数就这么多,每层的参数(学好了就是超参)就固定了,参数越多,系统约复杂,对输入的感知约模糊(嗯,不可名状)。另外还有迭代的次数,迭代的越多,见识就越广;然后模型做的越来越大。貌似一切都在向着好的方向发展,机器可以超越人类
--
FROM 39.144.45.*