是因为训练方法。
神经网络,刨去模型结构和容量的影响,它的表现基本取决于训练数据集。
所以反证一下,如果手上有一个模型A,用它产生数据,然后经过训练得到了一个“克制”它的模型B;
训练会就此停止吗?
显然不会。
一种方法是把B产生的数据加入原来的数据集中一并训练,这样就得到了一个“克制”A和B的模型C;然后再把C产生的数据也加入训练集,又得到了“克制”A、B,C的模型D;
依次迭代下去,得到EFGH...直到数据集达到某个尺寸,把原来A产生的数据挤出去。然后是B,C...
更近一步的想法是,不那么急着把A换出去,随机的保留一些老模型,只有新模型对这些老模型的胜率都提升了,才把新模型产生的数据加入训练集。
前一种方法叫AlphaZero,后一种叫AlphaStar.
【 在 haili (人尔有窍 风吹为籁) 的大作中提到: 】
: 标 题: Re: AI权重之间有没有克制现象?
: 发信站: 水木社区 (Sun Jan 17 17:09:44 2021), 转信
:
: 哦,是不是超出某个水平了就没啥相克了?
:
: 或者是因为AI太稳定
:
: 【 在 GunL 的大作中提到: 】
: : 没有。
: :
:
: --
:
: ※ 来源:·水木社区
http://www.newsmth.net·[FROM: 221.221.94.*]
--
FROM 223.72.70.*