我觉得可以保留一定量的旧数据去,跟新数据一块训练。举个例子,在alphago系列里,
为了让网络收敛更好,用的经验回放,experience replay
【 在 toxyz (toxyz) 的大作中提到: 】
: 小弟刚学机器学习
: 搭了网络,用了很多数据进行训练,在实际测试过程中,检测事件,中间有很多误报的
原始数据,这部分误报的原始数据怎么在原有的模型参数基础上进行训练? 原来的数据
集太大,不想从头开始训练,耗时太长,又怕根据误报数据重新构造的小的训练集明显影
响原来的参数。
: 这种情况怎么整呢?只训练顶层,还是有其他的好方法?
: ...................
--
FROM 1.90.254.*