- 主题:搞定了深度强化学习
结合了我自己的模型做特征提取,然后强化学习训练agent。效果还是很满意的,如图这个股票002761,数据取了20190101开始的,即使只是120个epochs,结果收敛的还不错,rewards是给agent的奖励,success是成功达到的次数,fail是失败的次数,miss是错失机会的次数。我这个强化学习模型不是像大多数人做的那种对一个股票进行交易的模式,而是训练agent找涨幅大,避免损失的模式。
这和我之前只用自己的模型操作观察到的方向是一致的,所以我对这个强化学习的结果还是觉得可信的
--
修改:beardao FROM 101.86.215.*
FROM 101.86.215.*

【 在 beardao 的大作中提到: 】
: 结合了我自己的模型做特征提取,然后强化学习训练agent。效果还是很满意的,如图这个股票002761,数据取了20190101开始的,即使只是120个epochs,结果收敛的还不错,rewards是给agent的奖励,success是成功达到的次数,fail是失败的次数,miss是错失机会的次数。我这个强化学习模型不是像大多数人做的那种对一个股票进行交易的模式,而是训练agent找涨幅大,避免损失的模式。
: 这和我之前只用自己的模型操作观察到的方向是一致的,所以我对这个强化学习的结果还是觉得可信的
收敛这只能说明算法会学习,
至于学来的东西是拟合噪音, 还是规律只有通过测试集测试才行啊
--
FROM 124.126.1.*
10万实操一下,让大家开心开心。
【 在 beardao 的大作中提到: 】
: 结合了我自己的模型做特征提取,然后强化学习训练agent。效果还是很满意的,如图这个股票002761,数据取了20190101开始的,即使只是120个epochs,结果收敛的还不错,rewards是给agent的奖励,success是成功达到的次数,fail是失败的次数,miss是错失机会的次数。我这个强化学习模型不是像大多数人做的那种对一个股票进行交易的模式,而是训练agent找涨幅大,避免损失的模式。
: 这和我之前只用自己的模型操作观察到的方向是一致的,所以我对这个强化学习的结果还是觉得可信的
--
FROM 68.97.41.*
那肯定测试过咯。
【 在 poggy 的大作中提到: 】
:
: 收敛这只能说明算法会学习,
: 至于学来的东西是拟合噪音, 还是规律只有通过测试集测试才行啊
--
FROM 101.86.215.*
我又不融资,搞啥实盘。发个帖子只是说说强化学习是个好东西,但市面上的用法不一定对,另外关键在于要有好的思路做特征提取
【 在 cafitren 的大作中提到: 】
: 10万实操一下,让大家开心开心。
:
--
FROM 101.86.215.*
训练数据试试2015年6月至2018年2月的数据。预测时段选2018年3月至2019年1月。看会不会扑街
【 在 beardao 的大作中提到: 】
: 结合了我自己的模型做特征提取,然后强化学习训练agent。效果还是很满意的,如图这个股票002761,数据取了20190101开始的,即使只是120个epochs,结果收敛的还不错,rewards是给agent的奖励,success是成功达到的次数,fail是失败的次数,miss是错失机会的次数。我这个强化学习模型不是像大多数人做的那种对一个股票进行交易的模式,而是训练agent找涨幅大,避免损失的模式。
: 这和我之前只用自己的模型操作观察到的方向是一致的,所以我对这个强化学习的结果还是觉得可信的
: --
: ...................
--
FROM 114.246.98.*
羡慕
--
FROM 106.226.61.*
我甚至试过从2006年开始到最新的交易日的训练测试,DRL都能Handle。
我不仅测试过DRL,还测试过LSTM, LSTM+ATTENTION,XGBOOST, CATBOOST,LSTM+ATTENTION+XGBOOST,目前看,至少针对我提取出的特征的话,DRL最管用,但是单一的一个DRL策略不是很够(至少针对我的交易风格,我是日交易模式,所以需要对每一日的预测准确率非常高才行),我现在都是几个DRL集成起来加些trick才能达到我的要求。
【 在 blueglare 的大作中提到: 】
: 训练数据试试2015年6月至2018年2月的数据。预测时段选2018年3月至2019年1月。看会不会扑街
--
FROM 101.228.28.*
牛。请问实盘绩效如何?盈亏比、最大回撤、pf等
【 在 beardao 的大作中提到: 】
: 我甚至试过从2006年开始到最新的交易日的训练测试,DRL都能Handle。
: 我不仅测试过DRL,还测试过LSTM, LSTM+ATTENTION,XGBOOST, CATBOOST,LSTM+ATTENTION+XGBOOST,目前看,至少针对我提取出的特征的话,DRL最管用,但是单一的一个DRL策略不是很够(至少针对我的交易风格,我是日交易模式,所以需要对每一日的预测准确率非常高才行),我现在都是几个DRL集成起来加些trick才能达到我的要求。
:
: ...................
--
FROM 114.254.1.*
有没github 代码学习下
【 在 beardao 的大作中提到: 】
: 我甚至试过从2006年开始到最新的交易日的训练测试,DRL都能Handle。
: 我不仅测试过DRL,还测试过LSTM, LSTM+ATTENTION,XGBOOST, CATBOOST,LSTM+ATTENTION+XGBOOST,目前看,至少针对我提取出的特征的话,DRL最管用,但是单一的一个DRL策略不是很够(至少针对我的交易风格,我是日交易模式,所以需要对每一日的预测准确率非常高才行),我现在都是几个DRL集成起来加些trick才能达到我的要求。
:
--
FROM 113.91.211.*