【 在 feng321 的大作中提到: 】
: 我算了,2.56 ,其中的小数 0.56 的二进制是"0.100011110101110000101000"(精确到23位二进制小数),然后这个"0.100011110101110000101000" 转换成十进制是“0.559999942779541”,但是python输出是“2.559999942779541015625000000000”,前面几位都是对的,但是为何多了“015625”,不是说好的用23位存储小数吗?十 转二,再转十,怎么就多了“015625”?
你使用的什么版本的python, 如果你安装的64为python, 那么转换出来的float默认是64位的,
因此, 你的所谓torch.float32 转成 python float 并不是按你的想象转换的。
--
FROM 124.126.2.*