我觉得这跟一开始产生/收集数据的方式也有一定关系吧。如果一开始就要基于 cloud,那应该不至于本地攒了那么多突然要一口气上传
另外其实你的开发场景也是比较特殊的,我估计现在市场上大部分软件公司,90%的功能都集中在 crud 而已,剩下又有一大部分是啥热搞啥。除了数据库本身,100G 这个量级的数据量,没准已经能排除99%的项目了。
【 在 lvsoft 的大作中提到: 】
: 是的,我也是这么想的。问题就出在数据放在远程服务器上的环节。
: 第一天我直接scp,过了一晚上发现传了100G后链接断了。
: 第二天用rsync传,过了一晚上发现照片文件太多速度太慢跑不满带宽,也只传了100G。
: ...................
--
FROM 222.153.175.*