- 主题:rust正式进入linux内核了
我前面不是说了么,最开始的数据在客户现场产生。
那个数据都是定期人肉过去拷回来的。
【 在 RuralHunter 的大作中提到: 】
: 嗯,那根源就在于你一开始的数据就没有放到服务器上,网络传这么大量数据肯定是麻烦了。
:
--
FROM 114.222.221.*
因为落地的是传统行业。他们有个特点,就是生产环境不喜欢拉网。。。
【 在 eGust 的大作中提到: 】
: 我觉得这跟一开始产生/收集数据的方式也有一定关系吧。如果一开始就要基于 cloud,那应该不至于本地攒了那么多突然要一口气上传
: 另外其实你的开发场景也是比较特殊的,我估计现在市场上大部分软件公司,90%的功能都集中在 crud 而已,剩下又有一大部分是啥热搞啥。除了数据库本身,100G 这个量级的数据量,没准已经能排除99%的项目了。
:
--
FROM 114.222.221.*
如果是一个大文件就简单了。
实际情况是几百万个文件,每个文件几MB吧。
还需要差量更新。
rsync是最简单的办法
【 在 tgfbeta 的大作中提到: 】
: 如果是一个大文件的话,我会弄一个支持content-range的HTTP server
: 然后listen在127.0.0.1
: 然后把那个端口ssh forward过来
: ...................
--
修改:lvsoft FROM 114.222.221.*
FROM 114.222.221.*
最终肯定是边缘计算的。但边缘计算也需要先完成训练的过程。
所以拿数据这步逃不掉的,除非你把服务器也部署在边缘....
【 在 littleSram 的大作中提到: 】
: 感觉边缘计算就是应付这种场景的吧
: 数据收集起来立刻处理,因为传输的成本太高了,而且也没必要
--
FROM 114.222.221.*
你开在localhost的端口如果不安全,那说明那台服务器已经不可信任了
【 在 littleSram 的大作中提到: 】
: 我理解是在client端起ssh forwarding连接这个Server端口。数据传输是安全的。
: 但是这个Server端口会不会遭受攻击呢?
--
FROM 221.192.180.*
这个是没啥办法了
前阵子看 webb 望远镜的新闻,原始的数据量已经够夸张的了,加工后就更吓人了。不知道这帮家伙怎么分享数据的……
【 在 lvsoft 的大作中提到: 】
: 因为落地的是传统行业。他们有个特点,就是生产环境不喜欢拉网。。。
--
FROM 222.153.175.*
这东西看啥谁维护了,如果 aws 做成服务,那比起本地的维护能力,我更相信 aws。而且话说回来,aws 如果挂了,半个互联网都用不了,反正也干不了活儿,不差这一个服务。
【 在 leadu 的大作中提到: 】
: vdi,很多公司搞了很多年了,有商业原因有技术原因导致一直都是个鸡肋般的存在
: 比如商业方面的原因说几个:vdi需要人维护,成本+;vdi挂了全公司不干活,风险+。
: 实际落地问题很多
: ...................
--
FROM 222.153.175.*