- 主题:我的需求有必要上NAS吗?买哪个牌子好
除了群晖,其它品牌的nas如何,在产品定位和功能上有什么差异化吗?
谢谢
【 在 mingtong 的大作中提到: 】
:
: 群晖的cpu很弱,可以说非常弱,J4125,你可以查一下,它的主要设计目的是一个低功耗的存储系统。
: 你如果还要执行代码,要考虑执行效率是否能接受,而且虽然它是一个Linux,不代表你能直接跑你的Py代码,通常作法是放在Docker里执行。
: ...................
--
FROM 120.245.17.*
我怎么感觉这个好像不用NAS啊,一个大容量的网盘就可以解决了,关键看单位和家里
的下载速度就行。
因为刚好我前段时间也做了类似的事情,家里是300Mbps的带宽,下载速度可以达到接
近45MB/S,从一台电脑倒腾到另外一台移动硬盘,一个白天也可以转个几百G的数据。中
间都是通过网盘中转。
【 在 okl 的大作中提到: 】
: 主要是在家里长时间下载科研数据,办公室+家里数据来回传,科研民工两边倒,
: 工作代码文档用网盘,
: 大的数据用NAS。
: 有相似的需求吗?用哪个好?
--
FROM 39.188.10.*
和哪的网速快没关系,如果你的数据是用笔记本产生的,那不管放单位还是放家里都可以用局域网连接。如果是放在单位的服务器产生的,你家里网络再快也得从单位服务器慢慢传回家里
另外一个就是这数据存到家里NAS到底是为了什么,你会在家里分析这上百T数据吗?
【 在 okl 的大作中提到: 】
: 谢谢回复,
: 不是每天几个t,而是可能一个工作几个T到十几T,整个数据库可能几十上百T。
: 现在首先要解决的是下载,办公室速度太慢,家里速度快一些,但是即使家里下载时间也很漫长。而且家里的电脑可靠性不好(1年多修了两次的thinkbook 16p),容量也不够。所以我的需要首先是要有个稳定持续下载的东西,并且要用python代码执行或者wget这些。
: ...................
--
FROM 115.171.122.*
还推荐网盘,你可真行
这么点带宽能传个啥
人家一天至少几个T
【 在 Xiongnu97 的大作中提到: 】
: 我怎么感觉这个好像不用NAS啊,一个大容量的网盘就可以解决了,关键看单位和家里
: 的下载速度就行。
: 因为刚好我前段时间也做了类似的事情,家里是300Mbps的带宽,下载速度可以达到接
: ...................
--
FROM 39.144.100.*
兄弟,上百T的话,显然得上服务器存储阵列啦,让公司采购吧,还得有专门的机房方便降噪和散热。
【 在 okl 的大作中提到: 】
: 谢谢回复,
: 不是每天几个t,而是可能一个工作几个T到十几T,整个数据库可能几十上百T。
: 现在首先要解决的是下载,办公室速度太慢,家里速度快一些,但是即使家里下载时间也很漫长。而且家里的电脑可靠性不好(1年多修了两次的thinkbook 16p),容量也不够。所以我的需要首先是要有个稳定持续下载的东西,并且要用python代码执行或者wget这些。
: ...................
--
FROM 123.113.109.*
用绿联吧,群晖没有公网ip,慢死了
但是几百个T,一般的nas也装不下啊,10盘?20盘?
【 在 okl 的大作中提到: 】
: 主要是在家里长时间下载科研数据,办公室+家里数据来回传,科研民工两边倒,
: 工作代码文档用网盘,
: 大的数据用NAS。
: ...................
--
FROM 101.206.254.*
长时间下载科研数据,肯定用nas合适
因为可以稳定扔在那里不管
牌子不懂,问大家把
没买过牌子货
是黑群晖,洗白群晖,飞牛,pve,win11+wsl2过来的
几十T数据,
最低配可以四盘或六盘洋垃圾14T的nas,占地小 省点钱 性能勉强够用
想更强,就linux服务器把,atx机箱能放10盘,整体更松快些
--
修改:LYMing1986 FROM 115.171.216.*
FROM 115.171.216.*
既然是网络问题为什么不从网络方面决解,比如拉个百兆专线什么的也不贵?
从设备方面入手恐怕南辕北辙吧
【 在 okl 的大作中提到: 】
:
: 谢谢回复,
: 不是每天几个t,而是可能一个工作几个T到十几T,整个数据库可能几十上百T。
: 现在首先要解决的是下载,办公室速度太慢,家里速度快一些,但是即使家里下载时间也很漫长。而且家里的电脑可靠性不好(1年多修了两次的thinkbook 16p),容量也不够。所以我的需要首先是要有个稳定持续下载的东西,并且要用python代码执行或者wget这些。
:
#发自zSMTH@PJF110
--
FROM 125.76.182.*
我感觉家用NAS主要是解决“存”的问题,
做备份更合适,大数据量的下载不能太频繁。
建议你先把数据分冷热,用硬盘把冷数据批量同步回来,热数据(1TB以下的)用NAS同步,勉强行
--
FROM 221.216.145.*
文科生傻眼了,什么工作要用到这么多数据?
【 在 okl 的大作中提到: 】
: 几十TB吧我不太熟悉nas,所以问一下,刚才看了下,还是有点疑惑,我是需要python代码下载,看deepseek说na ...
--
FROM 115.171.119.*