2M大小的数据。不是200万数据
目前就是按天,按ID,
但一年365天
ID有3000多个
那一年就 365*3000=110万个分区, 感觉有点多
但如果只按天,或者只按ID分区
又怕检索起来,既有按天的检索又有按ID的检索,怕会慢
不知道分区太多对检索速度影响大,还是分区没有按天按ID,对检索影响大
如果差不多,就不折腾了。
【 在 eventvwr 的大作中提到: 】
: 2M是200w数据还是数据文件只有2M大小?
: 这点数据随便整吧。就按天吧,更符合使用习惯些
--
修改:qianfeng018 FROM 223.104.41.*
FROM 223.104.41.*