- 主题:微服务带来了新的问题
而且jvm的docker 随便就好几百兆
【 在 guestking 的大作中提到: 】
微服务大家都可以需要,和语言关系不大,主要是和领域模型有关
java最不需要docker,这点倒是部分同意
现在普遍使用
--
FROM 106.47.41.*
呵呵,这个还真不担心,因为根本没有服务间互相调用的情况,调用链很短:客户端->服务->数据库。每个服务功能单一,可以单独更新吧。这次合并也只是针对测试这一块,生产环境还是多进程,毕竟线上内存不是大问题,未来因为要上k8s有进程数限制这个变化也有用。
【 在 oldwatch 的大作中提到: 】
: 那下一个问题就是当初为啥会拆那么多出来?
:
: 真就完全不在乎远程调用开销么?
: ...................
--
FROM 125.168.196.*
如果是这样的话,拆成微服务就很好
【 在 rimer (胖拖拖) 的大作中提到: 】
: 呵呵,这个还真不担心,因为根本没有服务间互相调用的情况,调用链很短:客户端->服务->数据库。每个服务功能单一,可以单独更新吧。这次合并也只是针对测试这一块,生产环境还是多进程,毕竟线上内存不是大问题,未来因为要上k8s有进程数限制这个变化也有用。
--
FROM 180.167.95.*
密码什么都放里面?
【 在 hgoldfish (老鱼) 的大作中提到: 】
: 因为 jar 包里面不能包含 gradle 脚本和各种配置文件啊。
: 比如我们专门有个 conf 目录,配置文件都写里面了。布署的时候一起放到 docker 映像里面。
--
FROM 116.233.73.*
我们目前是的。实际上不使用密码,配置到只验证 IP 段。
不过改动一下也太容易了,编译脚本里面让布署的人输入一下密码就行了。这种方案的布署都是由脚本控制的,提供的能力并不会比 k8s 图灵不完备的描述文件差。只是有些事情麻烦,有些事情方便,各有优劣。
并不是鼓吹 k8s 没用,说的是对于中小项目,应该寻求 k8s 之外的方案。
【 在 RuralHunter (渔父) 的大作中提到: 】
: 密码什么都放里面?
--
FROM 112.47.122.*
jar里面也可以包含配置文件的
反正都是去classpath下面读
【 在 hgoldfish (老鱼) 的大作中提到: 】
: 因为 jar 包里面不能包含 gradle 脚本和各种配置文件啊。
: 比如我们专门有个 conf 目录,配置文件都写里面了。布署的时候一起放到 docker 映像里面。
--
FROM 180.167.95.*
如果只是密码的话,那根本不需要k8s
启动命令里面加参数就好了
或者搞个配置中心,简单点zk之类的就行了
【 在 hgoldfish (老鱼) 的大作中提到: 】
: 我们目前是的。实际上不使用密码,配置到只验证 IP 段。
: 不过改动一下也太容易了,编译脚本里面让布署的人输入一下密码就行了。这种方案的布署都是由脚本控制的,提供的能力并不会比 k8s 图灵不完备的描述文件差。只是有些事情麻烦,有些事情方便,各有优劣。
: 并不是鼓吹 k8s 没用,说的是对于中小项目,应该寻求 k8s 之外的方案。
: ...................
--
FROM 180.167.95.*
+1
关于docker,spring boot的天下,java -jar就完事了。。
再套一层docker已有叠床架屋之感,服务器上装个jre又不会死。。
没有docker帮忙Jenkins一样可以做到CI/CD。
【 在 guestking 的大作中提到: 】
: 微服务大家都可以需要,和语言关系不大,主要是和领域模型有关
: java最不需要docker,这点倒是部分同意
: 现在普遍使用docker的情况下,java原先run anywhere的意义就没那么大了
: ...................
--
FROM 124.202.17.*
+1
DDD
【 在 guestking 的大作中提到: 】
: 我理解的微服务最重要的是要做好领域拆分
: 相当于是在业务维度做高内聚低耦合
: 拆的好,那各个服务之间的职责清晰,功能明确,扩展起来也方面
: ...................
--
FROM 124.202.17.*
docker还有一层k8可以统一管控,java -jar有点简陋了
不过这些都是上到一定规模才行,只有10几个人的小团队
不建议这么搞
【 在 i00i (烟灰·独孤求胖) 的大作中提到: 】
: +1
: 关于docker,spring boot的天下,java -jar就完事了。。
: 再套一层docker已有叠床架屋之感,服务器上装个jre又不会死。。
: ...................
--
FROM 223.104.38.*