水木社区手机版
首页
|版面-Python的自由天空(Python)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
主题:Re: 自定义算法的运行环境为啥是zip包的形式放到spark/hadoop上
qianfeng018
|
2024-02-19 09:24:13
|
不是算法包的解压,算法包那一点还没有什么问题,是算法运行环境每次解压。一个conda环境,快10G了。
【 在 dyingsun 的大作中提到: 】
: 没用过pyspark,以前用过scala的,留下一点印象。
: 我的理解:
: 第一,分布式计算框架,是把分布式和单次计算两部分分开,这样有利于部署和运维。
: ...................
--
FROM 223.104.40.*
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版