:(
我网上瞥见pyspark的简单例子,可以做查询。 觉得和python整合在一起,可以少写很多代码。
毕竟少了客户端连接,api查询这些。
但没想到慢的没法忍受。。
+++++++++++++++++++++++++++++++++++++++
自动化生成一批where表达式,比如:10万个。
然后在随机生成的行列100x4的表里做查询。
测试,where通过率。 就这么个事儿。。
【 在 iwannabe 的大作中提到: 】
: 这种哪怕是分布式计算,spark也不占优势
: spark sql的优势在于olap
: 你这个叫ad-hoc查询
: ...................
--
FROM 115.206.184.*