- 主题:python是不是落伍了,跑东西挺慢
但很多程序员确实对百万级别的数据处理抓瞎。举个例子,我见过一些程序员会用 django orm 先把数据读到内存组装成一个个的 model object 然后处理。单是这个反序列化过程就消耗掉很多时间。而其核心业务逻辑,不过是一行 sql 语句的事情而已。
【 在 jamwswallace 的大作中提到: 】
: 对啊。我500万条数据才400M。用PYTHON处理毫无压力啊。
--
FROM 120.33.10.*
这明显是为了摸鱼。java的过度设计也很讨厌。
【 在 hgoldfish 的大作中提到: 】
: 但很多程序员确实对百万级别的数据处理抓瞎。举个例子,我见过一些程序员会用 django orm 先把数据读到内存组装成一个个的 model object 然后处理。单是这个反序列化过程就消耗掉很多时间。而其核心业务逻辑,不过是一行 sql 语句的事情而已。
:
--
FROM 114.249.118.*
有的Python库,仅仅是为了从用逗号或者tab分隔的csv/txt文件中读数据,就依赖了pa
ndas库。
【 在 hgoldfish 的大作中提到: 】
: 但很多程序员确实对百万级别的数据处理抓瞎。举个例子,我见过一些程序员会用 django orm 先把数据读到内存组装成一个个的 model object 然后处理。单是这个反序列化过程就消耗掉很多时间。而其核心业务逻辑,不过是一行 sql 语句的事情而已。
--
FROM 119.233.240.*
这是他们写的有问题
标准库本来就支持csv
【 在 callmebbser 的大作中提到: 】
: 有的Python库,仅仅是为了从用逗号或者tab分隔的csv/txt文件中读数据,就依赖了pa
: ndas库。
--
FROM 222.71.112.*
哈哈 这就是我啊 pandas dataframe 好用 画图也极其方便
实在是趁手啊
【 在 callmebbser 的大作中提到: 】
: 有的Python库,仅仅是为了从用逗号或者tab分隔的csv/txt文件中读数据,就依赖了pa
: ndas库。
:
: ...................
--
FROM 47.152.116.*
内存不用 也是一样费电的 所以 直接把数据全调进来 是最经济适用的作法
工作机 至少也得有16GB 其实挺大的了
又不是以前 单核U 4GB内在 5400转硬盘...
现在的 python 跑的飞起
【 在 jamwswallace 的大作中提到: 】
: 对啊。我500万条数据才400M。用PYTHON处理毫无压力啊。
--
FROM 47.152.116.*
用 orm 者 不一定都差
然而 确实很多很差
【 在 hgoldfish 的大作中提到: 】
: 但很多程序员确实对百万级别的数据处理抓瞎。举个例子,我见过一些程序员会用 django orm 先把数据读到内存组装成一个个的 model object 然后处理。单是这个反序列化过程就消耗掉很多时间。而其核心业务逻辑,不过是一行 sql 语句的事情而已。
:
--
FROM 47.152.116.*
内存不用,可以配少一点,可以省钱
程序改一次,可以无成本运行无数次,均摊编程成本为0
最经济适用的作法显然是优化程序
【 在 hongyan2022 的大作中提到: 】
: 内存不用 也是一样费电的 所以 直接把数据全调进来 是最经济适用的作法
: 工作机 至少也得有16GB 其实挺大的了
: 又不是以前 单核U 4GB内在 5400转硬盘...
: ...................
--
FROM 121.33.160.*
程序员不差这点内存钱吧
【 在 iMx 的大作中提到: 】
: 内存不用,可以配少一点,可以省钱
: 程序改一次,可以无成本运行无数次,均摊编程成本为0
: 最经济适用的作法显然是优化程序
: ...................
--
FROM 114.253.35.*
用pandas处理数据没什么问题,pandas底层用的numpy,处理大量数据速度是不错的。
【 在 hongyan2022 的大作中提到: 】
: 哈哈 这就是我啊 pandas dataframe 好用 画图也极其方便
: 实在是趁手啊
论坛助手,iPhone
--
FROM 123.118.104.*