- 主题:python是不是落伍了,跑东西挺慢
这大概不需要python 的优化吧? 下面如果是TF之类的库 任务安排在里面完成了
python只需要下一个宏观调控的命令就好了
【 在 life2018 的大作中提到: 】
: 我看有些都在做python字节码的优化工作了,比如在深度学习领域
--
FROM 13.56.31.*
刚刚 我的JUPYTER NOTEBOOK 出问题了 工作了几天后 变的非常慢... 我还重启了
后来 找出原因了 因为我存近万个小文件 我把每个独立任务的细节都存下来了单独存下来 以便日后查证分析...
好象也就7千多文件
结果刷网页 几十秒都更新不了内容
超出想象
但是 又怎么样呢? 把文件移到一个子目录里 就是了
作为万用强力胶 python天下第一
目距之内 无有匹敌
如果说它不能砍瓜切菜拍蒜斩骨... 无所谓了 菜刀才几块钱一把
【 在 life2018 的大作中提到: 】
: zz
--
FROM 13.56.31.*
正是我吃惊的地方 在苹果机上 三年新的公司机器 英的U
python 3.10.6
【 在 lvsoft 的大作中提到: 】
: 你是在windows下吧?
: linux下不会这样的。
:
--
FROM 172.250.239.*
python下面一堆堆的高效库
AI 矩阵 什么的 跑的挺快的
我个人还没需要到计较python的时候 虽然翻看了本讲python性能的书-- 里面东西还挺多的
对我来说 大部分时候,是python发个命令给一个系统,让目标系统干活,python自己根本就没什么慢的理由
等任务完成了,对结果分析一下,做下一步操作,python也慢不出几十毫秒去
我回车敲的快点,或者把负载分配的均衡一点,时间就全省下来了
至于跨软件或跨系统的粘合 我现在经常用 文件
上一步的结果存入文件 后一步接手文件内容
一些不便利,并不来自于使用的工具
可能是 需要身分验证MFA 到不同的系统里取相关数据 代码的运动环境--比如kubrenetes 环境里有生产系统的密码,但是本机没有; 没权限装需要的包....
这些麻烦事 怪不到python身上。 python自己 还真是不产生什么麻烦
【 在 bigsen 的大作中提到: 】
: 作为胶水语言,是不是有很多应用是利用python来调用诸如c/c++的动态库?
: 但是这种用法,也存在数据交互和传参调试很不方便的弊端吧。
--
FROM 172.250.239.*
果子毕竟是改装版
无所谓了 只要 bash 管道... 这些大差不差的能用 差不多也就够用了
【 在 lvsoft 的大作中提到: 】
: 苹果我不熟,但按理说应该不至于这样
: :
--
FROM 13.56.31.*
我以前 在Windows上装 anaconda 用起来 极慢
后来 才知道 在新机器 win11 上 也是极慢
现在 如果我实在是要在win上用python, 就起个 Linux, notebook --no-browser,感觉舒服多了
【 在 iMx 的大作中提到: 】
: 现在的python可以接受了,以前的,双击启动个脚本都要等几秒才出界面,严重影响心情
:
--
FROM 13.56.31.*
这是个好话题
对我个人来说 不在乎python自身的快慢 OS很快 数据库很快 矩阵运算很快 http server很快 网络很快 epoll很快 文件系统很快... 这些都不是python写的
9成以上的情况 是用python发布命令 利用现有的系统 提供的功能
不是如何让自己快 而是如何高效的利用已有的快速功能
不是提速一个应用单一的算法 而是集成设计出一个战略
在所有因素里 我是最慢的 也是最容易出错的 而且我想的东西 不只是几毫秒的快慢
操作是否是会影响系统性能 是否必需停运某子系统 如何避免出错 操作过程如何记录 必要时如何回撤...
然后 如果 我维护十个数据集群 而一个上面的操作要一天 那就是十天
能不能并行?如果一次操作两个数据中心 就只需要5天了
如果一字排开,十个并行 当然一天就解决了
敢吗?如果3 个操作同时崩了 能即刻的去处理吗?
python差上几个微秒 在大集团作战面前 根本不足考虑啊
【 在 CKevin 的大作中提到: 】
: 不知道这么多说python不慢,或者不在乎慢不慢的,是不是都搞数据挖掘或者机器学习
: 的。。。我是写业务的,每天的工作除了正经的工程设计,就是帮助那些写算法的研究
: 他们的python服务为什么慢,能优化的给优化,不能优化的接手过来用c或go重写。。。
: ...................
--
FROM 47.152.116.*
说起几百万条数据了...
几年前 有次面试 有位python员 问一百万关系型数据怎么处理?
我问 是 百万条 还是MB 啊?他说百万条
那不就差不多是1GB 的数据吗 随便个笔记本都跑的飞快 差的民用级的SSD 也就两秒的读取时间
上个厕所 走过去 洗洗手 回来
这点时间
一般的运算 已经跑完了
尤其是对离线的业务处理
这点业务量 简直是不存在啊
一些传统业务的 比较在乎几十万上百万
在excel 里 一个文档里 几万行 拉动起来 还是很不好用的
【 在 jamwswallace 的大作中提到: 】
: 够用就行。我每天采集几百万条数据,用10年前的X230跑,采进虚拟机,没觉得慢。
:
--
FROM 47.152.116.*
倒是顺滑 只是 鼠标拖起来 还是不好定位
【 在 annals 的大作中提到: 】
: 那也是老黄历了,新版本的excel操作几万行非常快
:
--
FROM 47.152.116.*
哈哈 这就是我啊 pandas dataframe 好用 画图也极其方便
实在是趁手啊
【 在 callmebbser 的大作中提到: 】
: 有的Python库,仅仅是为了从用逗号或者tab分隔的csv/txt文件中读数据,就依赖了pa
: ndas库。
:
: ...................
--
FROM 47.152.116.*