给我的感觉并不像特别困难。
我记得是可以用一个双向的queue还是两个queue来做。大体思路主进程向queue分发文件路径,作为生产者。子进程从queue里get文件路径进行消费,读取文件内容,将结果通过queue返回,主进程get到结果进行拼装。
如果想要分布到多台机器可以使用celery,类似的思路
【 在 VANGE 的大作中提到: 】
: 有一万个同类文件,串行读取,得到一个dataframe,然后添加到list中,全部读完后再将该list以concat得到汇总的结果
: 现在想再在读取环节改为并发,用processpoolexecutor执行,但是每个进程读取的结果无法写到list中,执行完list还是空
: 请教应该如何实现并发过程同时向同一个list写结果?谢谢
- 来自「最水木 for iPhone 8」
--
FROM 61.149.74.*