- 主题:用C++和C#测试,lambda的开销还是比较明显
lambda不是你这么传的。用template
--
FROM 115.192.111.*
python你换个复杂点的数据结构试试看?讲真,你这不是在测并行效率,你这是在测overhead的开销
--
FROM 60.176.195.*
这个和LLVM有什么关系?我们现在在说编译器还是在说语言本身?如果真的要和numba比较编译以后的机器代码,你应该用intel自己的OneAPI c++ compiler。msvc和gcc都不是为数值计算设计的编译器
--
FROM 115.192.186.*
不能并行计算模型,还是得靠cpu。
avx512应该主要还是散热问题,非数值计算用得不多,数值计算大家以为能满核睿频avx512,结果发现avx512在运行的时候根本到不了睿频,甚至连基础频率都到不了,吞吐量还不如avx2,所以现在买cpu的时候,大家更多看的一个指标是满核avx2能到的频率
【 在 leslin 的大作中提到: 】
:
: 市场决定的吧。需要avx512的大多是专业用户,可以买服务器的
: 另外数值计算,现在很多改用gpu了
: ...................
--
FROM 115.192.186.*
另外你还得看清楚,numba编译后的代码是不是实际用到了gpu
【 在 ziqin 的大作中提到: 】
: 这个和LLVM有什么关系?我们现在在说编译器还是在说语言本身?如果真的要和numba比较编译以后的机器代码,你应该用intel自己的OneAPI c++ compiler。msvc和gcc都不是为数值计算设计的编译器
--
FROM 115.192.186.*
不是inline不inline的问题,std::function内部有一个动态分配内存的overhead
【 在 finlab 的大作中提到: 】
: 嗯,如果用模板传进来,应该可以内联掉
:
--
FROM 115.192.186.*