- 主题:[讨论] C++是怎么做算法工程化的呀?
比如sklearn or pytorch实现的算法,怎么用C++部署呢?
--
FROM 112.65.12.*
请问具体怎么用libtorch部署呀?
【 在 brucewww 的大作中提到: 】
: pytorch有libtorch
--
FROM 112.65.12.*
可以不用cuda吗?想简单一点的
【 在 mopo 的大作中提到: 】
: tensorrt+cuda吧,一般是预处理和后处理的很多逻辑需要改写,加载模型的部分一般框架就搞定了,涉及分布式训练的可能要复杂一些
--
FROM 112.65.12.*
把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
【 在 brucewww 的大作中提到: 】
: 如果你算法熟可以把python变成c++代码,不过相对麻烦,我现在都是找的c++模块,nvidia的化比如wangxinyu大佬的tensorrt,github搜就行。
--
FROM 112.65.12.*
把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
【 在 brucewww 的大作中提到: 】
: 如果你算法熟可以把python变成c++代码,不过相对麻烦,我现在都是找的c++模块,nvidia的化比如wangxinyu大佬的tensorrt,github搜就行。
--
FROM 112.65.12.*
把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
【 在 hsv 的大作中提到: 】
: nv平台模型部署的的话,libtorch、或者onnxruntime,最优的是其实是用nv家的tensorrt。
--
FROM 112.65.12.*