- 主题:[讨论] C++是怎么做算法工程化的呀?
大佬出现了。
【 在 hsv 的大作中提到: 】
: nv平台模型部署的的话,libtorch、或者onnxruntime,最优的是其实是用nv家的tensorrt。
--
FROM 221.218.60.*
没,隔壁c++只用类,我都不敢讨论,最多会用派生,坚定的c战士。
【 在 ylh1969 的大作中提到: 】
: 大佬出现了。
--
FROM 123.125.33.*
我也是C。不过那边没人气,都没有讨论实质问题的。
我倒是觉得应该C,C++合并。
【 在 hsv 的大作中提到: 】
: 没,隔壁c++只用类,我都不敢讨论,最多会用派生,坚定的c战士。
--
修改:ylh1969 FROM 221.218.60.*
FROM 221.218.60.*
把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
【 在 brucewww 的大作中提到: 】
: 如果你算法熟可以把python变成c++代码,不过相对麻烦,我现在都是找的c++模块,nvidia的化比如wangxinyu大佬的tensorrt,github搜就行。
--
FROM 112.65.12.*
把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
【 在 brucewww 的大作中提到: 】
: 如果你算法熟可以把python变成c++代码,不过相对麻烦,我现在都是找的c++模块,nvidia的化比如wangxinyu大佬的tensorrt,github搜就行。
--
FROM 112.65.12.*
把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
【 在 hsv 的大作中提到: 】
: nv平台模型部署的的话,libtorch、或者onnxruntime,最优的是其实是用nv家的tensorrt。
--
FROM 112.65.12.*
可以啊
但问题是你这个跟python比有什么优势?
不如trt转一下,直接用trt部署
【 在 wakaka1122 (wakaka1122) 的大作中提到: 】
: 把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
:
: 【 在 hsv 的大作中提到: 】
: : nv平台模型部署的的话,libtorch、或者onnxruntime,最优的是其实是用nv家的tensorrt。
--
FROM 1.202.121.*