- 主题:[讨论] C++是怎么做算法工程化的呀?
比如sklearn or pytorch实现的算法,怎么用C++部署呢?
--
FROM 112.65.12.*
pytorch产出的模型,转成tensorflow模型
再用tensorflow serving加载起来对外提供服务
【 在 wakaka1122 的大作中提到: 】
: 比如sklearn or pytorch实现的算法,怎么用C++部署呢?
--
FROM 116.76.169.*
导出onnx模型,然后使用对应平台的工具转换,然后写cpp程序加载使用
【 在 wakaka1122 的大作中提到: 】
: 比如sklearn or pytorch实现的算法,怎么用C++部署呢?
发自「快看水母 于 iPhone 12」
--
FROM 120.245.24.*
请问性能上和直接python部署差别大吗?
- 来自 水木社区APP v3.5.7
【 在 thishome 的大作中提到: 】
: 导出onnx模型,然后使用对应平台的工具转换,然后写cpp程序加载使用
--
FROM 223.104.40.*
得看python底层和cpp的实现方式;同等条件下,cpp有潜力耗时更少,不过具体得测试一下
【 在 xiaofeiyun 的大作中提到: 】
: 请问性能上和直接python部署差别大吗?
: - 来自 水木社区APP v3.5.7
发自「快看水母 于 iPhone 12」
--
FROM 120.245.24.*
把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
【 在 overcomeunic 的大作中提到: 】
: pytorch产出的模型,转成tensorflow模型
: 再用tensorflow serving加载起来对外提供服务
--
FROM 112.65.12.*
把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
【 在 thishome 的大作中提到: 】
: 导出onnx模型,然后使用对应平台的工具转换,然后写cpp程序加载使用
: 发自「快看水母 于 iPhone 12」
--
FROM 112.65.12.*
没用过libtorch部署
【 在 wakaka1122 的大作中提到: 】
: 把python代码保存为.pt文件后,用libtorch直接加载,请问这样部署可以吗?
发自「快看水母 于 iPhone 12」
--
FROM 120.245.24.*