你说得对,确实占用计算资源,应该本地部署。
做一个asr+chatbot+tts的原型设计,图方便就直接用了whisper api
原型验证基本通了,实际部署可能用不了他家的模型
【 在 ArchLinux 的大作中提到: 】
: whisper可以下模型在自己的机器上跑吧,例如用whisper.cpp:
:
https://github.com/ggerganov/whisper.cpp: 你调OpenAI的API是用了人家的计算资源,收钱是正常的。
: ...................
--
FROM 117.174.76.*