个人为什么一定要考虑自己配大模型呢?
开源的再好,能比官方的更好?
我不明白的是:开源大模型是怎么训练的啊?如果不是商业公司的话,普通人无法无力
支撑起训练大模型的任务吧?
【 在 xeh 的大作中提到: 】
: 我作为过来人
: 建议如下:堆便宜的tesla 16g(P100)4个 ubuntu ollama(vllm好像需要某个级别以上跑不了) 64g可以跑比较有用的ollama模型了
: 16g的实在不建议
: ...................
--
FROM 117.143.169.*