大部分情况下太慢了。如果8块4090训练一个模型需要10天的话,那M2U大概需要1年(不同模型会不一样,但大部分情况下会差几十倍)……这跟不能训练有啥区别。
另外就是如果模型需要>192g的显存,M2U的性能差得更远;如果需要<128的显存,多张N卡又比M2U更便宜……
另外还有软件生态之类的问题。
【 在 iamqk 的大作中提到: 】
: 现在AI训练没有市场吗?
: 192g的统一内存,炼丹它不香吗?
: 4090ti 24g得几块?
: ...................
--
FROM 120.36.249.*