- 主题:求推荐一个4090的用于深度学习的配置,多谢
塔式服务器,国产的有便宜的。。dell的巨重无比。
--
FROM 123.113.106.*
几乎也没人用matlab做深度学习。
【 在 madeinchina 的大作中提到: 】
: 我用matlab只有a100能适配
--
FROM 180.158.59.*
我们评估过matlab比python的库效果要好不少。
【 在 lvsoft (Lv(The Last Guardian)) 的大作中提到: 】
: 几乎也没人用matlab做深度学习。
: 【 在 madeinchina 的大作中提到: 】
: : 我用matlab只有a100能适配
:
--
FROM 114.254.1.*
再加几张也是玩具级别吧,能干啥
【 在 youxia (游侠) 的大作中提到: 】
: 1. 当前配置: 4090 一张, 64g 内存, i7 or i9 处理器
: 2. 过一两年价格合适的时候再买一张到3张4090显卡,以及内存对应的加到128g。所以当前的主板要预留接口。
:
: 多谢。
--
FROM 123.119.119.*
那就是你们评估的不对。
deep learning基本是跟python捆绑在一起的。包括新一代的库,jax,flax,triton,也都是用python为载体的。
而且deep learning发展速度极快,日新月异。matlab这种基本没啥活力的平台分分钟就落后了。
别说matlab了,我连tensorflow都整个放弃了。
选择一个非主流的平台不是不可以,但前提是你要非常清楚选这个非主流的平台到底是哪里适合你。
不然就跟贵站有个各版到处发的“用excel分析了一下XXXX版”的贴一样,只是单纯的为了非主流而非主流罢了。
【 在 madeinchina 的大作中提到: 】
: 我们评估过matlab比python的库效果要好不少。
:
--
修改:lvsoft FROM 180.111.24.*
FROM 180.111.24.*
没有什么对不对的。 自己选择自己合适的路线就好。 我们16年开始做还是有些成绩的。
【 在 lvsoft (Lv(The Last Guardian)) 的大作中提到: 】
: 那就是你们评估的不对。
: deep learning基本是跟python捆绑在一起的。包括新一代的库,jax,flax,triton,也都是用python为载体的。
:
: 而且deep learning发展速度极快,日新月异。matlab这种基本没啥活力的平台分分钟就落后了。
--
FROM 222.129.0.*
哦。
2016年transformer的论文还没发呢,现在的SOTA已经没有不是transformer路线的了。
【 在 madeinchina 的大作中提到: 】
: 没有什么对不对的。 自己选择自己合适的路线就好。 我们16年开始做还是有些成绩的。
:
--
FROM 180.111.24.*
matlab deeplearning toolbox出来挺早的。 我们是做行业应用的。用着还行。
【 在 lvsoft (Lv(The Last Guardian)) 的大作中提到: 】
: 哦。
: 2016年transformer的论文还没发呢,现在的SOTA已经没有不是transformer路线的了。
:
:
--
FROM 222.129.0.*
【 在 youxia 的大作中提到: 】
: 1. 当前配置: 4090 一张, 64g 内存, i7 or i9 处理器
: 2. 过一两年价格合适的时候再买一张到3张4090显卡,以及内存对应的加到128g。所以当前的主板要预留接口。
: 多谢。
啥PC主板能发挥多张显卡性能?
感觉普通PCIE插槽都不支持, x16的插槽插满, 就被自动拆分比如x8+x8,
自动降低性能, 发挥不出多张显卡的性能。
--
FROM 124.126.2.*
很多计算用途不需要太高的pcie带宽,一块分1X就够
【 在 poggy 的大作中提到: 】
: 啥PC主板能发挥多张显卡性能?
: 感觉普通PCIE插槽都不支持, x16的插槽插满, 就被自动拆分比如x8+x8,
: 自动降低性能, 发挥不出多张显卡的性能。
: ...................
--
FROM 221.178.135.*