- 主题:4090确实很牛逼
写了个小模型跑了下,笔记本8核i9 1个小时还没跑完,4090不到1分钟
--
FROM 39.144.124.*
gpu跟cpu比跑模型的效率?
【 在 xiaoyu6611 的大作中提到: 】
: 写了个小模型跑了下,笔记本8核i9 1个小时还没跑完,4090不到1分钟
--
FROM 103.85.172.*
一针见血
【 在 lhg1983 的大作中提到: 】
: gpu跟cpu比跑模型的效率?
--
FROM 218.75.228.*
AI大佬太牛逼了
--
FROM 119.161.171.*
拿手机砍木头,说这还不如一个几十块钱的斧子的。
--
FROM 117.134.14.*
一万多的苹果手机
【 在 bravapple 的大作中提到: 】
: 拿手机砍木头,说这还不如一个几十块钱的斧子的。
--
FROM 124.207.31.*
有没有试试苹果的m系列
目前gpt的desktop app有支持苹果的m系列,不支持Intel
【 在 xiaoyu6611 的大作中提到: 】
: 写了个小模型跑了下,笔记本8核i9 1个小时还没跑完,4090不到1分钟
--
FROM 114.249.22.*
没试过,据说m2以后的内存带宽低了一半,速度反而慢了
我等m4,看看AI时代会不会增加点带宽
另外拿mbp跑全速运算是不是有点太费电脑了
【 在 gfkid 的大作中提到: 】
: 有没有试试苹果的m系列
: 目前gpt的desktop app有支持苹果的m系列,不支持Intel
--
FROM 39.144.124.*
简单的人工智能树莓派都能跑,乐趣不比4090小.
我在用弱鸡笔记本2050显卡,很多大模型也可以跑在本地,那种7B的.
【 在 dragonrage 的大作中提到: 】
: AI大佬太牛逼了
--
FROM 101.87.65.*
原来你也是人工智能大佬哇,太牛逼了。
【 在 isxb2 的大作中提到: 】
: 简单的人工智能树莓派都能跑,乐趣不比4090小.
: 我在用弱鸡笔记本2050显卡,很多大模型也可以跑在本地,那种7B的.
:
--
FROM 115.47.252.*