- 主题:Llama 3 发布8B/70B模型
rt
--
FROM 111.18.129.*
8K context length。。。真是落后时代了
【 在 tgfbeta 的大作中提到: 】
: rt
--
FROM 101.228.186.*
这个很牛,已经和GPT4差不多了。
【 在 tgfbeta 的大作中提到: 】
: rt
--
FROM 61.157.0.*
求科普 这个在本地部署需要啥资源?macbook pro是否可以?
【 在 tgfbeta 的大作中提到: 】
: rt
--
FROM 117.133.52.*
尝试下载收到这样的提示:
Sorry, you are not eligible to access Llama 2.
Thank you for your interest in using Llama 2. Unfortunately, you do not meet the criteria to obtain a license at this time.
有遇到的版友吗?
【 在 tgfbeta 的大作中提到: 】
: rt
--
FROM 220.181.41.*
我用2个3090可以流畅跑70b的版本
【 在 chunhui (北瓜) 的大作中提到: 】
: 求科普 这个在本地部署需要啥资源?macbook pro是否可以?
: 【 在 tgfbeta 的大作中提到: 】
: : rt
:
--
FROM 123.165.50.*
我看晚上说中文一般,还不如glm-4(智谱清言)是这样么?如果不如的话,那就没必要本地部署了。
【 在 floatinsea 的大作中提到: 】
: 我用2个3090可以流畅跑70b的版本
--
FROM 111.196.132.*
魔搭社区找盗版
【 在 nabice 的大作中提到: 】
: 尝试下载收到这样的提示:
: Sorry, you are not eligible to access Llama 2.
: Thank you for your interest in using Llama 2. Unfortunately, you do not meet the criteria to obtain a license at this time.
: ...................
--
FROM 125.38.176.*
或者,比如有人改了某些embedding的bug
然后你可以直接下这个
imone/Llama-3-8B-fixed-special-embedding/
【 在 tgfbeta 的大作中提到: 】
: 魔搭社区找盗版
--
FROM 125.38.176.*
中文确实不行
【 在 chunhui (北瓜) 的大作中提到: 】
: 我看晚上说中文一般,还不如glm-4(智谱清言)是这样么?如果不如的话,那就没必要本地部署了。
: 【 在 floatinsea 的大作中提到: 】
: : 我用2个3090可以流畅跑70b的版本
:
--
FROM 123.165.50.*