水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
下一篇
|
同主题上篇
主题:Re: 很奇怪为什么国外最近的开源模型都没有长上下文?
popsoft
|
2024-05-03 09:30:07
|
越长训练越花时间和算力,效果也不是一定好,国内的超长上下文更多的时候只不过是一个噱头罢了
【 在 Xjt 的大作中提到: 】
: 无论是CodeGemma还是Llama3,都都是8K上下文。最搞笑的是Llama3-70b,居然也只有8k上下文
: 反观国内的开源比如QWen1.5,基本都几十K上下文了。铺天盖地的宣传大海捞针
: 这样的开源上明显的技术路线区别,是什么原因导致的呢?
--
FROM 113.227.191.*
上一篇
|
下一篇
|
同主题上篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版