水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
返回
1/1
|
转到
主题:很奇怪为什么国外最近的开源模型都没有长上下文?
楼主
|
Xjt
|
2024-04-23 10:46:10
|
展开
无论是CodeGemma还是Llama3,都都是8K上下文。最搞笑的是Llama3-70b,居然也只有8k上下文
反观国内的开源比如QWen1.5,基本都几十K上下文了。铺天盖地的宣传大海捞针
这样的开源上明显的技术路线区别,是什么原因导致的呢?
--
FROM 103.149.83.*
1/1
|
转到
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版