水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
主题:Re: 很奇怪为什么国外最近的开源模型都没有长上下文?
Joseph2012
|
2024-05-01 21:18:57
|
注意力机制时间复杂度是n方,context太长跑不动。超长context的模型做了特殊处理,会有代价
--
FROM 1.90.243.*
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版