水木社区手机版
首页
|版面-四十不惑(Bull)|
新版wap站已上线
返回
1/1
|
转到
主题:颗粒度大力出奇迹:chatgpt和sora的简单原理
34楼
|
chaojigong
|
2024-02-21 10:44:45
|
展开
大语言模型Llm 是什么?
【 在 Barbarossa 的大作中提到: 】
: Chatgpt基于大语言模型llm的基本单位token,也就是文本程序代码数字,这种基本构件块就是chatgpt底层颗粒,对它进行大规模训练后,就能生成chatgpt产生的结果结果。
: Sora的工作原...
- 来自 水木说
--
FROM 117.136.66.*
1/1
|
转到
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版