- 主题:颗粒度大力出奇迹:chatgpt和sora的简单原理
大佬所言极是
【 在 qtpr 的大作中提到: 】
: 简中互联网世界的语料就是个笑话
:
--
FROM 61.146.44.*
没那么高深
【 在 shuang99 的大作中提到: 】
: 感觉吹牛了
: 只了解一点点毛尖尖
: 发自「今日水木 on iPhone 13 Pro」
--
FROM 61.146.44.*
竟有此事
【 在 iam9527 的大作中提到: 】
: 从“其次”开始,就错了
--
FROM 119.143.33.*
是吗?
【 在 iam9527 的大作中提到: 】
: “我国ai失败的原因很简单,数据不够海量,规模和openai没法比”
: 这个reason也找的不对,sora的训练数据90%以上大概率是合成的(参考dall-e 3),模型参数、高质量数据、充足的pretrain token、以及充分的训练(gflops)都很重要
--
FROM 119.143.33.*
略懂毛皮
【 在 Xyz2024 的大作中提到: 】
: 听上去很懂的样子。。。。
--
FROM 119.143.33.*
就是大语言模型
【 在 chaojigong 的大作中提到: 】
: 大语言模型Llm 是什么?
:
: - 来自 水木说
--
FROM 119.143.33.*
哦哈哈哈哈哈哈哈
【 在 foxgod 的大作中提到: 】
: 本专家一针见血的指出:
: 人工智能最终比拼的是谁家电费便宜
: 其他的都可以剪刀浆糊
: ...................
--
FROM 14.150.96.*