- 主题:颗粒度大力出奇迹:chatgpt和sora的简单原理
大王,那以后电影、电视、短视频的很多从业人员,是不是都不吃香了…
【 在 Barbarossa 的大作中提到: 】
: Chatgpt基于大语言模型llm的基本单位token,也就是文本程序代码数字,这种基本构件块就是chatgpt底层颗粒,对它进行大规模训练后,就能生成chatgpt产生的结果结果。
: Sora的工作原理完全一样,只是它基于的颗粒是一个个小的图像块,是由各种视频和图像拆解生成的。对这些颗粒进行大规模训练后,就能生成出sora产出的东西。由此可见,从语料的角度看,chatgpt和sora没有什么不同。
: 其次,从算法角度看,chatgpt和sora都是通过一种条件扩散算法diffusion transformer来实现训练。预训练前也进行降维压缩,和深度学习原理一样。训练后得到原始像素空间,用来生成各种视频。
: ...................
--
FROM 111.197.233.*
哈哈,大王最后一句太优秀了…
【 在 Barbarossa 的大作中提到: 】
: 统统下岗,吃土,喝西北风。不过六六除外
--
FROM 111.197.233.*
嗯,现在应该还比较粗糙,
可是既然发展起来了,未来肯定大势所趋了
就像电脑技术,开始辣么笨拙,
后来人人都会一点,彻底取代了打字机~
【 在 boulderii 的大作中提到: 】
: 号称扔进去一本小说
: 出来一部电影?
: 评论说现在还没达到那种程度,
: ...................
--
FROM 111.197.233.*