有个疑问,身为程序员,想知道gpt通过大数据拟合,达到人类200行Cpp代码的准确率,允许写出一个到两个bug,需要在模型中形成的隐含的逻辑链路,因此产生的空间代价相比于编译后机器代码、以及在线使用gpu执行类似任务所产生的运行时时空代价以及能耗或者可对比的gpu和CPU时钟数,是作为基准的人类专家手敲的源代码编译而成的可执行文件程序的多少个数量级。自己没接触过模型的工作,所以很好奇,有没有大神给我这个伸手党扫扫盲?
【 在 bpxflew 的大作中提到: 】
: 对上下文理解的很好,就像跟一个人对话。正在对世界各方面产生深刻影响
: --
:
发自「今日水木 on iPhone 13」
--
FROM 117.136.0.*