- 主题:我觉得各位马龙真的要考虑下自己的饭碗了
请教一个问题,我有一个项目,十几万行的垃圾,百来个文件,我想优化一下,也有思路,也能教gpt怎么做,这种gpt能搞定么
就怕搞个夹生饭,改完还得自己再调一轮,本来就啃过老代码,结果还要重新啃一遍新代码,哪就没什么价值了
要是完全不行那就算了,谢~
【 在 lvsoft 的大作中提到: 】
: 我的建议,这个世界上只有一个ai,叫gpt4。
: 其他的都没有一用的价值,包括gpt3.5在内。(除非你的目的是找人聊天逗你玩)
: 然后,即使是gpt4,也有一段适应的过程,要掌握它的正确的使用方法。我一开始用gpt4也是很看不起的,觉得这货有啥用,给我吐一堆车轱辘话,而且它说的我都知道,浪费我时间。直到后来有人教了我正确的使用姿势,我现在对gpt4的观点是彻底改观的。
: ...................
--
FROM 222.70.129.*
构架上的优化,一小段一小段的优化意义不大
简单看起来,好像 gpt 没有分析一堆文件,再组合解决的能力,这将很大程度影响应用场景了
或许以后 gpt 能一个文件一个文件读,然后自己穿起来分析。只要算力够,应该也能行吧,可以出一个专门写大规模代码的版本,那程序员就真要失业了
【 在 lvsoft 的大作中提到: 】
: 你是架构上的优化还是代码上的优化还是两者都有?
: 如果只是代码上的优化,诸如大量实现之前写的太垃圾,要写个等价实现,这个交给gpt相对简单,一段段的贴给它让它输出等价优化就行了,然后简单测试下如果有不一致的可以继续让gpt改。
: 以上过程应该可以自动化,但可能得自己写脚本调api来做,当然这个脚本也可以让gpt自己写。
: ...................
--
FROM 222.70.129.*
超长token,需要归纳和演绎能力吧,这个不知道 gpt 有没有,有就牛逼了,码农直接下岗妥妥的
【 在 lvsoft 的大作中提到: 】
: 不是,目前的gpt4上下文空间就4096个token,所以脑容量比较小。
: 如果超过4096个token,有各种奇淫技巧把它切成一段段的喂进去,并利用长期记忆来记住,但效果会差很多。
: gpt4 turbo的上下文空间达到了128K个token,可以一口气读300页文档并记住所有细节,理论上是可以做到这个事情的。
: ...................
--
FROM 222.70.129.*
听上去还是有机会的,真能干翻众码农也是好事~~~
【 在 lvsoft 的大作中提到: 】
: 其他能力gpt4本来就有,就是不知道在超长token的情况下这些能力保持的如何。
: 其实有超长token的llm很多。比如跟openai竞争的claude.ai的卖点之一就是超长token。当年发布即支持100K token。但claude.ai大致来说相当于chatgpt3.5的能力,而且在coding方面还更弱。
: 基本上众多LLM里在coding能力方面普遍偏弱,只有gpt是相对而言特别强的。
: ...................
--
FROM 222.70.129.*
估计五十年后有可能,全球十万AI主机,人人随身一台超级AI终端,各种AI管控的专用设备开始兴起
再五十年,天网降临了。。。
而且老马搞的那些,每一样都很合适天网
【 在 lvsoft 的大作中提到: 】
: 更恐怖的不是干翻码农,而是直接端到端了,根本就没有代码这个东西。
--
FROM 222.70.129.*