你是架构上的优化还是代码上的优化还是两者都有?
如果只是代码上的优化,诸如大量实现之前写的太垃圾,要写个等价实现,这个交给gpt相对简单,一段段的贴给它让它输出等价优化就行了,然后简单测试下如果有不一致的可以继续让gpt改。
以上过程应该可以自动化,但可能得自己写脚本调api来做,当然这个脚本也可以让gpt自己写。
如果是涉及到架构上的优化,那基本上就等于是重写了,这种可以从零开始让gpt写,同时喂给它之前的垃圾代码作为参考。这个我估计完全自动化会比较困难,可能得人一路扶着。
其实说穿了就是4K token上下文的限制问题,发布会之后的gpt4 turbo宣布token扩展到128K。有这么大的空间理论上你可以整个程序丢给它让它一次搞定,但这个我还没玩过,并且128K token的效果和4K token的效果是否等价也是未知数。开源llm有这种现象,就是有些llm宣称具有超长token,但实测它虽然能输入超长token,但其表现会迅速下降到几乎不可用。我不确定gpt4 turbo是否有类似问题。
【 在 ztysys 的大作中提到: 】
: 请教一个问题,我有一个项目,十几万行的垃圾,百来个文件,我想优化一下,也有思路,也能教gpt怎么做,这种gpt能搞定么
: 就怕搞个夹生饭,改完还得自己再调一轮,本来就啃过老代码,结果还要重新啃一遍新代码,哪就没什么价值了
: 要是完全不行那就算了,谢~
: ...................
--
FROM 180.102.34.*