不管benchmark怎么样, 用下来cursor+claude是实用效果最好的。
总觉得claude的语料是用了特殊处理,对于从需求到代码有特别的效果。
Deepseek R1也不错,看到它的思考过程,就能明白它可能在什么地方理解有误或无误。
不过对于没有COT的大模型有个问题,如果它对某个库有个误解, 那么要纠正它非常难,哪怕纠正过一次, 只要问题再深入或修改一下, 它又会按之前的误解思路给答案
【 在 lvsoft 的大作中提到: 】
: 我用grok3分析log感觉很不错,
: log很长,交给cursor(背后是claude3.5)来分析,它无法一次读完,生成的结果是摘要式的,给我一个outline的结果。但grok3就能精准具体到哪一行哪个报文有什么问题,非常的聚焦,这个就很爽。
: 不过grok3在系统性方面还是不如cursor好,把两个ai的结果互相给对方看,互相pua之后的效果就很好了。
--
FROM 124.79.98.*