agent没说一定是cot,另外cot是cot,tot是tot,tot是拿到了真实世界反馈的。
一个大模型,面对你提的产品需求,它生成了10个方案,写了10份代码,并且调用沙箱把其中一个方案编译成功,实验结论存在自己的context里,并告诉你结果。
这个信息增量并不是来自于训练阶段,也不来自于prompt,而是在推理过程中通过现实反馈获得的信息熵啊,这玩意不能说就只是概率吧
你可以说它是基于概率的。但如果仅仅只是概率和统计,那就是以前的模式识别那套。
你去问问ai一些没有历史语料的问题,比如灭霸在大观园里面会做什么?看看它是怎么回答的。
【 在 cmkylin 的大作中提到: 】
:llm本质就是概率啊,猜词机,所谓的推理不就是思维链吗? 思维链就是prompt,本质也是通过prompt构造conte
- 来自 水木社区APP v3.5.7
--
FROM 112.97.81.*