上次Gemini对我犟,我直接从基础逻辑一点一点给它分析,最后它承认自己错了,花了老大精力,后来我就很少用它了。
我发现所有的AI的逻辑严谨性都很差,尤其做探索性的东西,特别容易胡说八道,需要你分辨。
目前,AI本质上还只是一个 大百科全书,基于现有知识,这个领域可以信赖。
【 在 anacreon 的大作中提到: 】
: gemini一个很大的问题是死犟,不承认错误。你怀疑它错了是没用的,它不会承认,也不会按照你说的去认真排除错误,除非你完全找到原因并跟他它指出来。
: 发自「今日水木 on V2307A」
--
FROM 223.104.42.*