- 主题:真是讨厌现在ai这种错误
ai里的深度学习,深度学习就是玩神经网络。
搞深度学习的那些狗杂科学家应该被千刀万剐。
这个垃圾技术玩的就是瞎猫碰死耗子的搞法。
所谓的推理是建立在给神经网络投喂数据的基础上的,这种投喂本身就是无脑投喂,
机器没有任何意识和思考,没有智慧,这不是学习,跟人相比,连弱智都不算。
【 在 wuduan 的大作中提到: 】
: 问ai问题,得很小心,仔细检查,否则可能被坑
: 刚才问它一个问题,给我一个公式,然后由这个公式算出来结果,
: 公式是对的,结果是错的,差3个数量级
: ...................
--
FROM 111.55.25.*
定性的问题基本能用,定量的完全不行
--
FROM 223.104.3.*
那是你不了解
理解了大模型的本质之后就会知道,还是概率模型
就像陶哲轩说的guess machine
【 在 bluecase 的大作中提到: 】
: 最烦别人说什么当前AI是基于统计和概率的,那特么是几年前的AI。
: 现在的AI有推理模式,已经不完全是概率了。用gemini3pro,基本都是推理计算出来的
:
: 另外可以尝试agent来做,
: 你去用claude code来问这个问题,AI直接写一段可以运行的代码,在沙箱里编译调试测试验证,最后给你代码结果,这种也是AI
:
--
FROM 221.216.137.*
你这就属于一知半解。推理模式本质仍然是概率模型,可以去翻下资料。
【 在 bluecase 的大作中提到: 】
: 最烦别人说什么当前AI是基于统计和概率的,那特么是几年前的AI。
: 现在的AI有推理模式,已经不完全是概率了。用gemini3pro,基本都是推理计算出来的
: 另外可以尝试agent来做,
: ...................
--
FROM 222.131.221.*
公式,计算和结果,是三个不同东西
AI只是一个搜索工具,所以不会计算,只是按照概率,提供网络上现存的公式和结果。
--
修改:feiyiyi FROM 183.242.53.*
FROM 183.242.53.*
任正非这老头都知道AI就是概率模型
人的大脑都是概率模型
【 在 world 的大作中提到: 】
: 你这就属于一知半解。推理模式本质仍然是概率模型,可以去翻下资料。
--
FROM 114.247.88.*
人脑只是看起来像概率模型
【 在 hotfix 的大作中提到: 】
: 任正非这老头都知道AI就是概率模型
: 人的大脑都是概率模型
--
FROM 222.131.221.*
就目前Ai的智能,想真正替代脑力劳动者,100步大概也就走了8步了
【 在 wuduan 的大作中提到: 】
: 问ai问题,得很小心,仔细检查,否则可能被坑
: 刚才问它一个问题,给我一个公式,然后由这个公式算出来结果,
: 公式是对的,结果是错的,差3个数量级
: ...................
--
FROM 124.126.202.*
场景: 假设模型“认识锤子”,“认识钉子”,“懂物理规律”,但从未在训练数据中见过“用石头砸开椰子”这个具体组合。
有推理的Agent: 它不会直接检索答案,而是现场推导。
Step 1: 椰子是硬的,里面有水。
Step 2: 我需要打开它。
Step 3: 手不够硬,需要更硬的东西。
Step 4: 旁边有石头,石头比椰子硬。
Step 5: 结论(Action): 用石头砸椰子。
你要说这种是概率和统计模型也不是不可以,那你就得承认人类也就是自己全部历经和体验的统计模型
【 在 hotfix 的大作中提到: 】
: 那是你不了解
: 理解了大模型的本质之后就会知道,还是概率模型
: 就像陶哲轩说的guess machine
: ...................
--
FROM 14.17.22.*
场景: 假设模型“认识锤子”,“认识钉子”,“懂物理规律”,但从未在训练数据中见过“用石头砸开椰子”这个具体组合。
有推理的Agent: 它不会直接检索答案,而是现场推导。
Step 1: 椰子是硬的,里面有水。
Step 2: 我需要打开它。
Step 3: 手不够硬,需要更硬的东西。
Step 4: 旁边有石头,石头比椰子硬。
Step 5: 结论(Action): 用石头砸椰子。
如果这种算是概率模型,那人类也就是个概率模型
你的资料说下名字,我看看是啥
【 在 world 的大作中提到: 】
: 你这就属于一知半解。推理模式本质仍然是概率模型,可以去翻下资料。
--
FROM 14.17.22.*