- 主题:我不理解为什么Claude冠绝群雄
Claude是世界上最好的大模型了,这一点无论是从我看到的大家的评判上,还是我自己
的使用体验上均是如此。
但是我很不理解为什么Anthropic可以做到这一点。论人才,OpenAI,Google,Xai,哪
家公司会比Anthropic更少?论资源,google有海量的搜索数据支撑,有庞大的TPU集群
支撑……就算OpenAI,背后也有Microsoft这个大佬支撑。Anthropic唯一与众不同的是
它对安全的坚持。Dario就是因为OpenAI在安全问题上不能和自己的理念相一致,才离职
的。所以Anthropic可能比任何一家大语言模型公司都更注重安全。(想到这里,我就想
到马斯克了。马斯克很早就说ai有多危险了,可是他自己的Xai却又恰恰是最“肆无忌惮
”的,最没有“安全感”的)
那么问题来了,为什么最注重安全的Anthropic反而成就了最厉害最顶尖的大模型了呢?
难道果真“慢就是快”,注重安全反倒果真能促成做好产品?关键是它还能哗哗哗的赚
钱,这个能力比谁都强。
--
FROM 140.245.65.*
得了吧,A/注重个p的安全
往现实说,他给五角大楼军事行动提供支持
往技术上讲,三家里现在最保守、难破限的是GPT
A/的安全就是个biao子的牌坊
【 在 ssteym 的大作中提到: 】
: Claude是世界上最好的大模型了,这一点无论是从我看到的大家的评判上,还是我自己
: 的使用体验上均是如此。
: 但是我很不理解为什么Anthropic可以做到这一点。论人才,OpenAI,Google,Xai,哪
: ...................
--
FROM 182.85.136.*
GPT最保守?
这不符合我对Altman的刻板印象啊。
【 在 adamhj 的大作中提到: 】
: 得了吧,A/注重个p的安全
: 往现实说,他给五角大楼军事行动提供支持
: 往技术上讲,三家里现在最保守、难破限的是GPT
: ...................
--
FROM 140.245.65.*
比如:
1、Claude训练时搞“合成数据对齐”,用经过自己的逻辑校验的合成数据进行预训练。而不是在高质量数据都训练过后,强喂低质量数据去训练。
2、100万token的长文本处理本质上是“注意力机制的对齐问题”。Claude开发了更精准的权重控制技术,确保模型在长文本中不被误导。
3、Adaptive Thinking 模式,模型在输出前进行的逻辑自洽性审计。
4、训练模型去学习高水平码农的工作模式,而不仅仅是学习代码。
--
FROM 123.115.128.*
Claude听起来不错,为什么你还用别的好几个AI?
【 在 z16166 的大作中提到: 】
: 比如:
: 1、Claude训练时搞“合成数据对齐”,用经过自己的逻辑校验的合成数据进行预训练。而不是在高质量数据都训练过后,强喂低质量数据去训练。
: 2、100万token的长文本处理本质上是“注意力机制的对齐问题”。Claude开发了更精准的权重控制技术,确保模型在长文本中不被误导。
: ...................
--
FROM 218.108.223.*