- 主题:这个时代值钱就是大家的想法和解决问题的方式
那当然不是,想法不值钱
【 在 Peleus 的大作中提到: 】
: 免费token就是收集这个用的
--
FROM 116.233.45.*
不不不,经过验证的想法才值钱,只是个想法p都不是。
我前几天破防了,看到一台tct 3d展会上一个最新出品的3d打印机设计,
tnnd这个设计我6年前就想出来,然后当时就想着要去申专利的。后来忙而且我也懒就没去弄,在后面就忘了。我以为这么妙的设计没人能想到的,我只跟一个人说过这个想法,tnnd还是被别人想到了
【 在 hgoldfish 的大作中提到: 】
: 那再加个定语,有用的想法很值钱。
: 我现在深入介入观察实业生产,比如 3c 电子产业,他们想要设计出一个爆款出来是非常非常难的。不是说生产困难,对于中国这种工业克苏鲁国,生产制造一般是最简单的。而是找到用户需求的痛点,匹配到当前的潮流,又能符合互联网推广特征的,特别特别难。
: 这就是产业界所谓的“测款”。我手头的数据是,产业界这伙人,爆款成功率已经掉到不足 10% 了。要生产几十款,才能有一款产品是能卖的。
: ...................
--
FROM 116.233.45.*
虽然我不太喜欢他对ai的判断太过于保守,但在这点上他说的很对。
ai现在把回答问题做的非常好,但在提出问题方面存在根本性的缺陷。这也是ai目前还不能完全取代人的地方。
简单的说,放在人身上就是你不知道自己不知道什么。所以你没有能力去提出一个正确的问题。很多时候一旦你提出正确的问题,往往也意味着这个问题被解决了。但ai不一样,ai它其实知道所有的答案,它知道某个问题很重要,但如果你不说,它就当自己不知道一样。一旦它能真正提出问题,其实它就可以自己左脚踩右脚了。
不过我感觉这个可能是moe模型的固有缺陷
【 在 weiwallz 的大作中提到: 】
: 我喜欢看老鱼的观点,
: 但 用 AI 只能提出解决方案
: 这是什么意思
: ...................
--
FROM 116.233.45.*
一个杠精,他比普通人懂一点,所以尤其有害
【 在 ssteym 的大作中提到: 】
: @xiaoju 是谁啊?是大牛吗?
:
--
FROM 116.233.45.*
我不理解这种屎里淘金式的思考方式。
【 在 maruko 的大作中提到: 】
: 一个不值钱,两个不值钱,千万个就值钱。平均下来就有了价码。
:
: #发自zSMTH@STG-AL00
--
FROM 116.233.45.*
这个其实跟人类一样的。当你不懂这个问题的时候,你找的专家大概率也是偏的。
我觉得可以这么认为,你提出正确的问题这个行为本身,就激活了正确的专家。
【 在 weiwallz 的大作中提到: 】
: 这句话我十分赞成
: 很多时候一旦你提出正确的问题,往往也意味着这个问题被解决了
: 但我没明白,你说的问题,和MoE固有缺陷的关系?
: ...................
--
FROM 116.233.45.*
是,这也是一个很重要的因素。但我觉得可能还可以再更入一层。比如说我更喜欢 Gemini 而不是 Opus。但我的这个喜好跟绝大部分人是完全相反的,很大的原因也在于你说的这一点。这背后实际上是不同的价值观的问题。
【 在 adamhj 的大作中提到: 】
: 我觉得是训练材料和奖励机制问题,因为大家都更喜欢解决问题的人而不是提出问题的人
:
--
FROM 116.233.45.*
我当然很清楚不是只激活一个专家,但没有意义啊。
比如说128个专家激活8个,跟8专家激活1个有啥区别?
重点不是激活多少个专家,重点是他是moe,它不激活所有的专家。
而且我其实也很反对这种把能力切开,变成一个个专家的模式。这就是我前面说的价值观,或者说世界观的问题。简单的说就是到底是通才更重要还是专才更重要。但这个话题太大了,三言两语讲不清就不展开了。
总之就是我不认为 MOE 是正确的路线,它只是一个 cost down 的路线。
【 在 weiwallz 的大作中提到: 】
: 这个可能你得核实一下,一次输入的激活的专家数量不是限定在1的
: 比如,你里面混杂了文本和代码,文本和图像,激活的可能都不是只有一个专家
:
: ...................
--
修改:lvsoft FROM 116.233.45.*
FROM 116.233.45.*
所以我就说这个是不对的。
一堆专家可以解决问题,但一堆专家不一定能提出问题。甚至一堆专家还容易把事情带带歪,把本来很简单的事情越搞越复杂。
解决这个问题需要的是系统级的架构师。架构师一般来说需要是通才而不是专才。越复杂的系统,这个通才的领域就越广。现在的AI,至少主流的都没有往这个方向发展。
不过也正常,因为大部分人都是专才,都是在一个体系里面去解决某个具体问题的人。AI先把这些人代替掉,这个替代过程是很顺滑的。这就是 OPUS 在干的事,也是大部分人喜欢 OPUS 的原因。因为 Opus 本质来说就是一个更优秀的他们。
【 在 weiwallz 的大作中提到: 】
: MoE主要动机确实是为了省cost的
: FFN的参数量比attn层多的多
:
: ...................
--
FROM 116.233.45.*
不是的,这个跟上下文没有什么关系。现在的上下文已经足够做这个事儿了。
这个事情的本质还是注意力。
现在的模型可以轻松的背诵100万的上下文的内容,实现一个字不差。但是你真的把100万的内容喂进去,它会迷失方向的。
【 在 hgoldfish 的大作中提到: 】
: 这太低效了。要问好几个问题才能继续聊?说白了就是 AI 的上下文仍然严重不足。在做每个事情上,我们人类能够根据长期的观察,总结出很多上下文,在聊天时自动调用。
: 不过也可能是 AI 现有的缺陷,随着迭代次数的增加,以后会被修复。。
: 或许这是因为 AI 只学习了些人类的光明一面。还缺少对人类阴暗面的认知吧。
: ...................
--
FROM 116.233.45.*