- 主题:我觉得各位马龙真的要考虑下自己的饭碗了
自己去用了感受吧。讲真gpt4都出来1年了。其他我就懒得解释了。
【 在 iMx 的大作中提到: 】
: gpt,是自己想出来的答案,还是给的素材里正好有类似的
:
--
FROM 180.98.131.*
看了你的case,打算买个GPT4试一下
【 在 lvsoft 的大作中提到: 】
自己去用了感受吧。讲真gpt4都出来1年了。其他我就懒得解释了。
【 在 iMx 的大作中提到: 】
: gpt,是自己想出来的答案,还是给的素材里正好有类似的
:
--
FROM 111.198.17.15
这个看法太静态了,事实上现在训练gpt的方法还特别的糙,所有数据往一个通用架构里扔,就已经这么震撼的结果
现在会看到的很多问题,比如细节错误等等,数据清洗,特定数据合成,架构优化,训练方法改进等等,都还将大幅度提升效果
最简单的例子,dalle3用大量图像到文本的合成数据,比公开的dalle2数据集质量提升极多,优化效果就好了很多
要是用gpt4处理出来10t的合成数据做训练,或者结合多模态的数据做优化,过几代的能力不知道会是啥样的
【 在 hgoldfish 大作中提到: 】
: 依我看就是个很好的搜索引擎+知识库。代替了以前那种初级的使用关键字的检索引擎。pagerank这个检索算法,因为有了更强的算力终于得到了突破。所以 Google 才会那么紧张。第一个严肃的应用也是被巨硬拿来放到 bing 里面。国内阿里、拼多多现在争得半死,恐怕到现在还不知道自己会被降维打击死在 gpt 这个算法手里。
: 传统计算机补充了人类的逻辑计算功能。GPT 补充了人类的记忆功能。从此人类不再需要记大量的知识就能开始工作了。普通人要读到 25 岁才能毕业找工作,以后不需要了,十岁就能干活。所以 GPT 算法的影响力再怎么样强调都不为过。以后聪明人会无限 powerful, 蠢人只剩下肉体价值。
: 但你也看到了,这个模糊的算法最多算全知。低能就是低能,天天胡说八道类似于本版的 xiaoju. 很容易造成反效果。让他生产代码是不对的。而你那个朋友的例子我听你说过好几遍,不太认同你的结论。因为他本身具备很强的逻辑思维能力。在开发过程中,他只是利用 GPT 在快速查阅资料。虽然 GPT 看起来像是产生了代码,但不过是它查询别人干过的事情拿过来给他看了一下,你朋友觉得可以,就用上了。这事里面,最重要的还是你朋友的逻辑判断能力。用模糊的记忆产生精确的代码是缘木求鱼。
: ...................
--
FROM 111.194.203.*
我不明白了,实际上gpt给你的基本上也是一堆文档,你还不能保证这些内容是否是对的,还得去搜索引擎搜,那不等于一个文档要读两遍么?这个效率算提高么?
【 在 lvsoft 的大作中提到: 】
: 那个换个例子,比如这个例子我对这个相关领域完全不懂,我就是奔着向gpt4请教的想法去的。
: 但我懂基本的物理学常识,对于它的回答我有我自己的判断+搜索引擎辅助判断。
: [upload=1][/upload]
: ...................
--
FROM 115.150.227.*
这个还是有不少差别的。比如你回的这个例子,是我遇到了一个不懂的领域,然后我把gpt4当作专家咨询。
事实上在这之前我已经用搜索引擎搜过了,但有效的中文内容只有一个版本,是某个相关厂商写的对其基本原理的行业科普。然后这个文章被抄,被脱稿了无数次。以至于我在搜索过程中被迫看了很多遍。而且这篇文章只是科普,对于具体的信息(比如我关心的各种数值参数)完全没帮助。基本上这个过程效率很低,我搜了好几页,也没搜到第二个版本。
然后我才把gpt当作专家直接对话请教。基本上,gpt4对于科普级的内容,在99.9%的情况下都是对的,不需要去验证。对于其中需要稍微计算的部分(比如我询问多少气压/多少流速下下能工作多久的问题),一般来说大差不差,够你做出定性的判断(当然你自己验算一遍也可以)。只有较为复杂的逻辑,主要是coding这个级别的时候,不保证是对的。但大部分咨询级的对话不太可能涉及到这种程度,所以实际上它说的基本就是对的(比如你回的这个帖子里面涉及的例子,就是100%正确)。然后,gpt4的回答也不止于文档,更像是一个人跟你探讨。比如我这个例子中我让它给我用有向图描述管路的结构。然后在其中的一个阀门的理解上,它还纠正了我一个理解上的错误。这种交互肯定不是文档能做到的。
我是觉得,gpt4的回答不是对/错,更像是99%对还是80%对的区别。你用搜索引擎搜,一样会搜到错误的结果(比如垃圾文章)。你去咨询真人,也一样可以得到错误的结果(犯错/专业不熟悉)。实际上本来就不存在100%绝对正确的方法,更重要的是自己掌握多途径交叉验证的能力。就我对gpt4的大量实践来说,它说的基本都是对的。一般来说只需要注意两点,一是涉及非常细节的东西,另一个是它给了你一个too good to be true的答案。事实上就我这个thread里贴出的3个例子,大错误可以说一个都没有,细节方面的小错误有不少,但性质都不严重。比如它把at32当作是新唐科技Nuvoton的产品,这个就是错的,但在当时的上下文中无关紧要。
最后,我现在基本上不找人类专家了,而是把gpt4当作全能专家咨询了。它帮我解决了很多问题,比如有个产品可以实现35立方米空间内,最大35um误差的非接触绝对定位精度。它的技术原理困扰了我很久,在gpt4之前我google看了好多论文也没能破解。但在gpt4的帮助之下,我很轻松的就破解了它的核心技术原理。传统搜索引擎,你必须问出准确的关键字才行。而gpt4最nb的是它能理解你在想啥,哪怕你自己说不出来你在想的那个东西是什么。
【 在 adamhj 的大作中提到: 】
: 我不明白了,实际上gpt给你的基本上也是一堆文档,你还不能保证这些内容是否是对的,还得去搜索引擎搜,那不等于一个文档要读两遍么?这个效率算提高么?
:
--
修改:lvsoft FROM 180.102.34.*
FROM 180.102.34.*
有时候给点启发,毕竟有的东西你不知道你不知道
【 在 adamhj 的大作中提到: 】
: 我不明白了,实际上gpt给你的基本上也是一堆文档,你还不能保证这些内容是否是对的,还得去搜索引擎搜,那不等于一个文档要读两遍么?这个效率算提高么?
--
FROM 121.33.161.*
看了你写的token限制的那部分内容,其实现在gpt4之所以只能作为一个强辅助,或者说是一个超级顾问,问题就在这里。
试想一下,有一个超级专家,但他不愿意受雇于你公司接受你公司本地的公司信息(数据环境),那么你的公司在运转时,就需要现有的员工把本地数据信息转换了去咨询他,问了这次下次还得交代本地的公司信息。
现在唯一需要做的就是gpt4得有建立本地信息得能力,进入角色,对于现有模型来说,除了接收通识认知,还得接收角色相关数据,按现有模型来说就得接受大规模token,或者就得建立一个更加类似人类大脑记忆模块。
感觉gpts是一种尝试,但好像又不完全是,这可能是一个难题。
当这个问题解决后,每个注册用户就像使用云盘一样,有个上百G得空间,上传角色数据后,他能替代任何人或组织了。
再回到现在,超级专家很有用,但又不是那么有用,仅仅是一个顾问而已。活还得自己干,问题还得自己主动去提。
目前gpt的出现,相当于人类发明了晶体管,但还没有发明冯诺伊曼架构。
【 在 lvsoft 的大作中提到: 】
: 自己去用了感受吧。讲真gpt4都出来1年了。其他我就懒得解释了。
--
FROM 180.167.122.*
现在gtp已经提供建立本地数据模型的服务,当然是专门收费的。
【 在 Donlleir 的大作中提到: 】
: 看了你写的token限制的那部分内容,其实现在gpt4之所以只能作为一个强辅助,或者说是一个超级顾问,问题就在这里。
: 试想一下,有一个超级专家,但他不愿意受雇于你公司接受你公司本地的公司信息(数据环境),那么你的公司在运转时,就需要现有的员工把本地数据信息转换了去咨询他,问了这次下次还得交代本地的公司信息。
: 现在唯一需要做的就是gpt4得有建立本地信息得能力,进入角色,对于现有模型来说,除了接收通识认知,还得接收角色相关数据,按现有模型来说就得接受大规模token,或者就得建立一个更加类似人类大脑记忆模块。
: ...................
--
FROM 116.232.48.*
人只对自己有价值
【 在 lvsoft 的大作中提到: 】
: 汇编跟高级语言的变化,和ai的变化是两码事。
: 很多人面对ai的变革都会举例当年蒸汽机取代了人力,火车取代马车,照相机取代绘画等等例子。
: 在我看来这些都是人某种感官或者肢体的延伸,这些技术最终都是放大了人的能力。所以它们对人类都是有益的,都是释放了人,提高了生产力,对旧有秩序的破坏的同时又提供了更大的舞台,所以与其说是对旧秩序的破坏,不如说是升级。
: ...................
--
FROM 210.72.33.*
我最近体会也是这样,gpt的答案感觉总是缺点啥,最后还是谷歌靠谱
【 在 chylli 的大作中提到: 】
: chatgpt最大的问题是它不会他不说不会,他是乱答一气
:
--
FROM 123.119.250.*