- 主题:我觉得各位马龙真的要考虑下自己的饭碗了
汇编跟高级语言的变化,和ai的变化是两码事。
很多人面对ai的变革都会举例当年蒸汽机取代了人力,火车取代马车,照相机取代绘画等等例子。
在我看来这些都是人某种感官或者肢体的延伸,这些技术最终都是放大了人的能力。所以它们对人类都是有益的,都是释放了人,提高了生产力,对旧有秩序的破坏的同时又提供了更大的舞台,所以与其说是对旧秩序的破坏,不如说是升级。
汇编到高级语言的变化,有点像是算盘或者计算器的出现这样,解放的依然是人脑中相对低级的智力活动。
而且汇编主要是晦涩,并不高深,相反汇编简单的很。
但ai不一样,ai是人大脑的替代,它和人不存在互补这一说,它就是替代人的。
未来它注定能更大程度的释放人,但这一次人类是否还有必要存在就是个问题了。
openai自己说的,未来智力资源不再稀缺,而且会廉价到泛滥。这个趋势其实无关openai,只要技术沿着这个脉络继续发展下去就一定会到来。这就是我为啥悲观的原因。在一个体力资源和智力资源都无关紧要的时代,人还有哪些存在的价值,这个问题我没有想到答案。
【 在 DreamDreams 的大作中提到: 】
: 我其实没那么悲观,写汇编的人看高级语言当年估计也是这感觉,觉得自己
: 是最后一代能理解机器运作的人了,不过最后世界进化之后,汇编也并没有绝迹
: 只是范围缩小到只有写编译器等等很少的地方需要了
: ...................
--
修改:lvsoft FROM 180.102.34.*
FROM 180.102.34.*
你是架构上的优化还是代码上的优化还是两者都有?
如果只是代码上的优化,诸如大量实现之前写的太垃圾,要写个等价实现,这个交给gpt相对简单,一段段的贴给它让它输出等价优化就行了,然后简单测试下如果有不一致的可以继续让gpt改。
以上过程应该可以自动化,但可能得自己写脚本调api来做,当然这个脚本也可以让gpt自己写。
如果是涉及到架构上的优化,那基本上就等于是重写了,这种可以从零开始让gpt写,同时喂给它之前的垃圾代码作为参考。这个我估计完全自动化会比较困难,可能得人一路扶着。
其实说穿了就是4K token上下文的限制问题,发布会之后的gpt4 turbo宣布token扩展到128K。有这么大的空间理论上你可以整个程序丢给它让它一次搞定,但这个我还没玩过,并且128K token的效果和4K token的效果是否等价也是未知数。开源llm有这种现象,就是有些llm宣称具有超长token,但实测它虽然能输入超长token,但其表现会迅速下降到几乎不可用。我不确定gpt4 turbo是否有类似问题。
【 在 ztysys 的大作中提到: 】
: 请教一个问题,我有一个项目,十几万行的垃圾,百来个文件,我想优化一下,也有思路,也能教gpt怎么做,这种gpt能搞定么
: 就怕搞个夹生饭,改完还得自己再调一轮,本来就啃过老代码,结果还要重新啃一遍新代码,哪就没什么价值了
: 要是完全不行那就算了,谢~
: ...................
--
FROM 180.102.34.*
lz就是典型的语不惊人死不休而已。
目前gpt4对于高手是极大的助力,对于菜鸟如果能善加利用是个好老师,但大部分情况下菜鸟很难发挥出gpt4的真正能力。
不过他说的问题在未来确实存在,趋势是很明显的。
不过coding是天底下最复杂的智力活动之一,码农的饭碗被砸了,其他行业基本上也是一个都别想跑。
【 在 z16166 的大作中提到: 】
: 不是说没啥,而是说不用拔高,楼主的这个标题就是拔高
:
--
FROM 180.102.34.*
不是,目前的gpt4上下文空间就4096个token,所以脑容量比较小。
如果超过4096个token,有各种奇淫技巧把它切成一段段的喂进去,并利用长期记忆来记住,但效果会差很多。
gpt4 turbo的上下文空间达到了128K个token,可以一口气读300页文档并记住所有细节,理论上是可以做到这个事情的。
但我前面说了,超长token本身也是有很多挑战的,我还没用过gpt4 turbo,不知道它的超长token能力是否靠谱。
【 在 ztysys 的大作中提到: 】
: 构架上的优化,一小段一小段的优化意义不大
: 简单看起来,好像 gpt 没有分析一堆文件,再组合解决的能力,这将很大程度影响应用场景了
: 或许以后 gpt 能一个文件一个文件读,然后自己穿起来分析。只要算力够,应该也能行吧,可以出一个专门写大规模代码的版本,那程序员就真要失业了
: ...................
--
修改:lvsoft FROM 180.102.34.*
FROM 180.102.34.*
其他能力gpt4本来就有,就是不知道在超长token的情况下这些能力保持的如何。
其实有超长token的llm很多。比如跟openai竞争的claude.ai的卖点之一就是超长token。当年发布即支持100K token。但claude.ai大致来说相当于chatgpt3.5的能力,而且在coding方面还更弱。
基本上众多LLM里在coding能力方面普遍偏弱,只有gpt是相对而言特别强的。这个特别强也包括chatgpt3.5在内,但chatgpt3.5距离4.0依然有本质区别。有个实验是看在完全无人干预的情况下,让ai自己不断自我迭代的coding,gpt4是唯一可以通过自省实现自我纠错,自我超越的(但超越的不多,跟人相比还有数量级的差距)。而gpt3.5在这方面就完全做不到了。
gpt4 turbo需要买api,我朋友已经在评估了,我就暂时不折腾了等他折腾的结果。
【 在 ztysys 的大作中提到: 】
: 超长token,需要归纳和演绎能力吧,这个不知道 gpt 有没有,有就牛逼了,码农直接下岗妥妥的
:
--
修改:lvsoft FROM 180.102.34.*
FROM 180.102.34.*
更恐怖的不是干翻码农,而是直接端到端了,根本就没有代码这个东西。
【 在 ztysys 的大作中提到: 】
: 听上去还是有机会的,真能干翻众码农也是好事~~~
:
--
FROM 180.102.34.*
自己去用了感受吧。讲真gpt4都出来1年了。其他我就懒得解释了。
【 在 iMx 的大作中提到: 】
: gpt,是自己想出来的答案,还是给的素材里正好有类似的
:
--
FROM 180.98.131.*
这个还是有不少差别的。比如你回的这个例子,是我遇到了一个不懂的领域,然后我把gpt4当作专家咨询。
事实上在这之前我已经用搜索引擎搜过了,但有效的中文内容只有一个版本,是某个相关厂商写的对其基本原理的行业科普。然后这个文章被抄,被脱稿了无数次。以至于我在搜索过程中被迫看了很多遍。而且这篇文章只是科普,对于具体的信息(比如我关心的各种数值参数)完全没帮助。基本上这个过程效率很低,我搜了好几页,也没搜到第二个版本。
然后我才把gpt当作专家直接对话请教。基本上,gpt4对于科普级的内容,在99.9%的情况下都是对的,不需要去验证。对于其中需要稍微计算的部分(比如我询问多少气压/多少流速下下能工作多久的问题),一般来说大差不差,够你做出定性的判断(当然你自己验算一遍也可以)。只有较为复杂的逻辑,主要是coding这个级别的时候,不保证是对的。但大部分咨询级的对话不太可能涉及到这种程度,所以实际上它说的基本就是对的(比如你回的这个帖子里面涉及的例子,就是100%正确)。然后,gpt4的回答也不止于文档,更像是一个人跟你探讨。比如我这个例子中我让它给我用有向图描述管路的结构。然后在其中的一个阀门的理解上,它还纠正了我一个理解上的错误。这种交互肯定不是文档能做到的。
我是觉得,gpt4的回答不是对/错,更像是99%对还是80%对的区别。你用搜索引擎搜,一样会搜到错误的结果(比如垃圾文章)。你去咨询真人,也一样可以得到错误的结果(犯错/专业不熟悉)。实际上本来就不存在100%绝对正确的方法,更重要的是自己掌握多途径交叉验证的能力。就我对gpt4的大量实践来说,它说的基本都是对的。一般来说只需要注意两点,一是涉及非常细节的东西,另一个是它给了你一个too good to be true的答案。事实上就我这个thread里贴出的3个例子,大错误可以说一个都没有,细节方面的小错误有不少,但性质都不严重。比如它把at32当作是新唐科技Nuvoton的产品,这个就是错的,但在当时的上下文中无关紧要。
最后,我现在基本上不找人类专家了,而是把gpt4当作全能专家咨询了。它帮我解决了很多问题,比如有个产品可以实现35立方米空间内,最大35um误差的非接触绝对定位精度。它的技术原理困扰了我很久,在gpt4之前我google看了好多论文也没能破解。但在gpt4的帮助之下,我很轻松的就破解了它的核心技术原理。传统搜索引擎,你必须问出准确的关键字才行。而gpt4最nb的是它能理解你在想啥,哪怕你自己说不出来你在想的那个东西是什么。
【 在 adamhj 的大作中提到: 】
: 我不明白了,实际上gpt给你的基本上也是一堆文档,你还不能保证这些内容是否是对的,还得去搜索引擎搜,那不等于一个文档要读两遍么?这个效率算提高么?
:
--
修改:lvsoft FROM 180.102.34.*
FROM 180.102.34.*
你在说啥?法律法规问题跟软件工程,跟码农有个屁的关系?你是码农么基本的逻辑都不讲?一个工程当然是复杂的,软件工程只是其中的一部分。你把软件工程泛化到整个工程来论证复杂性,那不如聊聊怎么招人怎么管人怎么搞钱好了,毕竟这些也都是会严重影响工程的支撑因素。
其次,你以为我对法律问题缺乏理解?早在十几年前我就用我们在intel里开发的系统中遇到的开源协议引起的法律问题,启发和指导了一个法律系的学生的硕士毕业论文。别觉得就你看到了这一点好不好。
最后,你是觉得这些问题ai搞不定还是咋的?ai做不了架构设计?ai不能提出法律建议,不能站在法律的角度去做开源模块的选型?别搞笑了行不。ai的问题是目前它的智力还不太够,但它可是什么都懂,论知识面它比谁都要资深。
【 在 poggy 的大作中提到: 】
:
: 软件工程还是毕竟复杂, 工程问题, 法律法规问题。
: 首先, 是工程问题, 你以为一个码农是吭哧吭哧把协议全部搞懂了,然后一行一行代码去coding,
: ...................
--
修改:lvsoft FROM 113.111.168.*
FROM 113.111.168.*