- 主题:最近在用chatgpt给at32写代码
仔细想想人的智能也是靠概率
【 在 tpo 的大作中提到: 】
: gpt目前是语言模型,简单说就是用概率构建输出,让输出的正确率和类人的感觉提高很多
: 并且通过概率,让人感觉甚至涌现出了”智能和意识“?
: 其实他的弱点是逻辑推理。。。目前只是因为语言概率能力的涌现,表现出了一定的逻辑推理能力,但是有人说这个其实是”假象“?
--
FROM 171.119.124.*
同意,gpt表现出的逻辑推理能力大概率是从语料中学习到的上下文概率的体现
而且“涌现”这个问题,前段时间有论文反驳过了,观察到的“涌现”现象跟选取的评价函数有关,换个线性的函数就变成线性增长的了
回到写代码的问题上,我最近一直在用copilot和copilot chat写些工具类脚本,咋说呢,还是当成一个增强版的搜索引擎来看待比较合适,用来寻找你不熟悉的库的用法,甚至让它给推荐使用什么库都还是很方便的,但是涉及到小众库或小众功能,在它的语料库中出现得不多的,精度就差很多,会给你瞎编一些用法出来。这一点上就能明显感知到这个东西还只是一个Large Language Model
【 在 tpo 的大作中提到: 】
: gpt目前是语言模型,简单说就是用概率构建输出,让输出的正确率和类人的感觉提高很多
: 并且通过概率,让人感觉甚至涌现出了”智能和意识“?
: 其实他的弱点是逻辑推理。。。目前只是因为语言概率能力的涌现,表现出了一定的逻辑推理能力,但是有人说这个其实是”假象“?
--
FROM 111.198.57.*
智能分很多类型
比如记忆力好的娃,被老人说,这娃聪明
或者听话,或者吸取了经验教训,所谓学聪明了
还有各种归纳,演绎
还有各种小聪明,算计人之类的
但逻辑推理则更是智能的硬指标
【 在 bpxflew 的大作中提到: 】
: 仔细想想人的智能也是靠概率
--
FROM 120.245.16.*
cadence/mentor 都有相应的产品了
【 在 ztg 的大作中提到: 】
: 写代码估计效果差强人意,毕竟对“智能”要求高。
: 原理图输入和PCB布局拉线要是能ChatGPT辅助的话,我倒觉得更加是人工智能擅长的初级应用。
: 有哪位研究过?可以探讨探讨
--
FROM 61.48.133.*
不是的,我认为辅助地位的工具和主导地位的智能是两个离散状态,中间不存在过度状态。
比如自动驾驶,要么是辅助,要么是完全自动驾驶,不可能是从辅助驾驶越做越好最终过度到完全自动驾驶的。这里有个根本性的矛盾:如果说只是辅助驾驶,也就是说一到关键场合系统就要甩给人类接管,那辅助驾驶做得越好,需要人类接管的概率越低,人类也就越容易放松麻痹大意,最终其后果也就越严重。所以辅助驾驶注定只能维持在很初级的程度,而想要达成完全自动驾驶,必须一开始就奔着这个目标去。
其次,tesla的fsd已经做得可以了,最多你可以说他还不如老司机这么轻松自如,但肯定过新手司机的线了。而fsd恰恰是最为践行用ai取代传统系统的思路。比如Sandy Munro和马斯克一起坐在tesla里面开着fsd的时候,他不禁感叹问马斯克“这么复杂的系统,需要多大的代码量,是千万还是上亿?”这种问法就是上时代人的思路,总觉得越复杂的系统一定伴随着同等规模的代码工作量。而马斯克回答是目前大概十几万行c++代码,并且马斯克强调他们在不断用ai替代c++实现的算法,他们还在不断降低代码量,最终希望整个系统只有几万行c++代码。这就是现代ai时代的工程思路。
至于gpt,其实我在gpt还没有破圈而时候就第一时间用过了。当时我的用法也就是你的说法。把他当作一种辅助工具,当成一个更智能的搜索引擎。所以我当时的总体评估一般。就好比我现在对copilot的评价一样。是一个能用的工具,但有一定风险(它胡说八道把你带进沟的风险),所以综合来看我还是更喜欢google搜索+自己判断的模式。但这次是在另一个朋友的推荐上尝试了这种新的使用模式。这个模式的关键就是放开手脚,给够充分的资料和信息,提出明确的要求,然后让gpt自己去发挥。它做不到100%正确也没关系,先整体再局部一步步的去修正,跟他进行多轮大量的对话,让他对问题有全面的信息,最终尽量全部交给他去自己实现。这里的角色转变是,之前只是把它当一个辅助工具看待,只要求它给我检索信息,做主的还是我。现在我把他当一个能理解能学习的人看待,我只是提供信息和指导,让它去自己判断执行,做主的是它,我只是旁观修正。
当然,现在开放的gpt4能力也弱于早期,我现在发现它能精确记忆的其实就1-2次上下文,每个上下文空间也有限,只能看上千字规模,此外对于长期的记忆很容易遗忘,或者细节记忆很模糊。如果是早期的完全体的gpt4,这种模式用起来会更震撼一点。如果是claude+的100万字规模+gpt4的智能,那是真的可以把上百页手册直接丢给他让它一口气解决的。
【 在 spadger 的大作中提到: 】
: 自动驾驶现在还不行,但是各种手机软件的导航功能已经非常好用并且完全普及了。
: 这里导航软件可以学习道路数据路况数据,给人类用户作为参考,而不是尝试去代替人类开车。我感觉gpt的用法应该参考地图导航软件。
:
--
修改:lvsoft FROM 180.111.27.*
FROM 180.111.27.*
我倒是觉得没有涌现,只是线性增长也足够恐怖了。
AI现在大概是200B规模,人脑突触大概是200T规模,差了3个数量级。以现在工程规模的发展速度,10年内就能赶上,如果能一直保持这种线性增长,ai很快就能超越人了。现在就已经这样了,比现在还强3个数量级那是要哪样啊...
至于具体的写代码问题,我的建议是ai最重要的还是使用姿势,是否能发掘释放出它的潜力很重要。这一点在chatgpt上,在stable diffusion上都表现的很明显。
【 在 eggcar 的大作中提到: 】
: 同意,gpt表现出的逻辑推理能力大概率是从语料中学习到的上下文概率的体现
: 而且“涌现”这个问题,前段时间有论文反驳过了,观察到的“涌现”现象跟选取的评价函数有关,换个线性的函数就变成线性增长的了
: 回到写代码的问题上,我最近一直在用copilot和copilot chat写些工具类脚本,咋说呢,还是当成一个增强版的搜索引擎来看待比较合适,用来寻找你不熟悉的库的用法,甚至让它给推荐使用什么库都还是很方便的,但是涉及到小众库或小众功能,在它的语料库中出现得不多的,精度就差很多,会给你瞎编一些用法出来。这一点上就能明显感知到这个东西还只是一个Large Language Model
: ...................
--
FROM 180.111.27.*
让AI去做主并不是一个好主意,不但困难,而且危险。
【 在 lvsoft 的大作中提到: 】
: 不是的,我认为辅助地位的工具和主导地位的智能是两个离散状态,中间不存在过度状态。
: 比如自动驾驶,要么是辅助,要么是完全自动驾驶,不可能是从辅助驾驶越做越好最终过度到完全自动驾驶的。这里有个根本性的矛盾:如果说只是辅助驾驶,也就是说一到关键场合系统就要甩给人类接管,那辅助驾驶做得越好,需要人类接管的概率越低,人类也就越容易放松麻痹大意,
: 钪掌浜蠊簿驮窖现亍K愿ㄖ菔蛔⒍ㄖ荒芪衷诤艹跫兜某潭龋胍锍赏耆远菔唬匦胍豢季捅甲耪飧瞿勘耆ァ
: ...................
--
FROM 222.90.82.*
NB
--
FROM 112.42.27.*
目前ai的智力总体来说还是比较笨的,
但我是觉得已经可以把他当作一个比较笨的人看待了。
毕竟现实中这么蠢的人也很多。
所以我说是把他当作你的小弟看待,你要审阅他的代码的。
【 在 spadger 的大作中提到: 】
: 让AI去做主并不是一个好主意,不但困难,而且危险。
:
--
FROM 180.111.27.*
参数多到一定程度,训练方法和训练质量更重要了【将来可能要划到教育学范畴里了
总之我的使用体验是,ai目前还不能帮你解决真正的逻辑问题,更多的是自然语言理解 并从海量的已有信息里提取出相关性最高的输出,LLM确实杀死了NLP的比赛
用在写代码里,更多的是解决了重体力工作,比如怎么调库传参,一些“行活”可以直接给出code snippet等等,还有根据你已有的代码上下文推断接下来应该怎么写 这一点有时候推断非常准,有时候也很智障...总之确实是一项生产工具的质的提升,堪比当年搜索引擎的问世 但是同样也面临垃圾信息干扰的问题
【 在 lvsoft 的大作中提到: 】
: 我倒是觉得没有涌现,只是线性增长也足够恐怖了。
: AI现在大概是200B规模,人脑突触大概是200T规模,差了3个数量级。以现在工程规模的发展速度,10年内就能赶上,如果能一直保持这种线性增长,ai很快就能超越人了。现在就已经这样了,比现在还强3个数量级那是要哪样啊...
: 至于具体的写代码问题,我的建议是ai最重要的还是使用姿势,是否能发掘释放出它的潜力很重要。这一点在chatgpt上,在stable diffusion上都表现的很明显。
: ...................
--
FROM 111.198.57.*