- 主题:有AI以后, 编程语言真的不用学了
好奇问一下,整个项目信息都告诉它,会有泄露风险吗?
【 在 lvsoft 的大作中提到: 】
: 我觉得我已经很不喜欢说话了吧,难得说一次。
: 人多少还是会有吐槽欲的。
: 而且我说的这些也不是啥新鲜事了。
: ...................
--
FROM 123.120.169.*
尤其对于纯软件的商业项目开发,这方面安全性 如何?
【 在 beep 的大作中提到: 】
: 好奇问一下,整个项目信息都告诉它,会有泄露风险吗?
--
FROM 123.120.169.*
再好奇问一下,你前面讲到的感觉大部分都是工程性质的开发,就是人本身也会有确定解法的代码开发。那有没有尝试过用sonnet 3.5做类似科研探索性质的任务呢?比如说,让他给rust或ts开发一个模拟algebraic effect
的库?或者退一步,让它写一个魔改版的cpp编译器,学习rust那样强制要求raii?或者,再退一步,假设地,在js只有回调没有promise的那个年代,让它自己发明出一个类似promise的东西?
【 在 lvsoft 的大作中提到: 】
: 这个叫ai的自省能力,有这个能力的ai屈指可数。
: 不过这方面的定量评测我只有比较旧的数据,还远比不上人。
: 但我觉得claude现在是相当可以的。大部分情况下能自纠成功,少部分需要人提醒下(不是告诉他答案,仅仅是让它停下来想一想),只有极少部分自己绕不出来,通常发生在超长对话中。这个时候重开对话也能快速纠正。
--
FROM 123.120.175.*
给过程性语言添加algebraic effects不算很确定性吧,现在人类也没有公认比较好的方案
不过你说的我明白了,和人一样,探索性问题要讨论,而不是完全当作任务交代并适当监督敲打给它就完事,对吧?
【 在 lvsoft 的大作中提到: 】
: 很多,基本上我把ai当全领域专家用,很多新奇的想法我现在都是先找ai聊天的。但这方面我总体感觉ai会倾向于顺着你的话说,较少提出质疑。举个例子,比如现在ai训练都用bp算法,我就跟ai聊过如何找一种更有效的取代bp的算法。总的来说,在非确定性的探索性问题上,ai的回答缺乏系统性。但跟它交流能获得很多启发性的想法,并且在各种问题细节上也可以详细讨论。
: 你说的这几个问题也是偏工程的,我感觉也都挺确定的啊,早在gpt4刚诞生的时候就有很多类似的例子,比如有人跟gpt4聊天设计一门新的语言之类的
--
FROM 123.120.175.*