- 主题:ai出错太常见,无法信赖
幻觉确实是现在AI最大的问题,需要着力解决
要么就是自己补充专业的数据库,搞内部训练
【 在 lihq 的大作中提到: 】
: 的确是这样的,要想靠谱,自己还得搞一堆事情,然而这工作量和复杂度算下来,还不如自己干了
: 这玩意就是泡沫
--
FROM 124.16.226.*
你这是彻底否定涌现了啊
【 在 akila (akila) 的大作中提到: 】
: 不要被ai两个字符迷惑了,deepseek这种大语言模型,实际上不是智能,只是依赖大量计算+大量数据对向量化后的文字的统计,然后提取相似度高的向量(也就是文字)成语接龙一样码出一堆文字,至于码处来的文字是什么意思,实际上大预言模型是不知道的。
: 上面有人说得对,对于不知道的东西,或者不需要结果精确的东西,大语言模型可以用着玩,对于已知精确结果的东西,如果要让大语言模型回答精确,要靠微调(实际就是作弊,把问题和结果统统做成小炒放到模型里面)。
: 微调这种对专业人士自己使用,完全是浪费时间,有那个时间精力微调,早把事情干完了,只有专业人士面对一群非专业人士的场景,比如智能客服这种,专业团队微调好了,给非专业人士使用,节省非专业人士大量重复需求对专业人士这的占用。
: 所谓的让买api,无非是接入速度快,限制更少,从原理上看,大语言模型无法实现对提供的任意文字、数字的真正理解,也就无法提供精确的结果。
--
FROM 117.129.14.*
这方面错就错吧,开车才真要小心
【 在 wuduan 的大作中提到: 】
: 只能写一些要求不严格的东西。需要准确全面分析的时候就不能用了。
: 现在是随随便便试一下就出问题。
: 例如刚才试了一下腾讯元宝的deepseek,
: ...................
--
FROM 113.248.33.*
现在最大的问题是。。ai反而产生大量垃圾信息,然后开始污染互联网。。
以后找个准确的信息都难了。。
比如我今天问ai macbook的螺丝啥型号。。
结果豆包 kimi ds这几个给出的答案都不同。。。无法确信
然后再去baidu啥的,发现很多也是ai的信息了
【 在 wuduan 的大作中提到: 】
: 只能写一些要求不严格的东西。需要准确全面分析的时候就不能用了。
: 现在是随随便便试一下就出问题。
: 例如刚才试了一下腾讯元宝的deepseek,
: ...................
--
FROM 124.126.183.*
ds一直这德行。。。看上去很美
实际上没法用。。
总是超时。。
【 在 wuduan 的大作中提到: 】
: 我又给它一个长文,让它分析,它只给出很少的结果。
: 然后我告诉它太少了,让它仔细分析。
: 它就开始耍赖了,说:服务超时,请重试。
: ...................
--
FROM 124.126.183.*