- 主题:对AI大模型最大的错误认知
对,你说的32b是千问自己的吧,效果还可以
另外,deepseek蒸馏的千问32b
deepseek公司出的技术论文里比较过
除了满血版以外是最有性价比的
有的测评分数比70b还高
【 在 hubinjzy 的大作中提到: 】
: LZ说的很对,大模型相关从业者。
: 目前看,大模型的幻觉越来越严重了,搜索准确率在稳定的下降。
: 举一个简单的例子,请随便问找一个汉子,比如“好”这个字,然后问大模型,有几画,笔画顺序是什么,看看结果。当然,这个考的是思索能力。但是可以发现大模型的胡说八道能力越来越强大了。
: ...................
--
修改:hut FROM 39.144.158.*
FROM 39.144.158.*
我觉得开启了以后,就是先搜,然后,视情让大模型进行摘要与扩写,大模型本身是不动的,动的是前端
大模型扩写的部分还是不太靠谱吧
现在有的搜索引擎,也有ai辅助搜索
我觉得可能是先找文献,然后对文献进行摘要综合
这种有文献网络链接的靠谱一点
【 在 yingzh 的大作中提到: 】
: 那开启ai搜索选项,是不是就能当搜索引擎了?
:
: #发自zSMTH@V2219A
--
FROM 39.144.158.*
这个我都手搓过了
但是普通人不会用这个
如果只是用anythingllm之类的做rag
效果不行
当然了,本文主要说的不是这个
说的是很多人把大模型当成自带知识库的检索系统
【 在 dripdrop 的大作中提到: 】
: 有种技术叫检索增强生成(RAG),就是通过检索知识库来减少大模型的幻觉的
--
FROM 39.144.158.*
是的,比如开始的时候AI回答电影男女主角一律是小美小帅……
【 在 hut 的大作中提到: 】
: 因为这半年主要跟大模型相关的事情打交道
: 觉得大家(包括一些研究AI的学者)
: 对DeepSeek这类大(语言)模型有很多错误的认知
: ...................
--
FROM 114.246.236.*
差不多吧,文字类的整理资料大模型做的很好。无非就是正确的废话。
所以下半年ai市场不看好,deepseek意外带火了一波。
【 在 hut 的大作中提到: 】
: 这个我都手搓过了
: 但是普通人不会用这个
: 如果只是用anythingllm之类的做rag
: 效果不行
: 当然了,本文主要说的不是这个
: 说的是很多人把大模型当成自带知识库的检索系统
: --
: 我沿溪行,忘路之远近
--
FROM 121.237.111.*
。。。难道不是拿这个问问解题逻辑或思路吗?
它每次提供的各种数据我都会给它一句:不要自己瞎编数据,不要无中生有
【 在 hut 的大作中提到: 】
: 因为这半年主要跟大模型相关的事情打交道
: 觉得大家(包括一些研究AI的学者)
: 对DeepSeek这类大(语言)模型有很多错误的认知
: ...................
--
FROM 223.104.41.*
不要管怎么用它,先普及用,就会有很多火花出来。
【 在 hut 的大作中提到: 】
: 因为这半年主要跟大模型相关的事情打交道
: 觉得大家(包括一些研究AI的学者)
: 对DeepSeek这类大(语言)模型有很多错误的认知
: ...................
--
FROM 223.104.41.*
是的,我认为现在所谓的ai完全就是套用炒作,它根本不清什么对错是非善恶曲直
--
FROM 114.246.236.*
如果需要自己核实每个点是否靠谱,那这个很麻烦啊比问度娘感觉没优越性啊
试着问了deepseek一个问题,质量和能量的关系,它倒是给出了爱因斯坦的那个方程,但给出的信息来源我一看,全是网上的比如百度教育,百度百科,还有几个自媒体的科普文。照说这个最权威的信源不应该首推教科书么,但完全没有爱因斯坦论文或者教科书的信源。
问题来了,这些大模型根据我们的问题,去搜什么样的信源它有数么?
【 在 hut 的大作中提到: 】
: 当成一个不太靠谱的知识大荟萃
: 可能会有激发自己思考的点
: 如果要真的用
: ...................
--
FROM 123.121.180.*
如果全部需要核实的话,那直接用百度之类的不好么,为何要用大模型
【 在 fanjiyouyi 的大作中提到: 】
: 就是告诉你AI说的要自己核实
: AI自己瞎编,你信了用到有后果的地方,你就倒霉了
:
--
FROM 123.121.180.*