- 主题:为什么我问Deepseek,给出的答案都是明显错误的?
认真问一句,你说的前三个,deepseek训练过他们数据吗?
【 在 tgfbeta 的大作中提到: 】
: 就是一个高级的wikipedia + stackexchange + quora + zhihu + 。。。。
--
FROM 115.192.54.*
wiki不可能不用,我猜
【 在 netcom 的大作中提到: 】
: 认真问一句,你说的前三个,deepseek训练过他们数据吗?
:
--
FROM 219.143.199.*
~~~上次未发表的内容~~~
ds能kx上网吗?
【 在 tgfbeta (右旋肉碱) 的大作中提到: 】
: 就是一个高级的wikipedia + stackexchange + quora + zhihu + 。。。。
: 【 在 netcom 的大作中提到: 】
: : 额 他没有学习书本的知识嘛
: : 如果是这样,DS岂不是一个比较高级的迪庆?
--
FROM 222.143.20.*
大公司啥玩意搞不定?
估计有些灰色数据也能花钱搞定
我猜
【 在 winnerstone1 的大作中提到: 】
: ~~~上次未发表的内容~~~
: ds能kx上网吗?
--
FROM 221.198.65.*
AI目前两个个问题:
1、询问一些互联网上没有的信息时,因为AI倾向于一定要给出答案,所以它不会回答找不到,而是根据经验胡诌;
2、当让AI比较一些有争议性的内容时,AI常会模棱两可的回答来糊弄用户;
【 在 ccttxd 的大作中提到: 】
: 为什么我问Deepseek,给出的答案都是明显错误的?
: 比如问深圳某个不知名写字楼有哪些公司入驻?
: ds给出的答案基本上把深圳有名公司都给列进去了,这明咸就是错误的回答
--
FROM 125.84.66.*
这点确实很像人
【 在 huaxinjuedui 的大作中提到: 】
: AI目前两个个问题:
: 1、询问一些互联网上没有的信息时,因为AI倾向于一定要给出答案,所以它不会回答找不到,而是根据经验胡诌;
: 2、当让AI比较一些有争议性的内容时,AI常会模棱两可的回答来糊弄用户;
: ...................
--
FROM 115.195.73.*
关于AI幻觉
AI幻觉是指人工智能模型(尤其是大型语言模型)生成的输出内容看似合理流畅,但实际上与输入信息、上下文环境或客观事实相矛盾,缺乏逻辑或经验支撑的现象。简单来说,AI幻觉就像是AI在“一本正经地胡说八道”。
AI幻觉的分类
根据百度百科,AI幻觉可以分为以下两类:
o 事实性幻觉(Factuality Hallucination):生成的内容与可验证的现实世界事实不一致。例如,模型错误地回答“Charles Lindbergh在1951年月球先驱任务中第一个登上月球”,而实际上第一个登上月球的人是Neil Armstrong。
o 忠实性幻觉(Faithfulness Hallucination):生成的内容与用户的指令或上下文不一致。例如,用户要求总结2023年10月的新闻,但模型却在说2006年10月的事。
AI幻觉的成因
AI幻觉的产生主要有以下几方面原因:
o 数据问题:
o 数据缺陷:训练数据中存在错误信息或偏见(如重复偏见、社会偏见)。
o 知识边界:模型的知识有限,存在领域知识缺陷或过时的事实知识。
o 模型架构问题:
o 基于概率的生成方式:模型通过概率生成内容,而不是基于事实验证。
o 复杂推理机制:某些模型(如DeepSeek R1)采用强化学习和思维链架构,虽然提升了推理能力,但也更容易陷入假设性陈述。
o 训练不足:模型在某些领域的训练数据不足,导致生成内容缺乏准确性。
AI幻觉的影响
AI幻觉可能会带来以下问题:
o 误导用户:生成错误或虚假的信息,误导用户做出错误决策。
o 信任危机:削弱用户对AI系统的信任,影响AI在各行业的应用效果。
o 法律和伦理问题:在某些敏感领域(如医疗、法律)可能导致严重的后果。
解决AI幻觉的方法
研究人员和企业正在探索多种方法来减轻AI幻觉现象:
o 数据优化:
o 收集高质量数据:确保训练数据的准确性和完整性。
o 数据清理:去除数据中的错误信息和偏见。
o 知识增强:
o 知识编辑:直接编辑模型参数,弥合知识差距。
o 检索增强生成(RAG):通过检索外部知识源来增强模型的输出。
o 模型改进:
o 改进训练方法:采用更先进的训练算法,提高模型的准确性和可靠性。
o 增加监督机制:通过人工审核或自动检测机制,及时发现和纠正幻觉内容。
总之,AI幻觉是当前人工智能领域面临的一个重要挑战,需要通过多方面的努力来解决。
【 在 netcom 的大作中提到: 】
: 这点确实很像人
:
--
FROM 113.206.75.*
哈哈,一本正经胡说八道的人也是很多的
【 在 huaxinjuedui 的大作中提到: 】
: 关于AI幻觉
: AI幻觉是指人工智能模型(尤其是大型语言模型)生成的输出内容看似合理流畅,但实际上与输入信息、上下文环境或客观事实相矛盾,缺乏逻辑或经验支撑的现象。简单来说,AI幻觉就像是AI在“一本正经地胡说八道”。
: AI幻觉的分类
: ...................
--
FROM 115.195.73.*