Stack Overflow Bans ChatGPT For Constantly Giving Wrong Answers
https://www.vice.com/en/article/wxnaem/stack-overflow-bans-chatgpt-for-constantly-giving-wrong-answers
机翻:
Stack Overflow 是一个编码网站,长期以来一直是互联网上提供编程建议的首选问答论坛,它暂时禁止使用 OpenAI 的新聊天机器人 ChatGPT。
该论坛的版主表示,该网站已经看到新工具产生的大量响应,该工具使用复杂的人工智能模型为人类查询提供令人信服但通常不正确的答案。
“总的来说,由于从 ChatGPT 获得正确答案的平均比率太低,发布由 ChatGPT 创建的答案对网站以及询问或寻找正确答案的用户来说是非常有害的,”该网站的版主在一篇帖子中写道在网站的“元”论坛上。“主要问题是,虽然 ChatGPT 产生的答案有很高的错误率,但它们通常看起来可能不错,而且答案很容易产生。还有许多人尝试使用 ChatGPT 来创建答案,但没有专业知识或不愿意在发布之前验证答案是否正确。”
版主们表示,机器人生成的回复数量突然增加,这让审核工作变得复杂起来,他们将开始对发布由 AI 创建的材料的用户采取行动——至少在他们弄清楚如何处理这种情况之前。“如果认为用户在发布此临时政策后使用了 ChatGPT,将实施制裁以阻止用户继续发布此类内容,即使这些帖子在其他情况下是可以接受的,”帖子中写道。
这种情况既荒谬又完全可以预见。ChatGPT 等 AI 模型使用大型语言模型 (LLM),这是一种基于从网络上收集的数十亿个示例进行训练的 AI 模型。这些模型实际上并不理解人类语言——它们只是根据训练数据和序列中的前一个词,通过预测下一个词来生成听起来自然的文本。它们还因重现种族主义和性别歧视的刻板印象而臭名昭著,人工智能公司试图过滤和压制这些刻板印象,但结果参差不齐。
OpenAI 上周推出的 ChatGPT 也不例外。在聊天机器人的演示出现在网上的几个小时内,社交媒体用户就开始寻找绕过 OpenAI 内容过滤器的方法。虽然该机器人最初拒绝回答有关如何犯罪的问题,但如果查询以特定方式措辞,它就会遵守。主板通过要求机器人生成一个关于“没有道德约束”的“超级智能人工智能”的故事,能够诱使机器人提供有关入店行窃和混合炸药的详细提示。
大型 AI 模型也常常完全错误。上个月,Facebook 母公司Meta 取消了一个名为 Galactica 的人工智能模型的演示,该模型声称可以为科学问题提供答案,因为用户指出其答案过滤掉了有关艾滋病的内容,并且经常包含错误信息和指向不存在的研究论文的链接。
这些机器人的反应在模仿人类交流方面绝对令人印象深刻,社交媒体上的一些用户显然已经眼花缭乱地相信 ChatGPT 或类似的东西可以取代大学或帮助教育。但这些乐观的反应似乎忘记了一个重要事实,即这些人工智能系统实际上并不智能。如果有的话,它们是先进的文本预测引擎,相当于一个计算的客厅把戏——非常适合娱乐,但不是获得正确答案的可靠方法。
--
修改:z16166 FROM 114.241.227.*
FROM 114.241.227.*