版主们表示,机器人生成的回复数量突然增加,这让审核工作变得复杂起来,他们将开始对发布由 AI 创建的材料的用户采取行动——至少在他们弄清楚如何处理这种情况之前。“如果认为用户在发布此临时政策后使用了 ChatGPT,将实施制裁以阻止用户继续发布此类内容,即使这些帖子在其他情况下是可以接受的,”帖子中写道。
这种情况既荒谬又完全可以预见。ChatGPT 等 AI 模型使用大型语言模型 (LLM),这是一种基于从网络上收集的数十亿个示例进行训练的 AI 模型。这些模型实际上并不理解人类语言——它们只是根据训练数据和序列中的前一个词,通过预测下一个词来生成听起来自然的文本。它们还因重现种族主义和性别歧视的刻板印象而臭名昭著,人工智能公司试图过滤和压制这些刻板印象,但结果参差不齐。
大型 AI 模型也常常完全错误。上个月,Facebook 母公司Meta 取消了一个名为 Galactica 的人工智能模型的演示,该模型声称可以为科学问题提供答案,因为用户指出其答案过滤掉了有关艾滋病的内容,并且经常包含错误信息和指向不存在的研究论文的链接。
这些机器人的反应在模仿人类交流方面绝对令人印象深刻,社交媒体上的一些用户显然已经眼花缭乱地相信 ChatGPT 或类似的东西可以取代大学或帮助教育。但这些乐观的反应似乎忘记了一个重要事实,即这些人工智能系统实际上并不智能。如果有的话,它们是先进的文本预测引擎,相当于一个计算的客厅把戏——非常适合娱乐,但不是获得正确答案的可靠方法。 -- 修改:z16166 FROM 114.241.227.* FROM 114.241.227.*