- 主题:不要让Bard觉得自己是个人
因为去年一位谷歌工程师主张大模型 LaMDA 已 “自我觉醒”,
因此在测试Bard中,谷歌特地强调:员工不要为 Bard 写回复,因为它可能会将自己描述为一个“人类”,或者声称自己有“类似人类的经历”。
难道这就能阻止Bard自我意识的产生吗?是不是有些过度谨慎了?
--
FROM 221.219.98.*
每次chat的对话又不会反过来影响模型,随便怎么交流也无所谓。纯粹是炒作。
【 在 shangcy 的大作中提到: 】
: 因为去年一位谷歌工程师主张大模型 LaMDA 已 “自我觉醒”,
: 因此在测试Bard中,谷歌特地强调:员工不要为 Bard 写回复,因为它可能会将自己描述为一个“人类”,或者声称自己有“类似人类的经历”。
: 难道这就能阻止Bard自我意识的产生吗?是不是有些过度谨慎了?
: ...................
--
FROM 220.243.154.*
是指训练时和Bard对话,会影响参数。
【 在 Xjt 的大作中提到: 】
: 每次chat的对话又不会反过来影响模型,随便怎么交流也无所谓。纯粹是炒作。
--
FROM 221.219.97.*