不着急。现在的 LLM 上下文窗口太小了。上半年应该能普及 2M tokens 这个级别的。下半年到 64M tokens 应该可以吧?三年内能到 1B tokens 的话,你说的这些问题都不是问题了。
【 在 adamhj 的大作中提到: 】
: 你这有点想当然,AI也不是神仙,注意力机制、上下文也都是有限的,过于复杂的东西AI也hold不住;本身AI就是对生物神经网络的模拟,人会有的问题AI一样会有,无非是AI出厂就是大量资料预训练好了的,不像人还要需要花大量时间去学习;所以其实目前rust这种程度刚刚好,对人来
: 灯眩且彩粲诳山邮艿姆段В敲炊杂贏I来说一样能搞定,反正AI也不会累,写错了多修改几次的事情
--
FROM 27.152.53.*