我只是对楼主的长篇大论来个摘要。 难道摘要的不对?
在我看来chatgpt 就是记住了哪句话对应哪句话。 不过每句话关联的上下文特别长,几乎能关联到无穷远处的信息。而且每句话、每个字都能同时关联到大量很远处的文字。它的transformer用cnn实现了某种程度上的文字含义抽象,以方便关联语义。
神经元足够多,就能模拟的足够像。大力出奇迹。
【 在 ni1 (ni1) 的大作中提到: 】
: 你这种思路有点旧
: 差不多18世纪左右的近代哲学家就已经认识到不是这样了
: 不过那时候还没有那么多的复杂机器和计算机
:
--
FROM 74.88.40.*