这么大的网络,一般终端都跑不起来的。靠谱的方式,还是接入AI计算云,网络传输结果就得了。其实也不用机器人,随便一个平板,也能实现和ChapGPT的交互~
【 在 artech51 的大作中提到: 】
: 我高中时就想过,人工智能很有可能会在我这一代发展成熟,到时候需要的芯片会成数十倍增长
: chatgpt训练用了1w张NVIDIA A100显卡,就这还是初级的,以后可能需要用到100w张,这对算力的需求是极端饥渴的
: 更何况,以后chatgpt服务,或者会以智能机器人形式,就像科幻片一样,走进日常生活,这个算力要求,又是极其变态的,现在芯片性能根本达不到。再一个,如果以智能机器人形式,那么机器人的通讯芯片,传感器芯片等等,都将迎来爆发需求。
: ...................
--
FROM 58.132.214.*