水木社区手机版
首页
|版面-人工智能(AI)|
新版wap站已上线
展开
|
楼主
|
同主题展开
|
溯源
|
返回
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
主题:Re: 把大模型做进芯片内,速度超GPU十倍
lvsoft
|
2026-02-22 20:08:22
|
这种没有意义,每过一段时间就有类似的事情。
【 在 poocp 的大作中提到: 】
: 加拿大初创公司Taalas推出HC1芯片,将Llama 3.1 8B模型直接硬编码进硅片,推理速度达17000 tokens/秒,比NVIDIA H200快近10倍,功耗仅200W,成本降至GPU方案的1/20。
: 公司新闻网址 taalas点康姆正斜杠the-path-to-ubiquitous-ai
--
FROM 116.233.45.*
上一篇
|
下一篇
|
同主题上篇
|
同主题下篇
选择讨论区
首页
|
分区
|
热推
BYR-Team
©
2010.
KBS Dev-Team
©
2011
登录完整版