- 主题:26.1最重要的功能是翻译引入了AI
带ai应该是更慢啊,不应该更快
【 在 TimeAndRiver 的大作中提到: 】
: 现在翻译比以前快多了,而且也准确多了
: 全部升级开始使用
:
--
FROM 122.227.97.*
即使是 纯本地翻译 vs 纯本地AI翻译,那也不可能更快啊
【 在 toyarmybin 的大作中提到: 】
: 侧端 + 云端混合计算,进入5G后网络带宽不再是瓶颈,这几年LLM也的确提速了。
:
--
FROM 122.227.97.*
也有可能吧
【 在 toyarmybin 的大作中提到: 】
: 新架构神经网络配合新芯片设计,计算速度可能的确超过原架构算法。
:
--
FROM 122.227.97.*
我理解现阶段 大模型都是蹦token的,怎么可能比本地的程序翻译程序快
【 在 toyarmybin 的大作中提到: 】
: 我们团队今年6月项目换了架构,比去年10月同类项目快了至少一倍。
:
--
FROM 122.227.97.*
学习了
谢谢
【 在 toyarmybin 的大作中提到: 】
: 除了相当古早且准确率完全不能打的检索匹配,其它翻译算法都可归类为基于神经网络的生成。
: “蹦Token”的生成来自Transformer,Google早期翻译“生成”来自CNN。
: 模糊匹配(检索)翻译发展了一段时间,到一定准确率后继续提高所需算力远超现行架构。
: ...................
--
FROM 122.227.97.*