- 主题:26.1最重要的功能是翻译引入了AI
翻译专业痛哭流涕……我们今年大量会议已经开始上A.I.同传了。
【 在 TimeAndRiver 的大作中提到: 】
: 现在翻译比以前快多了,而且也准确多了
: 全部升级开始使用
--
FROM 183.143.78.*
你是通过iOS自带的“听写”功能,实现“ios在所有app中的那个语音转文字”吗?:)
【 在 TimeAndRiver 的大作中提到: 】
: 但是我发现这个翻译App仍然很挫,比豆包的翻译差距很大,估计翻译功能本身没有使用AI
: 但是通过翻译app进行语音录入的时候,语音转文字的准确率比以前高了很多,
: 这个应该是上了AI的,这个能力的提升让人舒服,比如我嘴巴上读出“iphone 15 pro max,ios26.1”这类词汇,能够非常准确的转成文字
: ...................
--
FROM 117.148.74.*
库比蒂诺两个内部团队,PK一下:)
【 在 TimeAndRiver 的大作中提到: 】
: 是的
: 听写功能与翻译中的那个语音转文字感觉是两个体系下独自做的
--
FROM 183.143.78.*
哈哈哈哈哈,十五年前基于CNN的翻译模型准确率被(当时)算力和架构封顶,He了人工翻译界一跳~
【 在 xueyandy 的大作中提到: 】
: 同传这种工作本来就应该交给AI来做
--
FROM 183.143.78.*
我们当时用的讯飞,BAT也有各自不错的产品;不涉及高准确度的商务、法务,也没有基因工程、有机合成等专业性极强交流,都足够好用:)
【 在 fly5757 的大作中提到: 】
: 哪个AI翻译的好一些 谢谢
--
FROM 183.143.78.*
侧端 + 云端混合计算,进入5G后网络带宽不再是瓶颈,这几年LLM也的确提速了。
【 在 jackalove 的大作中提到: 】
: 带ai应该是更慢啊,不应该更快
--
FROM 183.143.78.*
新架构神经网络配合新芯片设计,计算速度可能的确超过原架构算法。
【 在 jackalove 的大作中提到: 】
: 即使是 纯本地翻译 vs 纯本地AI翻译,那也不可能更快啊
--
FROM 222.92.119.*
我们团队今年6月项目换了架构,比去年10月同类项目快了至少一倍。
【 在 jackalove 的大作中提到: 】
: 也有可能吧
--
FROM 221.224.145.*
除了相当古早且准确率完全不能打的检索匹配,其它翻译算法都可归类为基于神经网络的生成。
“蹦Token”的生成来自Transformer,Google早期翻译“生成”来自CNN。
模糊匹配(检索)翻译发展了一段时间,到一定准确率后继续提高所需算力远超现行架构。
【 在 jackalove 的大作中提到: 】
: 我理解现阶段 大模型都是蹦token的,怎么可能比本地的程序翻译程序快
--
FROM 221.224.145.*