就离线翻译来说,现在有没有个人电脑能比较轻松驾驭的翻译模型

4 条回复
66 次浏览

如题。现在有比较好的离线翻译本地模型吗

马上来

7B 的 Qwen 或者专门的翻译模型 NLLB
8G 显卡就能轻松玩了

马上来

是有隐私方面的需求吗?我感觉综合电费和折旧,不如买 api 了;最近美团的龙猫 flash 模型好像送很多 token 可以去看看

OP

是纯粹想要了解下。平时翻译的话,确实各家 AI 都基本可以免费翻译。沉浸式翻译的免费模型,也还过得去,就是有点慢

发表一个评论

R保持