你可以在2026-04-13 08:41:14前修改节点 1 次。
如题。现在有比较好的离线翻译本地模型吗
7B 的 Qwen 或者专门的翻译模型 NLLB 8G 显卡就能轻松玩了
8G 一般个人电脑都有
是有隐私方面的需求吗?我感觉综合电费和折旧,不如买 api 了;最近美团的龙猫 flash 模型好像送很多 token 可以去看看
是纯粹想要了解下。平时翻译的话,确实各家 AI 都基本可以免费翻译。沉浸式翻译的免费模型,也还过得去,就是有点慢
7B 的 Qwen 或者专门的翻译模型 NLLB
8G 显卡就能轻松玩了