V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
这是一个专门讨论 idea 的地方。

每个人的时间,资源是有限的,有的时候你或许能够想到很多 idea,但是由于现实的限制,却并不是所有的 idea 都能够成为现实。

那这个时候,不妨可以把那些 idea 分享出来,启发别人。
vagranth
V2EX  ›  奇思妙想

现在还有人需要“翻译 API 服务”吗?

  •  
  •   vagranth · 10 天前 · 3119 次点击

    我知道现在各种免费的工具已经很好用了,像“沉浸式翻译”这种插件,直接看外文网页时已经不存在任何问题。

    但不知道是不是还有人需要翻译 API 服务,并且愿意为此付费的。

    我前几天写了一个自己用,只是一个简单库,还没封装成独立应用。

    其实本质就是简单把 LLM 接口包一下就行,不算难,只是依赖外部 LLM 服务。

    所以就算收费也不会太高,而且是一次性的。

    不知道这样的产品有没有需求。

    31 条回复    2025-04-07 09:52:14 +08:00
    OHYOLO
        1
    OHYOLO  
       10 天前 via iPhone
    一次性?而且沉浸式不就可以自定义 llm 吗
    linwuhi
        2
    linwuhi  
       10 天前
    开源吧
    mumbler
        3
    mumbler  
       10 天前
    LLM 服务是别人提供的,相当于你破解了,拿出来收费,为什么不直接跟硅基流动,火山引擎买 LLM API 呢,明码实价,你这个也许明天就不能用了
    vagranth
        4
    vagranth  
    OP
       10 天前
    @mumbler LLM API 都是公开的,不算破解。
    vagranth
        5
    vagranth  
    OP
       10 天前
    @OHYOLO 沉浸式翻译是插件,是在网页上给人用的。
    我说的是 API 服务,是把“翻译”功能做成了 API 给机器用的。
    vagranth
        6
    vagranth  
    OP
       10 天前
    @linwuhi 失业了,即使是再简单的东西,也不想开源了。
    vagranth
        7
    vagranth  
    OP
       10 天前
    从我个人的角度,未来不能用的问题倒是不用担心。
    因为只要机器性能过得去,自建一个 ollama 太简单了,加上个免费的 model 就能一直用。
    然后翻译服务只需要简单配置就可以。
    mumbler
        8
    mumbler  
       10 天前
    @vagranth #4 谁的 LLM API 是公开的,有文档吗,QPM 限制吗,有鉴权吗
    vagranth
        9
    vagranth  
    OP
       10 天前
    @mumbler 呃,可能你对这些不了解?
    我自建的 ollama ,大概也就几条命令就能跑起来。
    然后就可以用 openai 接口去连,甚至 tool 也能跑。
    文档在 openai 或者 ollama 官网都有,无需鉴权。
    mumbler
        10
    mumbler  
       10 天前
    @vagranth #9 你自建的 Ollama ,那算力谁提供呢,你提供?还是用户本地部署
    vagranth
        11
    vagranth  
    OP
       10 天前
    @mumbler 用户本地部署
    xuld
        12
    xuld  
       10 天前
    如果是卖 api ,那就只能卖给程序员。
    如果你说你前几天写了一个自己用,意思是:写几天就搞定了。
    那请问程序员为什么不自己花几天时间搞定,而要买你的东西。

    这就好比让钢琴家花钱听别人弹钢琴,你觉得可能有人付费吗
    shewhen
        13
    shewhen  
       10 天前
    @vagranth #7 本地的 OLLMA 性能不强,翻译准确性不如直接复制出来找 gpt 了。。
    maymay5
        14
    maymay5  
       10 天前   ❤️ 2
    门槛太低,这个你即便是开源出来,用的人也不会多,收费那就更加没人了,To C 干不过 Pot 、Bob 这类,To B 他们可能不会去选择通用翻译,而是买有道这些大厂的专门用于垂直领域的专用翻译 API ,因为 To B 不需要通用,LLM 特点就是通用~
    clf
        15
    clf  
       10 天前
    门槛太低了。我对接 10 个翻译 api 也才 1 天不到的时间,甚至有些是从复杂网页提取翻译结果都不用多久。
    hammy
        16
    hammy  
       10 天前
    我觉得不太需要。
    不懂技术的不知道什么是 api
    懂技术的自己可以搞定 api
    位于中间的这群人,有 gt4t 这种产品存在许多年了
    sagaxu
        17
    sagaxu  
       10 天前
    腾讯阿里等都有免费 API ,简单聚合一下足够用了,哪用得着买服务
    M9l7chlLGv
        18
    M9l7chlLGv  
       10 天前
    我之前也写过一个类似项目(开源免费):
    https://www.v2ex.com/t/1068946
    https://github.com/moeru-ai/arpk
    vagranth
        19
    vagranth  
    OP
       10 天前 via Android
    你们说的对,看来确实没什么需求
    lloovve
        20
    lloovve  
       10 天前 via iPhone
    包装 api 没用。有能力的都自己集成别的 api 了,如果你面对用户,可以封装成特殊场景 app
    vagranth
        21
    vagranth  
    OP
       10 天前 via Android
    @M9l7chlLGv 早知道有这个我就懒得自己写了
    vagranth
        22
    vagranth  
    OP
       10 天前 via Android
    @shewhen 说实话,准确性倒是超乎想象。我用的 gemma3 12b
    neteroster
        23
    neteroster  
       10 天前 via Android   ❤️ 1
    这种不是很多,就算细分领域都一大堆了,比如日语游戏小说翻译:

    https://github.com/NEKOparapa/AiNiee
    https://github.com/neavo/LinguaGacha

    还有提高翻译质量的译前自动术语表生成

    https://github.com/neavo/KeywordGacha

    更便捷的 gui 参数设置和 llama.cpp 启动器

    https://github.com/PiDanShouRouZhouXD/Sakura_Launcher_GUI

    甚至社区算力共享:
    https://github.com/1PercentSync/sakura-share
    NoOneNoBody
        24
    NoOneNoBody  
       10 天前
    大部分非游戏用户只是核显,跑本地大模型你会遇到一大堆用户投诉,是不是把市场想得太美好了?
    june4
        25
    june4  
       10 天前
    12b 本地 cpu 跑速度非常感人,正常人都会用 api 。gpu 又不是每个人都有。
    cwcc
        26
    cwcc  
       10 天前
    AI 翻译有道德限制,有时候带有一些特殊的词会导致 AI 断言。
    vagranth
        27
    vagranth  
    OP
       10 天前 via Android
    @june4 现在 gpu 普及率这么低?
    xhawk
        28
    xhawk  
       6 天前
    有的, 前 2 天针对这个问题, 我的确还真的搜索过解决方案. 而且也稍微对比过. 目前我有个需求的确是需要翻译的 api 的. 我对比过阿里云, 腾讯云的翻译 api, 都不能满足我的需求. 有 2 点: 1. 没法针对我涉及的行业做翻译. 2. 每次翻译的数量级太少了. 只能 500 条左右. 事实上, 我有一个 pdf, 一次要 18000 多行要做翻译, 所以, 我需要超级快的给我返回.
    vagranth
        29
    vagranth  
    OP
       6 天前 via Android
    @xhawk 那么这种方案也不适合,速度不可能满足你的需求。但针对行业的专业词汇说不定可以有特殊处理。
    xiaoheicat
        30
    xiaoheicat  
       3 天前 via iPhone
    并发怎么样?大文本支持多大长度?大模型处理这种大并发翻译场景还是不适合!
    vagranth
        31
    vagranth  
    OP
       12 小时 7 分钟前
    @xiaoheicat 自建服务,并发完全受限于自己的服务器的能力。

    超长文本肯定是要拆分的,段落拆分要根据 llm 的上下文窗口来动态判断。算法倒是现成的,做在 sdk 或服务里面都可以。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3086 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 13:59 · PVG 21:59 · LAX 06:59 · JFK 09:59
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.