V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
DejavuMoe
V2EX  ›  Local LLM

在 n8n 中使用 Ollama 的本地 LLM 模型

  •  
  •   DejavuMoe · Nov 6, 2025 · 2255 views
    This topic created in 185 days ago, the information mentioned may be changed or developed.

    纯 CPU 跑还是有点吃力呀,有 GPU 云就好了😭 https://blog.dejavu.moe/posts/try-n8n-automation-with-ollama/

    3 replies    2025-11-24 15:26:23 +08:00
    Lanzhijiang
        1
    Lanzhijiang  
       Nov 7, 2025 via Android
    虽然但是 GPU 云不是到处都是,什么共绩算力,autoDL ,各大云服务商也都有 GPU 服务器巴拉巴拉的
    wenzhoou
        2
    wenzhoou  
       Nov 24, 2025
    试一试 ollama cloud
    DejavuMoe
        3
    DejavuMoe  
    OP
       Nov 24, 2025
    @wenzhoou 感谢,我会试试
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   1552 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 38ms · UTC 16:37 · PVG 00:37 · LAX 09:37 · JFK 12:37
    ♥ Do have faith in what you're doing.