V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
mcsddjyd
V2EX  ›  Local LLM

Deepseek R1 671B 本地部署方案

  •  
  •   mcsddjyd · 5 天前 · 1390 次点击
    公司让部署满血的 Deepseek R1 671B 目前机器有四台 每台机器八张 4090 每张显卡 24G 有大佬能推荐一下部署方案嘛
    14 条回复
    Marshaii
        1
    Marshaii  
       5 天前 via iPhone
    mcsddjyd
        2
    mcsddjyd  
    OP
       5 天前
    @Marshaii 感谢 我先看看
    mcsddjyd
        3
    mcsddjyd  
    OP
       5 天前
    @Marshaii 这个好像是 cpu 的部署方案
    Marshaii
        4
    Marshaii  
       5 天前 via iPhone
    @mcsddjyd sorry ,在地铁上刷到直接收藏还没来得及看。无视我吧,Orz
    waityan
        5
    waityan  
       5 天前
    别想了,这最大只能部署 1.58 -bit 的版本吧,用处不大。不如直接用 QWQ-32B 吧
    mcsddjyd
        6
    mcsddjyd  
    OP
       5 天前
    @waityan 老板要求部署 我也没法 现在就卡在 四台机器上的 4090 加载模型的时候无法通信 使用的是 ray+vllm
    pkoukk
        7
    pkoukk  
       5 天前
    @mcsddjyd #6 一般的以太网承载不了显卡间通信的带宽吧,多卡机器通信要用 InfiniBand 或者 ROCE 吧
    ychost
        8
    ychost  
       5 天前
    建议 QWQ 吧,你这个部署低级量化版本效果不理想
    Chihaya0824
        9
    Chihaya0824  
       5 天前
    4*8*24=768G
    这显存应该够,为啥只能部署低精度的...
    神奇,ray+vllm 不能用,ray list nodes 正常吗?
    那要不试一下 llama.cpp rpc mode?
    https://github.com/ggml-org/llama.cpp/blob/master/examples/rpc/README.md
    Clannad0708
        10
    Clannad0708  
       5 天前
    ollama 吧看看,网上不是很多方案吗
    dayanshenjun
        11
    dayanshenjun  
       5 天前
    @mcsddjyd #6 7 楼老哥说的是对的,但是 RoCE 的话带宽估计也不行,我们也在研究,想要部署 671B FP8 版本的话,单台八卡至少是 H20 96G 的,集群的话,供应商推荐至少是 400G 的 IB 网卡起步,初步算至少 200W 吧😂
    SeaRecluse
        12
    SeaRecluse  
       5 天前
    没有 NVLink 还想部署,老老实实换 X100 系列
    kd9yYw2RyhQwAwzn
        13
    kd9yYw2RyhQwAwzn  
       5 天前
    单纯跑起来的话 sglang 或者 ray cluster 就行
    Zaden
        14
    Zaden  
       5 天前
    4090 没法做服务器之间集群的,普通的 pcie 连接带宽不够,需要 nvlink 、hccs 之类专用总线
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2357 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 16:06 · PVG 00:06 · LAX 09:06 · JFK 12:06
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.