根据 B 站视频苹果 macmini m4 安装离线版本的 deepseek和Deepseek 本地部署 14b 、32b 、70b 简单横评分享的信息, 丐版 MacMini 应该能跑 14b 模型
但是 14b 的模型比较傻,不知道如果用两台丐版 Macmini 用雷电 4 线并联能否跑 32b 模型?
速度怎样? 能否用两条雷电 4 线实现带宽翻番的效果?
希望又设备的大佬能测试一下
![]() |
1
AoEiuV020JP 47 天前 ![]() |
![]() |
2
lon91ong OP @AoEiuV020JP 看主楼第二个 B 站视频,14b 结果错误,32b 起码能得到正确答案
|
![]() |
3
lon91ong OP @AoEiuV020JP 2000$ ×8 会不会比堆 Nvidia 计算卡来的性价比更高呢?
|
4
pigdragon 47 天前
真要想搞,等着 nvidia 的 project digit 那个桌面迷你机来用吧,内存 128g,算力比 4090 高,没比 5090....5 月开卖
|
![]() |
5
Chicagoake 28 天前
本地能跑的效果不太好,拿 iMac 24G 跑过。
|
![]() |
6
Felixchen1062 25 天前
@lon91ong 不会 exo-lab 不是只支持 mac 可以串 2080ti 和 mac 一样的操作 一样的自服务发现 但是只能用 linux
|