V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
父节点
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 241 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10 ... 13  
weishao666 本地部署 deepseek 70B,回答乱码
weishao666  •  1 天前  •  最后回复来自 salor
5
Eleutherios 家用机带宽太小玩不转 local llm 啊
Eleutherios  •  7 天前  •  最后回复来自 Eleutherios
11
davidyin 如何在 vs code 上应用自建的 ollama 模型
davidyin  •  11 天前  •  最后回复来自 oldlamp
9
cat9life qwen3.5 过度思考的问题
cat9life  •  2 天前  •  最后回复来自 cat9life
12
57show minimax 挂了??
57show  •  18 天前
Livid Qwen3.5-35B-A3B
Livid  
PRO
 •  7 天前  •  最后回复来自 stefwoo
6
caihp 如何在内网使用 opencode
caihp  •  2 月 26 日  •  最后回复来自 gorvey
9
Livid microgpt.py
Livid  
PRO
 •  2 月 12 日
summerLast 30B 尺寸哪个小模型编码能力会好一些
summerLast  •  2 月 12 日  •  最后回复来自 summerLast
11
yifangtongxing28 个人玩 ai,显卡最低起步是 5080 嘛?
yifangtongxing28  •  1 月 31 日  •  最后回复来自 kingmiao
53
after1990s intel b60 48G 可以买吗
after1990s  •  21 天前  •  最后回复来自 sch1111878
9
1  2  3  4  5  6  7  8  9  10 ... 13  
第 1 到 20 / 共 241 个主题
269 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2683 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 26ms · UTC 15:45 · PVG 23:45 · LAX 08:45 · JFK 11:45
♥ Do have faith in what you're doing.