感觉比 3.5 强不少,秒 gemma4 。可以说是 24G 内存 mac 或显卡的目前最佳本地模型,稠密的太慢了。
有个很困难的只有 GPT5.4 才能找到的代码 bug ,它当然也是找不出来的。
还是给 openai 充钱吧,开源就只能玩一玩。
1
hanguofu Apr 16
谢谢分享,楼主你是在什么硬件上跑的啊?给个参考呗 ~
|
2
C64NRD Apr 17
牛,这是刚发布的
|
3
MLawliet Apr 17 via Android
24g 内存 mac 跑不了 35b 吧?
|
4
catazshadow Apr 17
uncensored 的有了没
|
6
qdwang OP |
7
Hermitist Apr 17
我用 omlx 直接下, git clone, hf 下, 都不能完整下来, 不知道什么鸟情况.
|
8
qdwang OP @Hermitist mac 不要用 mlx ,mlx 一方面量化模型拉垮,另一方面速度也不快,第三方面内存占用还高,第四方面整个包体积太大。
gguf 系强太多,少折腾直接上 llama.cpp ,手动下载 gguf 模型 |
9
xing7673 Apr 18
小模型不要太期待有多强的智能,我是觉得可以在 hermes 这种 agent 上让大模型做好 skill ,安排好边界处理后再让小模型去处理,看看这种老师带学生的模式能不能持续比较好。
|
11
qdwang OP @Hermitist 快是因为 mlx 量化里,有些关键权重被砍成低量化了,会速度快但是质量差。你测试 gguf 也会发现,同样 4bit 里,iq4_xs 会比 q4_k_m 快很多。
|
12
Hermitist Apr 18
@qdwang 我现在的问题是我下载的模型 https://huggingface.co/Qwen/Qwen3.6-35B-A3B-FP8/tree/main 我的 omlx 启动不了, 说是超过内存限制了, 请问你你从哪里下载的 4bit 的?
|
13
godymho Apr 18
我的 24G mac iq4_xs 跑不起来。降到了 2bit 试了一下,30token 左右
|
14
wsbqdyhm Apr 19
m1max64 跑。直接起飞,最好的开源能跑的模型,没有之一,吊打 gemma4.脚踢 qwen3.5 ,个人用下来有 minimax2.7 ,5-6 成能力了。搭配 openclaw 和 hermes
|
15
qdwang OP |
16
Hermitist Apr 20
@qdwang 我其实用过 https://github.com/TheTom/turboquant_plus 带 kv cache 跑过 ollam.cpp 不过感觉 gguf 量化的过分, 不过我还是准备试下.
|