openclaw 调用本地 ollama 大模型,千问 7B 的模型,感觉就是个智障。
有没有大神可以讲讲自己的体验
1
root71370 1 天前 via Android
参数决定智商 无解
|
2
Censhuang 1 天前
今天刚研究,差两代出来。qwen 7b 应该是 qwen2.5 。中间跨越了 qwen3 ,qwen3.5
|
3
default996 1 天前
在 macmini 上将了 qwen8b ,然后那个输出速度太慢了 ……
|
4
iv8d 18 小时 45 分钟前
可以是可以,要么慢,要么傻,你愿意等大半天出结果吗
|
5
tthem 17 小时 18 分钟前
m2max 部署 qwen35B q4 模型,问一个问题,要等 6 分钟出结果。。放弃了
|
7
zz177060 14 小时 52 分钟前 via iPhone
还没有实践,但是我理想的也是吊用本地 app 应该自动本地模型优先,因为就只打开 app ,这个跟模拟鼠标一样,不应该全部让云端实现🙁但是我不懂代码🥲
|
8
hiccup00 7 小时 38 分钟前 via Android
同样觉得这个比较有需求
|