@febzy想请教一下各位用本地模型的大佬,关于性能上的问题 中发帖

最近尝试了一下openclaw,调用api的体验不必多说,畅快感和花钱速度是成正比的。 
于是用ollama搭了本地模型,由于电脑配置一般,最开始尝试的是qwen3的7b和14b模型。 
7b模型我的体验就是能聊天,但是openclaw上完全用不了,感觉是逻辑链路不够长。 
14b勉强能用,也能处理一些基本信息,但是可能是硬件限制,有时候会出现记忆缺失的问题。 
之后qwen3.5的9b模型确实是让我感觉很牛,基本是吊打前两个,配置要求也不是很高。 
举个例子:我要求这三个模型做定时任务,7b基本就是嘴上说,实际没做。14b是做了,但是使用的linux系统的corn功能,定时也是写在自己的记忆里。9b确实是使用openclaw的定时功能完成了定时,并且能在网页端查看到。 
我现在有点想整个好点的硬件试试更好的本地模型,32b甚至70b这种,但是不太了解目前32b和70b这种模型的效果如何,...
 
 
Back to Top