海木 (@cyc333)【大家薅老黄的羊毛】开源模型那家强?网友用脚投票 中发帖

[image] 
[image] 
用qwen3.5 397b时不时卡住,只能用122b,突然想是不是应该避开大部队,看看哪些过于热门就不要去用了 
然后用日均调用排了哥序,选的国产+google 
结果排下来前二还是牛逼,难道是服务器布置多? 
另外是不是第三位的参数太大,老是卡,所以大家选择第一第二用的多,哈哈。不过好像kimi2.5 参数也是上亿吧 
(像我后来索性直接用第四位的122b去了,可惜一直搞不定cc switch里的调用老黄的api) 
另外gemma4 也挺看好的,目前第九位,而且才上架9天呢 
然后本地4090也布置了gemma4:26b的,基本占满显存,只能作为备用方案,ai用的爽,参数还是得大
 
 
Back to Top