海木 (@cyc333) 在 【大家薅老黄的羊毛】开源模型那家强?网友用脚投票 中发帖
[image]
[image]
用qwen3.5 397b时不时卡住,只能用122b,突然想是不是应该避开大部队,看看哪些过于热门就不要去用了
然后用日均调用排了哥序,选的国产+google
结果排下来前二还是牛逼,难道是服务器布置多?
另外是不是第三位的参数太大,老是卡,所以大家选择第一第二用的多,哈哈。不过好像kimi2.5 参数也是上亿吧
(像我后来索性直接用第四位的122b去了,可惜一直搞不定cc switch里的调用老黄的api)
另外gemma4 也挺看好的,目前第九位,而且才上架9天呢
然后本地4090也布置了gemma4:26b的,基本占满显存,只能作为备用方案,ai用的爽,参数还是得大