@gooder本地服务器跑ollama,请佬们给点建议 中发帖

本地一台闲置的服务器想部署大语言模型,服务器没有显卡,想用CPU和内存跑,主要给龙虾用,佬帮忙看下这个配置部署哪个模型能流畅的跑起来 
 [image]
 
 
Back to Top