@gooder 在 本地服务器跑ollama,请佬们给点建议 中发帖
本地一台闲置的服务器想部署大语言模型,服务器没有显卡,想用CPU和内存跑,主要给龙虾用,佬帮忙看下这个配置部署哪个模型能流畅的跑起来
[image]本地一台闲置的服务器想部署大语言模型,服务器没有显卡,想用CPU和内存跑,主要给龙虾用,佬帮忙看下这个配置部署哪个模型能流畅的跑起来
[image]