[求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适?

1 条回复
19 次浏览

https://v2ex.com/t/1195382

详细的都在这个帖子里了,希望有看到的有经验的老哥帮我指点下

发表一个评论

R保持