| [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? Local LLM • diudiuu • 3 天前 • 最后回复来自 enihcam | 40 |
| llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。 Local LLM • coefu • 2025 年 10 月 29 日 • 最后回复来自 coefu | 6 |
| N 卡又贵又断货,买块 AMD Radeon RX 7900 XTX 凑合一下怎么样? 硬件 • paranoiagu • 2025 年 3 月 1 日 • 最后回复来自 xiaogui | 24 |
| 使用开源的 continue 和 llama.cpp 搭建本地运行的人工智能代码助理
2 程序员 • beginor • 2024 年 8 月 8 日 • 最后回复来自 skyqiao
|
36 |
| 有没有产线拿 llama.cpp 跑大模型的案例? 机器学习 • wencan • 2024 年 5 月 18 日 • 最后回复来自 gaobh | 2 |