| 求可靠本地 vibe coding,有八卡的 L20 服务器 sqshanyao • 6 分钟前 • 最后回复来自 coefu | 2 |
| 想掏一台 Mac mini M4 Pro 64G 跑 gemma4 31b Q4 接 openclaw 处理日常的问题,有人测试过速度吗? Ken1028 • 6 小时 55 分钟前 • 最后回复来自 coefu | 31 |
| 32B 本地 vibe coding 有能用的模型吗 RatioPattern • 1 天前 • 最后回复来自 coefu | 7 |
| [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? diudiuu • 1 天前 • 最后回复来自 enihcam | 40 |
| 闲置 16GB M1 Pro MBP 跑大模型 ahdw • 2 天前 • 最后回复来自 ahdw | 19 |
| 有人用 mac studio 测试过 gemma4 31b 16 吗 wali77 • 8 天前 • 最后回复来自 nrtEBH | 4 |
| gemma4:e4b 的效果出乎意料, 1050ti 也能很好的生成文章 andyskaura • 8 天前 • 最后回复来自 iango | 29 |
| Gemma 4 31B 大概什么水平,本地部署是不是又成为现实了 unt • 8 天前 • 最后回复来自 chenjunqiang | 44 |
| 谷歌的 Gemma 4 怎么样,有必须要本地弄一下吗 wszzh • 8 天前 • 最后回复来自 longxinglink | 18 |
| 家用机带宽太小玩不转 local llm 啊 Eleutherios • 2 天前 • 最后回复来自 Eleutherios | 17 |
| 2 年以后的硬件和本地大模型 workbest • 10 天前 • 最后回复来自 jackqian | 26 |
| 为什么 Qwen 吹这么牛,但是用起来体验这么拉啊,它的真实能力究竟怎么样 unt • 11 天前 • 最后回复来自 cvbnt | 5 |
| macbook 32G 内存, M5 芯片本地跑大模型有推荐的吗? Hermitist • 5 天前 • 最后回复来自 Liu6 | 25 |
| qwen 本地大模型的问题 workbest • 13 天前 • 最后回复来自 workbest | 3 |
| 好奇有没有人用本地模型写代码? turfbook • 14 天前 • 最后回复来自 turfbook | 3 |
| 本地部署 deepseek 70B,回答乱码 weishao666 • 3 月 28 日 • 最后回复来自 gigishy | 10 |
| 3090 跑文本向量模型可以么? 3090 是不是有点过剩? catyun88 • 3 月 23 日 • 最后回复来自 coefu | 2 |
| 想部署本地大模型来分析股票趋势,有没有专门针对股票的大模型? pangfahe • 3 月 12 日 • 最后回复来自 beasnail | 5 |
| 如何在 vs code 上应用自建的 ollama 模型 davidyin • 3 月 15 日 • 最后回复来自 oldlamp | 9 |