V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
父节点
42
相关节点
 显示 37 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 256 RSS JSON Feed
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  9  10 ... 13  
xiniu 跑 AI 模型,显卡的购买咨询
xiniu  •  2025 年 3 月 22 日  •  最后回复来自 Foxii
23
littlemis 请问此配置如何加速 ollama ds-r1 32b 的速度,好慢
littlemis  •  2025 年 3 月 18 日  •  最后回复来自 littlemis
4
zcm3579 如何估算一个大模型需要用到什么性能配置的硬件?
zcm3579  •  2025 年 3 月 19 日  •  最后回复来自 ChristopherY
16
ZimaBlueee A30 显卡-24G 显存,推荐部署什么大模型呢
ZimaBlueee  •  2025 年 3 月 28 日  •  最后回复来自 hefish
8
xkeyC 开发了个本地实时字幕 (Whisper + LLM api ) 软件,开源
xkeyC  •  2025 年 3 月 17 日  •  最后回复来自 xkeyC
2
feelapi ollama 支持的一些模型测试结果
feelapi  •  2025 年 3 月 13 日  •  最后回复来自 coefuqin
6
libasten 100 多号人的企业,想自己部署 deepseek,硬件要哪些?
libasten  •  2025 年 3 月 11 日  •  最后回复来自 tamshy
5
song135711 帮忙看看这个 DIY 装机配置大模型入门怎样
song135711  •  2025 年 3 月 14 日  •  最后回复来自 coefuqin
19
jhytxy q4 量化的大模型能比原版全精度的差多少?
jhytxy  •  2025 年 3 月 6 日  •  最后回复来自 mili100
2
HojiOShi Intel GPU 的 llama-bench 测试结果
HojiOShi  •  2025 年 3 月 5 日
1  2  3  4  5  6  7  8  9  10 ... 13  
第 121 到 140 / 共 256 个主题
278 人收藏了这个节点
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5480 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 160ms · UTC 08:40 · PVG 16:40 · LAX 01:40 · JFK 04:40
♥ Do have faith in what you're doing.