V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  llama.cpp
coefu llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。
Local LLM  •  coefu  •  2025 年 10 月 29 日  •  最后回复来自 coefu
6
paranoiagu N 卡又贵又断货,买块 AMD Radeon RX 7900 XTX 凑合一下怎么样?
硬件  •  paranoiagu  •  2025 年 3 月 1 日  •  最后回复来自 xiaogui
24
beginor 使用开源的 continue 和 llama.cpp 搭建本地运行的人工智能代码助理
  •  2   
    程序员  •  beginor  •  2024 年 8 月 8 日  •  最后回复来自 skyqiao
    36
    wencan 有没有产线拿 llama.cpp 跑大模型的案例?
    机器学习  •  wencan  •  2024 年 5 月 18 日  •  最后回复来自 gaobh
    2
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3134 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 03:10 · PVG 11:10 · LAX 20:10 · JFK 23:10
    ♥ Do have faith in what you're doing.