V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
gtese
V2EX  ›  OpenAI

Ollama 拉模型不搞小动作了?

  •  
  •   gtese · Mar 4, 2025 · 2421 views
    This topic created in 420 days ago, the information mentioned may be changed or developed.
    32B ,一会就下载完了,之前要一直 Ctrl C Ctrl C Ctrl C Ctrl C Ctrl C
    4 replies    2025-03-04 11:22:26 +08:00
    spike0100
        1
    spike0100  
       Mar 4, 2025 via iPhone
    我一会试试。之前进度还会自己倒退的。
    wyntalgeer
        2
    wyntalgeer  
       Mar 4, 2025
    有没有可能是优化了,不懂他搞这种小动作有什么好处,他又不收费。如果真是优化了可太好了
    zwy100e72
        3
    zwy100e72  
       Mar 4, 2025
    /go/localllm

    根据我的观察,ollama 的模型托管在 cloudfalre r1 对象存储上,因此你大概只是换到了一个连通性更好的 cloudflare 节点;同理如果遇到下载速度变慢等问题,也可以考虑优化到 cloudfalre 服务器的链路,以获得更快的下载速度
    DICK23
        4
    DICK23  
       Mar 4, 2025
    之前搞过啥小动作?我从 ollama 拉模型向来都是跑满带宽的
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   6074 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 34ms · UTC 03:25 · PVG 11:25 · LAX 20:25 · JFK 23:25
    ♥ Do have faith in what you're doing.