V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
kirieievk
V2EX  ›  OpenAI

今天看小鹏发布会,说小鹏 AI 有 7000 张卡,这在中国算什么水平

  •  
  •   kirieievk · May 20, 2024 · 2786 views
    This topic created in 708 days ago, the information mentioned may be changed or developed.

    现在那个企业的算力最猛.

    8 replies    2024-05-21 09:56:20 +08:00
    09EdgqomQp5z019t
        1
    09EdgqomQp5z019t  
       May 20, 2024
    中国算卡最多的应该是字节
    jwangbyus
        2
    jwangbyus  
       May 20, 2024
    搞出来 deepseek 的幻方了解一下
    egen
        3
    egen  
       May 21, 2024
    记得 01 万物屯了 1 万张左右,阿里、腾讯和字节应该在 10 万规模
    egen
        4
    egen  
       May 21, 2024
    比较好玩的是蔚来,蔚来 NT2.0 平台所有车型都配了 4 颗 orinx ,int8 大概 1000TOPS ,对比 A100 int8 大概 1200TOPS ,蔚来售出的 nt2.0 平台的车数量有 23 万+,如果利用好的话是相当可观的算力。

    其他车厂都是分智驾和非智驾的版本,导致真正售出带智驾芯片的车远不及蔚来。
    而且蔚来的算力芯片是超配的(大多数车只配了一颗 orinx ),有足够冗余的算力用来做额外计算。
    mythabc
        5
    mythabc  
       May 21, 2024
    > Marking a major investment in Meta’s AI future, we are announcing two 24k GPU clusters

    llama3 的训练用了两个 24k 的 H100 集群。
    mythabc
        6
    mythabc  
       May 21, 2024
    没发全。
    Marking a major investment in Meta’s AI future, we are announcing two 24k GPU clusters. We are sharing details on the hardware, network, storage, design, performance, and software that help us extract high throughput and reliability for various AI workloads. We use this cluster design for Llama 3 training.
    lpf0309
        7
    lpf0309  
       May 21, 2024
    这么少么,我以为这些都是万级起步呢
    ywkk
        8
    ywkk  
       May 21, 2024
    没戏,GPT4 级别的大模型需要 2-5 万张 A100 级别的,下一代大模型(正在训练中的)已经到 10 万张算力以上,META 有 60 万张,想想看这个军备竞赛。国内只能指望华为集群,解决了 5nm 制程后也能生产 A100 性能的 GPU 了,但还是要分一部分给麒麟芯片生产,用于训练服务器的升腾芯片不知道供应如何。
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   5508 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 42ms · UTC 05:57 · PVG 13:57 · LAX 22:57 · JFK 01:57
    ♥ Do have faith in what you're doing.