3 月 29 日
英伟达发布了一款名为 H200 的尖端图像处理半导体(GPU),面向 AI 领域,性能超过当前主打的 H100。以Meta公司旗下大语言模型 Llama 2 处理速度为例,H200 相比于 H100,生成式 AI 导出答案的处理速度最高提高了 45%。英伟达在 AI 半导体市场约占 8 成分额,竞争对手 AMD 等也在开发对抗产品。英伟达还宣布,将在年内推出新一代 AI 半导体「B200」,新产品将用于最新的 LLM 上。GB200 是「最强 AI 加速卡」,包含了两个 B200 Blackwell GPU 和一个基于 Arm 的 Grace CPU,推理大语言模型性能比 H100 提升 30 倍,成本和能耗降至 25 分之一。H200 是英伟达第一款使用 HBM3e 内存的芯片,性能直接提升了 60% 到 90%。
话题追踪
2024-03-29
英伟达 AI 芯片 H200 开始供货,性能相比 H100 提升 60%-90%2024-03-04
英伟达新一代 AI 芯片 B200 功耗将达 1000W 预计 2025 年问世2024-01-09
英伟达计划二季度量产中国版芯片 H202023-07-30
英伟达 H100 GPU 已对亚马逊 AWS 云服务用户开放2023-05-15
英伟达部分 GPU 新订单 12 月才能交付,AI 芯片持续缺货涨价2022-09-02
英伟达称仍被许可在中国开发 H100 芯片,限制出售不等同于断供2020-05-15
英伟达发布新款 AI 芯片 Ampere