初春饰利 (@Uiharu_Kazari) 在 天家群友轻轻松松掏出目前保守估计就 400万 RMB的八卡 B200 服务器 中发帖
[image]
[image]
当水友的想象力还停留在H100的时候,隐藏的天家群友来让底层群友看看 天上宫阙 了
2022 年发布的 Hopper 架构 在日新月异的算力需求面前已经不行了!
现在这个时间点(2026年4月),对于各大厂(微软、Meta、谷歌)来说,B200(属于 Blackwell 架构)确实是目前能大批量部署并交付的最强 AI 算力卡了!
而且,要用两张甚至几张 H100 拼起来才能跑得动的千亿参数大模型,现在一张 B200 就能轻轻松松拿捏!不仅如此,内存带宽高达 8.0 TB/s(H100 才 3.35 TB/s) :tieba_087:
在 AI 训练上,B200 的速度大约是 H100 的 2 到 3 倍
在 AI 推理(生成回答、画图)上,因为引入了极度变态的 FP4 精度硬件加速,B200 的吞吐量直接是 H100 的 4 倍到 15 倍...