初春饰利 (@Uiharu_Kazari)天家群友轻轻松松掏出目前保守估计就 400万 RMB的八卡 B200 服务器 中发帖

[image] 
 [image] 
当水友的想象力还停留在H100的时候,隐藏的天家群友来让底层群友看看 天上宫阙 了 
2022 年发布的 Hopper 架构 在日新月异的算力需求面前已经不行了! 
现在这个时间点(20264月),对于各大厂(微软、Meta、谷歌)来说,B200(属于 Blackwell 架构)确实是目前能大批量部署并交付的最强 AI 算力卡了! 
而且,要用两张甚至几张 H100 拼起来才能跑得动的千亿参数大模型,现在一张 B200 就能轻轻松松拿捏!不仅如此,内存带宽高达 8.0 TB/s(H100 才 3.35 TB/s) :tieba_087: 
在 AI 训练上,B200 的速度大约是 H100 的 23 倍 
在 AI 推理(生成回答、画图)上,因为引入了极度变态的 FP4 精度硬件加速,B200 的吞吐量直接是 H100 的 4 倍到 15...
 
 
Back to Top