大模型一般是在集群场景进行分布式训练和推理,那么对于大模型这种动辄几十几百 G (如果训练,还要考虑数据集可能也是 T 级别),分布式存储有比较好的方案吗(读写性能、网络带宽等)?
比如多个 GPU 节点同时从存储节点读取和加载模型权重,对存储节点的读写性能要求应该非常高,想知道集群场景下有没有针对 AI 的分布式存储系统
1
wyxustcsa09 31 天前
|
2
cybort 30 天前 via Android
其实没必要同时加载,一个读了发给其他人就行,走网线
|