当前位置:首页 > 探索

Nvidia和IBM计划将GPU直接连接到SSD

Nvidia和IBM计划将GPU直接连接到SSD

贡阳邦导读 Nvidia、计划将IBM和研究人员制定了一项计划,直接让从事机器学习工作的连接人的生活更轻松:将GPU直接连接到SSD。在一篇研究论文中详细介绍了这个想法,计划将称为大加速器内存(BaM),直接涉及将GPU直接连接到大量SSD存储,连接帮助消除ML训练和其他密集型任务的计划将瓶颈。研究人员写道:BaM通过让GPU线程按需读取或写入少量数据(由计算决定)来缓解I O流量放大。直接BaM的连接目标是扩展GPU内存容

Nvidia、IBM和研究人员制定了一项计划,计划将让从事机器学习工作的直接人的生活更轻松:将GPU直接连接到SSD。在一篇研究论文中详细介绍了这个想法,连接称为大加速器内存(BaM),计划将涉及将GPU直接连接到大量SSD存储,直接帮助消除ML训练和其他密集型任务的连接瓶颈。

研究人员写道:“BaM通过让GPU线程按需读取或写入少量数据(由计算决定)来缓解I/O流量放大。”

“BaM的目标是扩展GPU内存容量并增强有效的存储访问带宽,同时为GPU线程提供高级抽象,以便轻松按需、细粒度地访问扩展内存层次结构中的海量数据结构。”

最终目标是减少对NvidiaGPU和硬件加速通用CPU的依赖。通过允许NvidiaGPU直接访问存储,然后对其进行处理,这项工作正在由最专业的可用工具执行。

WhamBaM上阿朗

技术细节非常复杂(如果这是您的领域,我们建议您阅读论文),但要点是双重的。

BaM使用由软件管理的GPU内存缓存以及一个库,其中GPU线程可以直接请求存储在NVMeSSD上的数据。之间的移动信息由GPU处理。

最终结果是机器学习训练和其他密集活动可以更快地访问数据,更重要的是,以有助于工作负载的特定方式访问数据。在测试中,这一点得到了证实:GPU和SSD可以很好地协同工作,快速传输数据。

团队计划最终开源他们的硬件和软件设计,这对ML社区来说是一个巨大的胜利。

分享到:

京ICP备19007577号-5