Nvidia e IBM planejam conectar GPUs diretamente a SSDs
Nvidia, IBM e pesquisadores estão tentando tornar o treinamento de Machine Learning muito mais rápido
Nvidia, IBM e pesquisadores têm um plano para facilitar um pouco a vida de quem trabalha com aprendizado de máquina: conectar GPUs diretamente a SSDs.
Detalhado em um artigo de pesquisa, a ideia é chamada de Big Accelerator Memory (BaM) e envolve conectar GPUs diretamente a grandes quantidades de armazenamento SSD, ajudando a eliminar um gargalo para treinamento de ML (Machine Learning) e outras tarefas intensivas.
“O BaM mitiga a amplificação do tráfego de E/S, permitindo que os threads da GPU leiam ou gravem pequenas quantidades de dados sob demanda, conforme determinado pela computação”, escrevem os pesquisadores.
Aumento de velocidade e confiabilidade
“O objetivo do BaM é estender a capacidade de memória da GPU e aprimorar a largura de banda de acesso ao armazenamento eficaz, ao mesmo tempo em que fornece abstrações de alto nível para os threads da GPU para facilitar o acesso sob demanda e granular a estruturas de dados massivas na hierarquia de memória estendida”.
O objetivo final é reduzir a dependência das GPUs Nvidia das CPUs de uso geral aceleradas por hardware. Ao permitir que as GPUs da Nvidia acessem diretamente o armazenamento e o processem, o trabalho está sendo realizado pelas ferramentas mais especializadas disponíveis.
Sistema BaM
O BaM usa um cache de memória de GPU gerenciado por software junto com uma biblioteca onde os threads de GPU podem solicitar dados armazenados diretamente em SSDs NVMe. A movimentação de informações entre eles é tratada pelas GPUs.
O resultado final é que o treinamento de ML e outras atividades intensivas podem acessar os dados mais rapidamente e, mais importante, de maneiras específicas que são úteis para as cargas de trabalho. Nos testes, isso foi confirmado: as GPUs e os SSDs funcionaram bem juntos, transferindo dados rapidamente.
As equipes planejam abrir seus designs de hardware e software em última análise, uma grande vitória para a comunidade de Machine Learning.
Comentários
Postar um comentário