NVIDIA, IBM и несколько университетов создали архитектуру, обеспечивающую быстрый "мелкозернистый доступ" к значительным объемам хранилища данных для приложений с ускорением на GPU. Эта технология принесет пользу в таких областях, как искусственный интеллект, аналитика и машинное обучение.
Big accelerator Memory, или BaM, представляет собой интригующую попытку снизить зависимость графических процессоров NVIDIA и сопоставимых аппаратных ускорителей от стандартного ЦП, например, при доступе к хранилищу, что повысит производительность и емкость.
NVIDIA — самый видный член команды BaM, использующий свои обширные ресурсы для творческих проектов, таких как перенос рутинных задач, ориентированных на ЦП, на ядра производительности ГП. Вместо того, чтобы полагаться на трансляцию виртуальных адресов, загрузку данных по запросу на основе ошибки страницы и дополнительные стандартные механизмы на основе ЦП для управления значительными объемами данных, новый BaM будет предоставлять программную и аппаратную архитектуру, позволяющую ГП NVIDIA получать данные напрямую из памяти и областей хранения и обрабатывать эти данные, не полагаясь только на ядра ЦП.
Исследователи из трех групп экспериментировали с прототипом системы на базе Linux, используя BaM, стандартные графические процессоры и твердотельные накопители NVMe, чтобы продемонстрировать этот дизайн как жизнеспособную альтернативу нынешнему подходу, когда ЦП управляет всеми вопросами. Исследования объясняют, что доступ к хранилищу можно использовать одновременно, что ограничения синхронизации сняты, а пропускная способность ввода-вывода используется для повышения производительности приложений гораздо эффективнее, чем раньше.
Новые детали дизайна BaM будут открыты для оптимизации как