Nvidia совместно с производителями серверов развивает облачные вычисления для ИИ

Интеграция Инфраструктура Облачные технологии
мобильная версия
, Текст: Владимир Бахур

Nvidia объявила о запуске партнерской программы с ведущими ODM-производителями — Foxconn, Inventec, Quanta и Wistron, чтобы быстрее удовлетворить рыночный спрос на облачные вычисления для задач искусственного интеллекта (ИИ).

В рамках партнерской программы Nvidia HGX Nvidia предоставляет каждому ODM-производителю ранний доступ к референсной архитектуре  Nvidia HGX, технологиям вычислений на GPU и руководствам по проектированию. Модель HGX – та же, что используется и в Microsoft Project Olympus, системах Facebook Big Basin и суперкомпьютерах для задач ИИ Nvidia DGX-1. 

Используя HGX в качестве основы, ODM-партнеры в сотрудничестве с Nvidia могут быстрее создавать и выводить на рынок широкий спектр GPU-ускоренных систем для гипермасштабируемых дата-центров. В рамках программы инженеры Nvidia помогут ODM-производителям сократить время как на проектирование, так и на развертывание систем.

За последний год резко возрос спрос на вычислительные ресурсы для задач ИИ, при этом также сильно выросла распространенность на рынке и производительность вычислительных платформ Nvidia на базе GPU. Сегодня 10 из 10 ведущих мировых гипермасшабируемых бизнесов используют ускорители Nvidia в своих дата-центрах. 

С помощью новых GPU на базе архитектуры Nvidia Volta, которая обеспечивает втрое более высокую производительность по сравнению с предшествующей архитектурой, ODM-производители могут удовлетворить рыночный спрос, выпустив новые продукты на базе новейших технологий Nvidia. 

«Ускоренные вычисления развиваются очень быстро — всего за год нам удалось увеличить скорость глубокого обучения для вычислительных ускорителей Tesla втрое. Новые возможности оказывают колоссальное влияние на проектирование новых систем, - сказал Ян Бак (Ian Buck), директор по ускоренным вычислениям в Nvidia. – Благодаря  партнерской программе HGX производители устройств могут быть уверены в том, что они предлагают новейшие технологии для работы с искусственным интеллектом растущему сообществу поставщиков систем для облачных вычислений».

Nvidia создала референсную архитектуру HGX, чтобы обеспечить производительность, эффективность и масштабируемость, необходимые для гипермасштабируемых облачных окружений. HGX поддерживает большой спектр конфигураций в зависимости от нагрузки и позволяет объединять графические и центральные процессоры в различных комбинациях для высокопроизводительных вычислений, обучения глубоких сетей и инференса.

Стандартная архитектура HGX включает восемь ускорителей Nvidia Tesla в форм-факторе SXM2, объединенных топологией cube mesh с помощью высокоскоростного интерфейса Nvidia NVLink и оптимизированных PCIe-топологий. Благодаря модульному дизайну, HGX-системы могут устанавливаться в существующие дата-центры во всем мире, при необходимости используя  гипермасштабируемые CPU-узлы.

С HGX совместимы оба ускорителя Nvidia - Tesla P100 и V100. Поэтому системы на базе HGX можно будет обновить сразу же, как только процессоры V100 выйдут на рынок. 

HGX – это референсная архитектура для поставщиков облачных решений, которые хотят перейти на новую платформу Nvidia GPU Cloud. Платформа Nvidia GPU упрощает доступ к полностью интегрированным и оптимизированным фреймворкам глубокого обучения, включая Caffe2, Cognitive Toolkit, MXNet и TensorFlow. 

«Благодаря новой партнерской программе Nvidia, мы сможем быстрее удовлетворять растущие запросы наших клиентов, многие из которых управляют крупнейшими в мире дата-центрами, - отметил Тэйю Чу (Taiyu Chou), директор Foxconn/Hon Hai Precision и президент Ingrasys Technology.  - Ранний доступ к GPU-технологиям Nvidia и руководствам по проектированию поможет нам быстрее выводить на рынок инновационные продукты для растущих запросов наших клиентов в области ИИ-вычислений».