Новую линейку высокопроизводительных систем создали инженеры Supermicro

Super Micro Computer, Inc. (SMCI), один из мировых лидеров в области корпоративных вычислений, хранения информации, сетевых решений и экологически безопасных вычислительных технологий, объявляет о выпуске новых графических процессоров на базе архитектуры NVIDIA® Ampere и масштабируемых процессоров третьего поколения Intel Xeon со встроенными ускорителями искусственного интеллекта (серии Supermicro X12). Эти серверы предназначены для ресурсоемких систем искусственного интеллекта с низкой задержкой и высокой производительностью приложений. Четырехпроцессорная система 2U NVIDIA HGX™ A100 предназначена для крупномасштабного развертывания современных учебных кластеров по искусственному интеллекту с высокоскоростным взаимодействием ЦП-ГП и ГП-ГП. Двухузловая система Supermicro 2U снижает энергопотребление и затраты за счет совместного использования источников питания и охлаждающих вентиляторов, сокращает углеродные выбросы и поддерживает ряд дискретных ускорителей на графических процессорах в соответствии с рабочими заданиями. Обе эти системы оснащены расширенными функциями аппаратной безопасности, обеспечиваемыми новейшими расширениями Intel Software Guard Extensions (Intel SGX).

«Инженеры Supermicro создали еще одну широкую линейку высокопроизводительных систем на основе графических процессоров, позволяющих сократить расходы, площадь и энергопотребление по сравнению с другими конструкциями на рынке, — заявил президент и генеральный директор компании Supermicro Чарльз Льян (Charles Liang). — Благодаря нашей инновационной конструкции мы можем предложить клиентам NVIDIA HGX A100 (кодовое название Redstone) четырехпроцессорные ускорители для систем искусственного интеллекта и высокопроизводительных вычислений в плотных форм-факторах 2U. Кроме того, наша двухузловая система размером 2U уникально разработана для совместного использования компонентов электропитания и охлаждения, снижающих производственные затраты и воздействие на окружающую среду».

Сервер 2U NVIDIA HGX A100 функционирует на базе масштабируемых процессоров третьего поколения Intel Xeon с технологией Intel Deep Learning Boost и оптимизирован для выполнения аналитических, учебных и логических задач. Эта система может обеспечивать производительность ИИ до 2,5 петафлопс с четырьмя графическими процессорами A100, полностью подключенными к NVIDIA NVLink®, обеспечивая память графических процессоров объемом до 320 ГБ для ускорения прорывов в сфере корпоративных исследований данных и искусственного интеллекта. Эта система в 4 раза быстрее, чем графические процессоры предыдущего поколения для сложных диалоговых моделей ИИ, таких как крупномасштабные логические выводы BERT, и обеспечивает трехкратное повышение производительности для обучения ИИ с помощью BERT.

Кроме того, благодаря усовершенствованным конструкциям тепловых систем и систем охлаждения эти системы идеально подходят для высокопроизводительных кластеров с приоритетной плотностью узлов и энергоэффективностью. Кроме того, эти системы оснащаются жидкостным охлаждением, что обеспечивает еще большую экономию. На этой платформе также поддерживается постоянная память Intel Optane™ (PMem), позволяющая хранить значительно более крупные модели, близкие к ЦП, перед обработкой на графических процессорах. Для приложений, требующих мультисистемного взаимодействия, система также может оснащаться четырьмя картами NVIDIA ConnectX®-6 200Gb/s InfiniBand для поддержки GPUDirect RDMA с соотношением ГП к ДП 1:1.

Новый двухузловой 2U представляет собой энергоэффективную ресурсосберегающую архитектуру, предназначенную для каждого узла и обеспечивающую поддержку до трех графических процессоров двойной ширины. Каждый узел также оснащается одним масштабируемым процессором третьего поколения Intel Xeon с 40 ядрами и встроенным ускорителем искусственного интеллекта и высокопроизводительных вычислений. Это сочетание ЦП и графических процессоров улучшит характеристики широкого спектра систем искусственного интеллекта, визуализации и виртуальной реальности. Эта система, оснащенная усовершенствованным модулем ввода-вывода (AIOM) компании Supermicro для быстрого и гибкого сетевого взаимодействия, также может обрабатывать большие потоки данных для ресурсоемких систем искусственного интеллекта/машинного обучения, глубокого обучения и формирования логических выводов, сохраняя при этом рабочую нагрузку и модели обучения. Кроме того, она идеально подходит для высокотехнологичных облачных игр и множества других вычислительных систем VDI. Кроме того, виртуальные сети доставки контента (vCDN) смогут удовлетворять растущие потребности в сервисах потокового вещания. Резервирование источника питания встроено, поскольку в случае неисправности каждый узел может использовать источник питания соседнего узла.

Другие новости