NVIDIA MCX555A-ECAT 100Gb/s однопортовый QSFP28 InfiniBand Adapter PCIe 3.0 x16 ConnectX-5 сетевая карта

Подробная информация о продукте:

Фирменное наименование: Mellanox
Номер модели: MCX555A-ECAT
Документ: CONNECTX-5 infiniband.pdf

Оплата и доставка Условия:

Количество мин заказа: 1 шт.
Цена: Negotiate
Упаковывая детали: Внешняя коробка
Время доставки: На основе инвентаризации
Условия оплаты: Т/Т
Поставка способности: Поставка по проекту/партии
Лучшая цена контакт

Подробная информация

Статус продуктов: Запас Приложение: Сервер
Состояние: Новое и оригинальное Тип: Проводной
Максимальная скорость: EDR и 100GBE Разъем Ethernet: QSFP28
Выделить:

NVIDIA ConnectX-5 адаптер InfiniBand

,

Сетевая карта QSFP28 100 Гбит/с

,

Карта PCIe 3.0 x16 Mellanox

Характер продукции

Сетевой адаптер InfiniBand NVIDIA ConnectX-5 MCX555A-ECAT
Однопортовый QSFP28 | 100 Гбит/с InfiniBand и Ethernet | PCIe 3.0 x16 | С поддержкой RDMA

Высокопроизводительный сетевой адаптер 100 Гбит/с с низкой задержкой, разработанный для высокопроизводительных вычислений (HPC), ИИ и облачных центров обработки данных. Оснащен передовыми функциями разгрузки, включая NVMe over Fabrics, GPUDirect RDMA и сопоставление тегов для рабочих нагрузок MPI — обеспечивая ведущую в отрасли пропускную способность и эффективность использования ЦП.

Обзор продукта

NVIDIA ConnectX-5 MCX555A-ECAT — это однопортовый адаптер InfiniBand 100 Гбит/с в низкопрофильном форм-факторе PCIe. Используя проверенную архитектуру ConnectX-5, он обеспечивает пропускную способность до 100 Гбит/с с задержкой менее микросекунды и высокой частотой сообщений. Карта поддерживает как InfiniBand (до EDR), так и 100GbE, обеспечивая универсальное подключение для высокопроизводительных вычислений, хранения данных и виртуализированных сред.

Встроенный коммутатор PCIe и расширенные возможности RDMA позволяют MCX555A-ECAT разгружать критически важные задачи связи с ЦП, обеспечивая более высокую производительность приложений, снижение энергопотребления и уменьшение общей стоимости владения. Он полностью совместим со слотами PCIe 3.0 x16 и поддерживает широкий спектр операционных систем и фреймворков ускорения.

Ключевые особенности
  • До 100 Гбит/с подключение на порт (InfiniBand EDR / 100GbE)
  • Один разъем QSFP28 для оптических или медных кабелей
  • Интерфейс хоста PCIe 3.0 x16 (автоматически согласовывается до x8, x4, x2, x1)
  • RDMA, семантика отправки/получения с аппаратной надежной передачей
  • Сопоставление тегов и разгрузка объединения для MPI и SHMEM
  • Разгрузка целевых устройств NVMe over Fabrics (NVMe-oF) для эффективного хранения данных
  • Ускорение GPUDirect RDMA (PeerDirect) для связи между ГП
  • Аппаратное управление перегрузками и поддержка адаптивной маршрутизации
  • Виртуализация SR-IOV: до 512 виртуальных функций
  • Соответствие RoHS, низкопрофильный форм-фактор (в комплекте высокий кронштейн)
Передовые технологии и разгрузка

Архитектура ConnectX-5 включает ряд аппаратных движков ускорения, которые уменьшают вмешательство ЦП и повышают масштабируемость приложений:

  • Сопоставление тегов MPI и разгрузка объединения: Разгружает сопоставление сообщений и обработку протокола объединения, значительно повышая производительность MPI для кластеров HPC.
  • RDMA вне порядка с адаптивной маршрутизацией: Обеспечивает эффективное использование нескольких сетевых путей при сохранении семантики упорядоченного завершения, максимизируя использование сети.
  • Разгрузка целевых устройств NVMe-oF: Позволяет системам хранения NVMe обслуживать удаленный доступ с минимальной загрузкой ЦП, идеально подходит для дезагрегированных архитектур хранения данных.
  • Dynamically Connected Transport (DCT): Обеспечивает экстремальную масштабируемость для больших вычислительных систем и систем хранения данных, устраняя накладные расходы на установку соединений.
  • ASAP2 Accelerated Switching & Packet Processing: Аппаратная разгрузка для Open vSwitch (OVS) и туннелирования оверлейных сетей (VXLAN, NVGRE, GENEVE).
  • On-Demand Paging (ODP): Поддерживает страничную подкачку виртуальной памяти для операций RDMA, упрощая разработку приложений.
Типичные сценарии развертывания
  • Высокопроизводительные вычисления (HPC): Идеально подходит для суперкомпьютерных кластеров, симуляций на основе MPI и рабочих нагрузок научных исследований, требующих низкой задержки и высокой частоты сообщений.
  • Обучение ИИ и глубокому обучению: В сочетании с GPUDirect RDMA обеспечивает быструю связь между ГП через узлы, ускоряя время обучения.
  • Системы хранения данных NVMe-oF: Развертывается как целевые устройства хранения или инициаторы в средах NVMe over Fabrics для высокопроизводительного доступа к блочным данным с низкой задержкой.
  • Облачные и виртуализированные центры обработки данных: SR-IOV и разгрузка виртуализации поддерживают многопользовательские среды с гарантированным качеством обслуживания (QoS) и безопасной изоляцией.
  • Высокочастотный трейдинг (HFT): Сверхнизкая задержка и аппаратное временное меткирование (IEEE 1588v2) соответствуют требованиям приложений финансовых услуг.
Совместимость и интероперабельность

MCX555A-ECAT разработан для широкой совместимости с коммутаторами NVIDIA InfiniBand (например, Quantum, Spectrum) и сторонними коммутаторами 100GbE. Он поддерживает как пассивные медные кабели DAC, так и активные оптические кабели через порты QSFP28.

Операционные системы и программные стеки:

  • RHEL / CentOS, Ubuntu, Windows Server, FreeBSD, VMware ESXi
  • OpenFabrics Enterprise Distribution (OFED) / WinOF-2
  • NVIDIA HPC-X, OpenMPI, MVAPICH2, Intel MPI, Platform MPI
  • Data Plane Development Kit (DPDK) для обхода ядра
Технические характеристики
Параметр Спецификация
Модель MCX555A-ECAT
Форм-фактор PCIe Low-Profile (14,2 см x 6,9 см без кронштейна), высокий кронштейн предустановлен, короткий кронштейн в комплекте
Скорость и тип порта 1x QSFP28, до 100 Гбит/с InfiniBand (EDR) и 100GbE
Интерфейс хоста PCI Express 3.0 x16 (совместим с x8, x4, x2, x1)
Поддержка InfiniBand Соответствие IBTA 1.3, 100 Гбит/с EDR, FDR, QDR, DDR, SDR; 8 виртуальных каналов + VL15; 16 миллионов каналов ввода-вывода
Поддержка Ethernet 100GbE, 50GbE, 40GbE, 25GbE, 10GbE, 1GbE; IEEE 802.3cd, 802.3bj, 802.3by, 802.3ba, 802.3ae
Возможности RDMA RDMA over Converged Ethernet (RoCE), аппаратная надежная передача, RDMA вне порядка, атомарные операции
Разгрузка хранения Разгрузка целевого устройства NVMe over Fabrics, iSER, SRP, NFS RDMA, SMB Direct, передача сигнатуры T10 DIF
Виртуализация SR-IOV (до 512 виртуальных функций), VMware NetQueue, NPAR, службы контроля доступа PCIe (ACS)
Разгрузка ЦП Статическая разгрузка TCP/UDP/IP, LSO/LRO, разгрузка контрольной суммы, RSS/TSS, вставка/удаление тегов VLAN/MPLS
Оверлейные сети Аппаратная разгрузка для инкапсуляции/декапсуляции VXLAN, NVGRE, GENEVE
Управление NC-SI через MCTP, PLDM для мониторинга/управления и обновления прошивки, I2C, SPI, JTAG
Удаленная загрузка Удаленная загрузка через InfiniBand, Ethernet, iSCSI; поддержка UEFI, PXE
Энергопотребление Не указано публично; типичный диапазон менее 20 Вт — пожалуйста, уточните для вашей системы
Рабочая температура 0°C до 55°C (типичная среда)
Соответствие стандартам RoHS, REACH, FCC, CE, VCCI, ICES, RCM

Примечание: Технические характеристики основаны на документации продукта NVIDIA ConnectX-5. Для получения самой последней информации и поддержки прошивки обратитесь к официальным заметкам о выпуске NVIDIA.

Руководство по выбору — семейство ConnectX-5
Номер детали для заказа Порты / Скорость Интерфейс хоста Форм-фактор Ключевые особенности
MCX555A-ECAT 1x QSFP28, 100 Гбит/с PCIe 3.0 x16 Низкопрофильный PCIe Стандартный однопортовый, EDR InfiniBand / 100GbE
MCX556A-ECAT 2x QSFP28, 100 Гбит/с PCIe 3.0 x16 Низкопрофильный PCIe Двухпортовый, EDR/100GbE
MCX556A-EDAT 2x QSFP28, 100 Гбит/с PCIe 4.0 x16 Низкопрофильный PCIe ConnectX-5 Ex, улучшенный PCIe Gen4
MCX556M-ECAT-S25 2x QSFP28, 100 Гбит/с 2x PCIe 3.0 x8 Socket Direct Двухсокетное серверное соединение через кабель
MCX545B-ECAN 1x QSFP28, 100 Гбит/с PCIe 3.0 x16 OCP 2.0 Type 1 Форм-фактор Open Compute Project

Для вариантов OCP или Multi-Host, пожалуйста, свяжитесь с отделом продаж. Все карты поддерживают обратную совместимость с более низкими скоростями.

Почему стоит выбрать ConnectX-5 MCX555A-ECAT
  • Превосходная производительность приложений: Аппаратная разгрузка для MPI, NVMe-oF и оверлеев освобождает ядра ЦП для бизнес-логики.
  • Масштабируемая сеть RDMA: DCT, XRC и RDMA вне порядка обеспечивают линейную масштабируемость для тысяч узлов.
  • Готовность к ускорению ГП: GPUDirect RDMA обеспечивает прямой доступ к памяти между ГП и сетевыми адаптерами, устраняя узкие места ЦП в кластерах ИИ.
  • Гибкое развертывание: Один порт QSFP28 упрощает кабельную разводку и идеально подходит для архитектур «leaf-spine» 100 Гбит/с.
  • Защита инвестиций: Поддержка как InfiniBand, так и Ethernet позволяет беспрепятственно переходить между протоколами по мере развития потребностей.
Сервис и поддержка

Hong Kong Starsurge Group предоставляет полную поддержку жизненного цикла адаптеров NVIDIA ConnectX-5, включая помощь в предпродажной конфигурации, руководство по обновлению прошивки и гарантийное обслуживание. Наша техническая команда может помочь с:

  • Проверка совместимости с вашей серверной и коммутационной инфраструктурой
  • Настройка производительности для рабочих нагрузок HPC или хранения данных
  • Варианты пользовательских кронштейнов и требования к оптовой упаковке
  • Обработка RMA и услуги расширенной замены

Свяжитесь с нашими инженерами по продажам для получения информации о ценах на объем и сроках поставки.

Часто задаваемые вопросы
В: Какова разница между MCX555A-ECAT и MCX556A-ECAT?
О: MCX555A-ECAT имеет один порт QSFP28, а MCX556A-ECAT — два порта. Оба поддерживают 100 Гбит/с на порт и PCIe 3.0 x16. Выбирайте однопортовый для более простой кабельной разводки или двухпортовый для большей плотности.
В: Можно ли использовать эту карту в слоте PCIe 3.0 x8?
О: Да, карта автоматически согласовывается до ширины канала x8, x4, x2 или x1, хотя максимальная пропускная способность может быть ограничена доступной пропускной способностью.
В: Поддерживает ли она RoCE (RDMA over Converged Ethernet)?
О: Да, ConnectX-5 поддерживает RoCE для сетей Ethernet, обеспечивая услуги RDMA с низкой задержкой в стандартных сетях Ethernet.
В: Какие кабели совместимы?
О: Карта работает с пассивными медными кабелями DAC QSFP28 (до 5 м) и активными оптическими кабелями (AOC) для больших расстояний, а также с оптическими трансиверами для оптоволоконного подключения.
В: Поддерживается ли эта карта в VMware ESXi?
О: Да, VMware ESXi поддерживается с помощью встроенных драйверов и возможностей SR-IOV. Пожалуйста, проверьте руководство по совместимости VMware для конкретных версий.
Меры предосторожности при обращении и установке

Электростатический разряд (ESD): Всегда соблюдайте меры предосторожности при работе с адаптером. Храните в антистатической упаковке до установки. Требования к охлаждению: Обеспечьте достаточный воздушный поток в корпусе сервера для поддержания рабочей температуры в указанном диапазоне. Обновление прошивки: Используйте официальные инструменты прошивки NVIDIA (MFT) и проверьте совместимость с вашей версией ОС и драйвера перед обновлением. Изгиб кабеля: Соблюдайте рекомендации по радиусу изгиба кабелей QSFP28, чтобы избежать ухудшения сигнала.

Это продукт класса А. В жилой среде он может вызывать радиопомехи. Обеспечьте надлежащее экранирование и заземление в соответствии с местными нормами.

О компании Hong Kong Starsurge Group Co., Limited
NVIDIA MCX555A-ECAT 100Gb/s однопортовый QSFP28 InfiniBand Adapter PCIe 3.0 x16 ConnectX-5 сетевая карта 0

Основанная в 2008 году, Hong Kong Starsurge Group Co., Limited является технологическим поставщиком сетевого оборудования, ИТ-услуг и решений по системной интеграции. Обслуживая клиентов по всему миру с продуктами, включая сетевые коммутаторы, сетевые карты, точки беспроводного доступа, контроллеры и высокоскоростные кабели, Starsurge сочетает глубокие технические знания с клиентоориентированным подходом. Компания поддерживает такие отрасли, как государственное управление, здравоохранение, производство, образование, финансы и корпоративный сектор, предлагая решения IoT, системы управления сетью, разработку пользовательского программного обеспечения и многоязычную глобальную доставку. Сосредоточившись на надежном качестве и оперативном обслуживании, Starsurge помогает клиентам создавать эффективную, масштабируемую и надежную сетевую инфраструктуру.

Ключевые факты — NVIDIA MCX555A-ECAT
100 Гбит/с
Скорость порта (InfiniBand и Ethernet)
PCIe 3.0 x16
Пропускная способность интерфейса хоста
512 VFs
Максимальное количество виртуальных функций SR-IOV
NVMe-oF
Аппаратно разгруженное целевое устройство хранения
Матрица совместимости
Компонент / Система Статус совместимости Примечания
Коммутаторы InfiniBand NVIDIA Quantum Сертифицировано Совместимость EDR, HDR при использовании соответствующей прошивки
Коммутаторы Ethernet NVIDIA Spectrum Сертифицировано Поддерживаются режимы 100GbE, 50GbE, 25GbE
Сторонние коммутаторы 100GbE Совместимо Требуется соответствие стандартам IEEE; протестировано с основными поставщиками
Серверы ГП (NVIDIA DGX, HGX) Сертифицировано с GPUDirect Ускорение RDMA для связи между несколькими ГП
Массивы хранения данных с NVMe-oF Поддерживается Разгрузка целевого устройства обеспечивает эффективный доступ к сети NVMe
Чек-лист покупателя — адаптер 100 Гбит/с InfiniBand
  • ☑ Подтвердите наличие в сервере свободного слота PCIe 3.0 x16 (или x8) с достаточным пространством.
  • ☑ Определите количество портов: однопортовый (MCX555A-ECAT) против двухпортового (MCX556A-ECAT).
  • ☑ Выберите тип кабеля: пассивный медный DAC для коротких расстояний (≤5 м) или оптический для более длинных трасс.
  • ☑ Проверьте поддержку операционной системы и драйверов (OFED, Windows, VMware).
  • ☑ Для кластеров ГП убедитесь в совместимости GPUDirect RDMA с вашей моделью ГП и версией драйвера.
  • ☑ Проверьте, требуется ли высокий или короткий кронштейн для вашего серверного корпуса.
Сопутствующие товары
  • NVIDIA MCX556A-ECAT — двухпортовый адаптер ConnectX-5 100 Гбит/с
  • NVIDIA MCX556A-EDAT — ConnectX-5 Ex с поддержкой PCIe 4.0
  • Коммутатор InfiniBand NVIDIA Quantum-2 QM9700 40 портов 800 Гбит/с
  • Пассивные кабели Mellanox QSFP28 DAC (1 м, 2 м, 3 м)
  • Коммутаторы Ethernet NVIDIA Spectrum-4 SN5600 100GbE/400GbE
Связанные руководства и ресурсы
  • Руководство пользователя сетевого адаптера InfiniBand NVIDIA ConnectX-5
  • Руководство по развертыванию RDMA over Converged Ethernet (RoCE)
  • Рекомендации по использованию GPUDirect RDMA для кластеров ИИ
  • NVMe over Fabrics с ConnectX-5 — руководство по настройке
  • Руководство по установке и настройке OFED


Хотите узнать больше подробностей об этом продукте
Мне интересно NVIDIA MCX555A-ECAT 100Gb/s однопортовый QSFP28 InfiniBand Adapter PCIe 3.0 x16 ConnectX-5 сетевая карта не могли бы вы прислать мне более подробную информацию, такую ​​как тип, размер, количество, материал и т. д.
Спасибо!
Жду твоего ответа.