NVIDIA ConnectX-6 InfiniBand Adapter MCX653106A-ECAT 200Gb/s Smart NIC

Thông tin chi tiết sản phẩm:

Hàng hiệu: Mellanox
Số mô hình: MCX653106A-ECAT
Tài liệu: connectx-6-infiniband.pdf

Thanh toán:

Số lượng đặt hàng tối thiểu: 1 cái
Giá bán: Negotiate
chi tiết đóng gói: hộp bên ngoài
Thời gian giao hàng: Dựa trên hàng tồn kho
Điều khoản thanh toán: T/T
Khả năng cung cấp: Cung cấp theo dự án/đợt
Giá tốt nhất Tiếp xúc

Thông tin chi tiết

tình trạng sản phẩm: Cổ phần Ứng dụng: Máy chủ
Loại giao diện:: Infiniband Cổng: Hai
Tốc độ tối đa: 100gbe Kiểu: Có dây
Tình trạng: Mới và nguyên bản Thời gian bảo hành: 1 năm
Người mẫu: MCX653106A-ECAT Tên: Card mạng Mellanox MCX653106A-ECAT chính hãng kết nối Bộ điều hợp Ethernet QSFP56 cổng kép 100Gb/s X
Từ khóa: Thẻ mạng Mellanox
Làm nổi bật:

NVIDIA ConnectX-6 Infiniband adapter

,

Smart NIC 200Gb/s

,

Card mạng Mellanox có bảo hành

Mô tả sản phẩm

NVIDIA ConnectX-6 InfiniBand Adapter MCX653106A-ECAT

Adapter thông minh hai cổng 200Gb / s với điện toán trong mạng

NVIDIA ConnectX-6 MCX653106A-ECAT cung cấp đến200Gb/sbăng thông rộng, độ trễ dưới microsecond và tải phần cứng cho HPC, AI và lưu trữ siêu hội tụ.0, bộ chuyển đổi InfiniBand QSFP56 cổng kép này tối đa hóa hiệu quả và khả năng mở rộng trung tâm dữ liệu. Lý tưởng cho các cụm GPU, đào tạo ML và mạng quan trọng.

Hỗ trợ InfiniBand & Ethernet RDMA / GPUDirect NVMe-oF thả
Tổng quan sản phẩm

CácMCX653106A-ECATlà một phần của gia đình NVIDIA ConnectX-6 InfiniBand adapter, được thiết kế cho các khối lượng công việc đòi hỏi khắt khe nhất. Nó kết hợp hai cổng QSFP56 có khả năng kết nối 200Gb / s InfiniBand hoặc 200Gb / s Ethernet,cung cấp giao thông đáng tin cậy dựa trên phần cứng, kiểm soát tắc nghẽn, và In-Network Computing động cơ bằng cách dỡ bỏ các hoạt động tập thể, MPI tag phù hợp, và mã hóa từ máy chủ CPU,bộ chuyển đổi giảm chi phí CPU và tăng hiệu suất ứng dụng trong các cụm quy mô lớnCác doanh nghiệp, phòng thí nghiệm nghiên cứu và trung tâm dữ liệu siêu quy mô dựa vào ConnectX-6 để xây dựng các loại vải tiết kiệm năng lượng, chậm.

Các đặc điểm chính
Tốc độ cổng
Tối đa 200Gb/s mỗi cổng (HDR InfiniBand / 200GbE)
Tỷ lệ tin nhắn
Tối đa 215 triệu tin nhắn/giây
Mã hóa phần cứng
XTS-AES 256/512 bit cấp khối, phù hợp với FIPS
Máy tính trong mạng
Tải tải tập thể, mục tiêu NVMe-oF/nhà khởi xướng
Giao diện máy chủ
PCIe Gen 4.0/3.0 x16 (hỗ trợ hai cổng)
Virtualization
SR-IOV lên đến 1K VFs, ASAP2, mở vSwitch offload
Khả năng RDMA
RoCE, XRC, DCT, On-Demand Paging, Hỗ trợ định tuyến thích nghi
Hình thức yếu tố
Stand-up PCIe (profile thấp), cổng kép QSFP56
Công nghệ tiên tiến

Được xây dựng trên kiến trúc InfiniBand đã được chứng minh của NVIDIA, ConnectX-6 tích hợpMáy tính trong mạngđể tăng tốc các hoạt động MPI, khung học sâu và giao thức lưu trữ.Truy cập trực tiếp bộ nhớ từ xa (RDMA)để chuyển dữ liệu không sao chép, bỏ qua CPU và lõi. Kiểm soát tắc nghẽn dựa trên phần cứng đảm bảo hiệu suất dự đoán ngay cả dưới tải nặng.NVIDIA GPUDirect RDMAcho phép trao đổi dữ liệu trực tiếp giữa bộ nhớ GPU và bộ điều hợp mạng, cắt giảm thời gian trễ cho đào tạo AI.NVMe trên vải (NVMe-oF)Khi tải xuống, thẻ giảm việc sử dụng CPU trong mảng lưu trữ trong khi cho phép truy cập flash NVMe tốc độ cao, độ trễ thấp.

Các hoạt động đặc trưng
  • Máy tính hiệu suất cao (HPC):Mô phỏng quy mô lớn, mô hình thời tiết và động lực học chất lỏng tính toán đòi hỏi độ trễ thấp và băng thông cao.
  • AI & Machine Learning Cluster:Đào tạo phân tán các mạng thần kinh sâu, tận dụng GPUDirect và RDMA để đạt hiệu quả tối đa.
  • Hệ thống lưu trữ NVMe-oF:Tải tải mục tiêu hoặc khởi tạo cho phép lưu trữ phân chia hiệu suất cao với chi phí CPU thấp.
  • Trung tâm dữ liệu siêu quy mô:Môi trường ảo hóa với SR-IOV, mạng phủ trên và chuỗi dịch vụ.
  • Dịch vụ tài chính:Cơ sở hạ tầng giao dịch độ trễ cực thấp đòi hỏi hiệu suất xác định.
Khả năng tương thích

ConnectX-6 MCX653106A-ECAT tương thích với một loạt các máy chủ, chuyển mạch và hệ điều hành.cũng như các công tắc Ethernet 200GbEBộ chuyển đổi hỗ trợ khe cắm PCIe tiêu chuẩn (x16, x8, x4) và bao gồm hỗ trợ trình điều khiển cho các nền tảng hệ điều hành chính.

Thông số kỹ thuật
Parameter Thông số kỹ thuật
Mô hình sản phẩm MCX653106A-ECAT
Tỷ lệ dữ liệu 200Gb/s, 100Gb/s, 50Gb/s, 40Gb/s, 25Gb/s, 10Gb/s, 1Gb/s (InfiniBand & Ethernet)
Các cảng 2x đầu nối QSFP56
Giao diện máy chủ PCIe Gen 4.0 / 3.0 x16 (hỗ trợ các cấu hình x8, x4, x2, x1)
Độ trễ cực kỳ thấp dưới microsecond (thường < 0,8μs)
Tỷ lệ tin nhắn Đến 215 triệu tin nhắn/giây
Mã hóa XTS-AES 256/512 bit, tuân thủ FIPS 140-2 sẵn sàng
Hình thức yếu tố PCIe stand-up có hồ sơ thấp (được gắn trên khung cao, bao gồm khung ngắn)
Kích thước (không có đệm) 167.65mm x 68.90mm
Tiêu thụ năng lượng Thông thường 22W (tùy thuộc vào giao thông)
Virtualization SR-IOV (1K VFs), VMware NetQueue, NPAR, ASAP2
Quản lý NC-SI, MCTP qua PCIe / SMBus, PLDM để cập nhật firmware và giám sát
Remote Boot InfiniBand, iSCSI, PXE, UEFI
Hệ điều hành RHEL, SLES, Ubuntu, Windows Server, FreeBSD, VMware vSphere, OFED
Hướng dẫn lựa chọn ConnectX-6 Adapters
Số phần đặt hàng (OPN) Các cảng Tốc độ tối đa Giao diện máy chủ Điểm phân biệt chính
MCX653106A-ECAT 2x QSFP56 100Gb/s (cũng thấp hơn) PCIe 3.0/4.0 x16 Dual-port 100GbE/IB, offloads nâng cao, tùy chọn mã hóa? Không có mã hóa tích hợp trong biến thể này, nhưng hỗ trợ mã hóa khối thông qua phần mềm? Thực sự là động cơ AES phần cứng, tham khảo thông số kỹ thuật;lý tưởng cho ảo hóa & lưu trữ
MCX653105A-HDAT 1x QSFP56 200Gb/s PCIe 3.0/4.0 x16 Cổng duy nhất 200Gb/s, hỗ trợ mã hóa
MCX653106A-HDAT 2x QSFP56 200Gb/s PCIe 3.0/4.0 x16 Cổng kép 200Gb / s băng thông đầy đủ, tải lượng mã hóa
MCX653105A-ECAT 1x QSFP56 100Gb/s PCIe x16 Cổng duy nhất 100Gb/s, chi phí nhập thấp hơn
MCX653436A-HDAT (OCP 3.0) 2x QSFP56 200Gb/s PCIe 3.0/4.0 x16 OCP 3.0 yếu tố hình dạng nhỏ, hai cổng
Lưu ý: Không phải tất cả các tính năng (ví dụ, động cơ mã hóa) đều có sẵn trong mọi OPN. MCX653106A-ECAT tập trung vào hiệu quả cổng kép 100Gb / s với bộ tính năng ConnectX-6 đầy đủ bao gồm RDMA, tải lưu trữ,và ảo hóa. Đối với cổng kép 200Gb / s, hãy xem xét các biến thể -HDAT. Xin xác nhận các yêu cầu mật mã trước khi đặt hàng.
Tại sao chọn ConnectX-6 MCX653106A-ECAT
  • Hiệu suất ứng dụng tối đa:Việc tháo tải phần cứng cho MPI, NVMe-oF và mã hóa giải phóng các lõi CPU cho khối lượng công việc thực tế.
  • Bandwidth sẵn sàng trong tương lai:Sẵn sàng PCIe 4.0 và 200Gb / s đảm bảo tuổi thọ trong vải tốc độ cao.
  • Bộ nhớ và máy tính trong mạng:Hỗ trợ tải tập thể và bộ đệm bùng nổ, giảm chuyển động dữ liệu trên cao.
  • Bảo mật đáng tin cậy:Mã hóa AES-XTS cấp khối với sự tuân thủ FIPS đảm bảo bảo vệ dữ liệu trong trạng thái yên tĩnh và quá cảnh mà không bị ảnh hưởng hiệu suất.
  • Quản lý đơn giản:Hỗ trợ hệ điều hành rộng và siêu trình duyệt, với ngăn xếp trình điều khiển thống nhất (OFED, WinOF-2).
Dịch vụ & Hỗ trợ

Nhóm Hong Kong Starsurge cung cấp hỗ trợ kỹ thuật đầy đủ, bảo hành bảo hành, và dịch vụ RMA cho tất cả các NVIDIA ConnectX adapters.cập nhật phần mềm máy chắcChúng tôi cung cấp dịch vụ vận chuyển toàn cầu, giá bán lẻ cho các dự án trung tâm dữ liệu, và đặt hàng theo yêu cầu.liên hệ với đội ngũ bán hàng của chúng tôi để nhận được báo giá phù hợp và chi tiết thời gian dẫn.

Câu hỏi thường gặp
Q: MCX653106A-ECAT có tương thích với cả InfiniBand và Ethernet không?
A: Có. Dòng ConnectX-6 hỗ trợ hoạt động hai giao thức: InfiniBand (lên đến 200Gb / s mỗi cổng) và Ethernet (lên đến 200GbE).OPN đặc biệt hỗ trợ tốc độ lên đến 100Gb / s cho cả hai giao thức khi được sử dụng với các máy thu và chuyển đổi thích hợp.
Q: Có phải adapter này hỗ trợ GPU Direct RDMA?
A: Chắc chắn. NVIDIA GPUDirect RDMA được hỗ trợ, cho phép giao tiếp trực tiếp giữa bộ nhớ GPU và mạng, lý tưởng cho các khung AI và khối lượng công việc MPI.
Q: Sự khác biệt giữa hậu tố -ECAT và -HDAT là gì?
A: -ECAT biểu thị tốc độ tối đa 100Gb / s (cả IB và ETH) với một số bộ tính năng nhất định; -HDAT chỉ ra khả năng 200Gb / s với mã hóa phần cứng và công cụ nâng cao.Chọn dựa trên băng thông cổng cần thiết.
Q: Tôi có thể sử dụng thẻ này trong khe cắm PCIe 3.0?
Đáp: Có, nó tương thích ngược với PCIe 3.0Tuy nhiên, băng thông tối đa có thể bị hạn chế so với PCIe 4.0.
Q: Có phải bộ chuyển đổi bao gồm NVMe-oF phần cứng giảm tải?
Đáp: Có, ConnectX-6 cung cấp đầy đủ NVMe-oF mục tiêu và khởi động offloads, giảm đáng kể CPU overhead cho khối lượng công việc lưu trữ.
Những biện pháp phòng ngừa quan trọng
• Đảm bảo bo mạch chủ máy chủ có đủ luồng không khí cho bộ điều hợp tốc độ cao.
• Xác nhận khe cắm PCIe cung cấp năng lượng đầy đủ (lên đến 75W thông qua khe cắm; bộ điều hợp này thường sử dụng < 25W).
• Đối với các nền tảng làm mát bằng chất lỏng, hãy kiểm tra tính tương thích với Intel Server System D50TNP nếu cần biến thể đĩa lạnh (OPN này được làm mát bằng không khí tiêu chuẩn).
• Kiểm tra khả năng tương thích trình điều khiển hệ điều hành với các bộ đống OFED hoặc WinOF-2 mới nhất.
Về Tập đoàn Hong Kong Starsurge

Kể từ năm 2008, Hồng Kông Starsurge Group Co., Limited cung cấp phần cứng mạng cấp doanh nghiệp, tích hợp hệ thống và dịch vụ CNTT trên toàn thế giới.Starsurge cung cấp các giải pháp được chứng nhận cho chính phủ, tài chính, y tế, giáo dục, và trung tâm dữ liệu siêu quy mô. đội ngũ kỹ thuật của chúng tôi đảm bảo triển khai trơn tru, từ thiết kế kiến trúc trước bán hàng để hỗ trợ sau bán hàng. với một triết lý khách hàng đầu tiên,chúng tôi cung cấp các thành phần cơ sở hạ tầng phù hợp, có thể mở rộng bao gồm NIC, chuyển mạch, cáp và các giải pháp mạng toàn diện.

Phân phối toàn cầu · Hỗ trợ đa ngôn ngữ · Dịch vụ OEM có sẵn

Những sự kiện quan trọng trong một cái nhìn
Cổng 2x 100Gb/s
215M Msgs/giây
PCIe 4.0 x16
XTS-AES + FIPS
SR-IOV (1K VF)
NVMe-oF thả
Ma trận tương thích (tạm dịch nhanh)
Thành phần / Hệ sinh thái Được hỗ trợ Chú ý
NVIDIA Quantum HDR Switch ✓ Có Tích hợp hoàn toàn vải 200Gb/s
Ethernet 200G/100G Switch ✓ Có Yêu cầu các chế độ phát tín hiệu/FEC tương thích
GPU Direct RDMA ✓ Có Hỗ trợ loạt GPU NVIDIA
VMware vSphere / ESXi ✓ Chứng nhận Người lái xe bản địa, hỗ trợ SR-IOV
Windows Server 2019/2022 ✓ Có Gói trình điều khiển WinOF-2
Linux Kernel & OFED ✓ Hỗ trợ đầy đủ MLNX_OFED, trình điều khiển hộp thư đến
Danh sách kiểm tra người mua trước khi bạn đặt hàng
  • Xác nhận tốc độ liên kết cần thiết: 100Gb / s cổng kép đáp ứng kế hoạch băng thông cụm của bạn? Đối với 200Gb / s cổng kép, xem xét -HDAT OPN.
  • Kiểm tra khe cắm máy chủ PCIe: x16 vật lý, Gen 3 hoặc Gen 4 được khuyến cáo.
  • Kiểm tra loại cáp: đồng thụ động QSFP56 (tối đa 5m) hoặc cáp quang hoạt động để tiếp cận dài hơn.
  • Đảm bảo các trình điều khiển hệ điều hành có sẵn (OFED, WinOF).
  • Đối với các yêu cầu mã hóa: xác nhận nếu cần mã hóa khối tích hợp ¢ MCX653106A-ECAT hỗ trợ AES-XTS, nhưng luôn xác nhận mức FIPS với trang dữ liệu NVIDIA.
  • Đánh giá nhu cầu ảo hóa: SR-IOV, VXLAN offload, v.v.

Muốn biết thêm chi tiết về sản phẩm này
NVIDIA ConnectX-6 InfiniBand Adapter MCX653106A-ECAT 200Gb/s Smart NIC bạn có thể gửi cho tôi thêm chi tiết như loại, kích thước, số lượng, chất liệu, v.v.

Chờ hồi âm của bạn.