Card mạng InfiniBand Ethernet kép 100Gb/s hai cổng NVIDIA Mellanox ConnectX-6 MCX653106A-ECAT

Thông tin chi tiết sản phẩm:

Hàng hiệu: Mellanox
Số mô hình: MCX653106A-ECAT
Tài liệu: connectx-6-infiniband.pdf

Thanh toán:

Số lượng đặt hàng tối thiểu: 1 cái
Giá bán: Negotiate
chi tiết đóng gói: hộp bên ngoài
Thời gian giao hàng: Dựa trên hàng tồn kho
Điều khoản thanh toán: T/T
Khả năng cung cấp: Cung cấp theo dự án/đợt
Giá tốt nhất Tiếp xúc

Thông tin chi tiết

tình trạng sản phẩm: Cổ phần Ứng dụng: Máy chủ
Loại giao diện:: Infiniband Cổng: Hai
Tốc độ tối đa: 100gbe Kiểu: Có dây
Tình trạng: Mới và nguyên bản Thời gian bảo hành: 1 năm
Người mẫu: MCX653106A-ECAT Tên: MCX653106A-ECAT Mellanox 100gb Nic ConnectX- 6 VPI Hdr100 Edr Ib Cổng kép
Từ khóa: Thẻ mạng Mellanox
Làm nổi bật:

Máy chuyển đổi mạng Mellanox ConnectX-6

,

Card Ethernet InfiniBand 100Gb/s

,

Card mạng Mellanox hai cổng

Mô tả sản phẩm

NVIDIA ConnectX-6 MCX653106A-ECAT 100Gb / s Cổng kép InfiniBand Smart Adapter

Thẻ chuyển đổi InfiniBand và Ethernet hai cổng đa năng 100Gb / s với giao diện PCIe 3.0/4.0 x16  cung cấp RDMA, NVMe-oF offloads, mã hóa cấp khối,và điện toán trong mạng cho HPC tối ưu hóa chi phí, doanh nghiệp, và triển khai đám mây.

  • Kết nối InfiniBand 100Gb/s cổng kép (EDR/HDR100) và 100/50/40/25/10GbE
  • PCIe Gen 3.0/4.0 x16 (đối tương thích ngược)
  • Tải tải phần cứng: NVMe-oF mục tiêu / khởi xướng, mã hóa 256/512 bit XTS-AES, phù hợp thẻ MPI
  • Hỗ trợ NVIDIA In-Network Computing và GPUDirect RDMA
  • Hình dạng PCIe đứng thấp, phù hợp với RoHS
Đặc điểm
  • 100Gb/s thông lượng:Cổng kép hoạt động ở tốc độ InfiniBand (EDR/HDR100) lên đến 100Gb/s hoặc Ethernet với băng thông hai chiều đầy đủ.
  • Máy tính trong mạng:Dùng các hoạt động tập thể (MPI, NCCL, SHMEM) bằng công nghệ NVIDIA SHARP.
  • Mã hóa cấp khối:Phần cứng AES-XTS 256/512-bit mã hóa / giải mã mà không có CPU overhead; phù hợp với FIPS.
  • NVMe-oF:Mục tiêu và khởi động tải cho NVMe qua Fabrics, giảm việc sử dụng CPU.
  • Tăng cường ảo hóa:SR-IOV lên đến 1K VF, gia tốc ASAP2 cho OVS và chuyển đổi ảo.
Công nghệ & Tiêu chuẩn

MCX653106A-ECAT tích hợpNVIDIA In-Network Computingđộng cơ (SHARP),RDMA (IBTA 1.3),RoCE, vàNVMe-oFNó hỗ trợPCIe Gen 4.0 (x16) và Gen 3.0,PAM4 và NRZ SerDes, và các tính năng tiên tiến nhưGiao thông kết nối động (DCT),Đặt trang theo yêu cầu (ODP), vàĐường dẫn thích nghi. Overlay offloads cho VXLAN, NVGRE, Geneve được tăng tốc bằng phần cứng. Phù hợp với IEEE 802.3bj, 802.3bm, 802.3by và thông số kỹ thuật của Hiệp hội Thương mại InfiniBand.

Nguyên tắc làm việc: Kiến trúc phát thải thông minh

ConnectX-6 chuyển tải các nhiệm vụ truyền thông và lưu trữ từ CPU máy chủ sang phần cứng adapter.Để lưu trữ, Các lệnh NVMe-oF được xử lý trực tiếp trên bộ điều hợp, giải phóng các lõi CPU.độ trễ thấp hơn, tốc độ tin nhắn cao hơn (215 Mpps) và khả năng mở rộng ứng dụng được cải thiệnNgay cả ở tốc độ 100Gb/s.

Ứng dụng và triển khai
  • Các nhóm HPC tầm trung:Mô phỏng dựa trên MPI đòi hỏi kết nối liên kết 100Gb/s hiệu quả về chi phí.
  • AI Inference & Training:GPU cụm với GPUDirect RDMA và NCCL tập thể.
  • Lưu trữ NVMe-oF:Đảm tải mục tiêu / khởi động cho truy cập lưu trữ NVMe hiệu suất cao.
  • Trung tâm dữ liệu ảo hóa:SR-IOV và ASAP2 cho OVS trong NFV và đám mây.
  • Enterprise Cloud:100Gb kết nối Ethernet cho ảo hóa và lưu trữ hội tụ.
Thông số kỹ thuật và tùy chọn đặt hàng
Mô hình Cổng & Tốc độ Giao diện máy chủ Hình thức yếu tố Mã hóa Nghị định thư OPN
ConnectX-6 2x QSFP56 (100Gb/s IB/Eth) PCIe 3.0/4.0 x16 PCIe stand-up (chỉ ở mức thấp) AES-XTS 256/512 bit InfiniBand, Ethernet, NVMe-oF MCX653106A-ECAT
ConnectX-6 1x QSFP56 (100Gb/s) PCIe 4.0 x8 PCIe đứng AES-XTS IB/Eth MCX651105A-EDAT
ConnectX-6 2x QSFP56 (200Gb/s) PCIe 4.0 x16 PCIe đứng AES-XTS IB/Eth MCX653106A-HDAT

Lưu ý: MCX653106A-ECAT hỗ trợ InfiniBand 100Gb / s (EDR / HDR100) và 100/50/25/10GbE. Kích thước: 167.65mm x 68.90mm (không có bracket). Bao gồm bracket cao (phụ kiện bracket ngắn).Tiêu thụ năng lượng < 15W.

Ưu điểm và điểm khác biệt
  • với ConnectX-5:Tăng gấp đôi băng thông (100Gb / s so với 50Gb / s), tích hợp SHARP cho tính toán trong mạng và mã hóa cấp khối mà không tốn thêm chi phí.
  • so với các NIC đối thủ:Truy cập thực sự phần cứng cho các tập thể NVMe-oF và MPI, không chỉ tải không có quốc gia.
  • 100G tối ưu hóa chi phí:Lý tưởng để cân bằng hiệu suất và ngân sách trong các cụm vừa.
  • Tuân thủ FIPS:Mã hóa phần cứng đáp ứng các tiêu chuẩn bảo mật của chính phủ.
Dịch vụ & Hỗ trợ

Chúng tôi cung cấp tư vấn kỹ thuật 24/7, dịch vụ RMA và hỗ trợ tích hợp cho các bộ điều hợp ConnectX-6.Nhóm của chúng tôi cung cấp xác thực trình điều khiển cho các bản phân phối Linux chính, Windows và VMware. hỗ trợ cấu hình trước bán hàng cho thiết kế InfiniBand / Ethernet fabric có sẵn.

Câu hỏi thường gặp (FAQ)

Hỏi: MCX653106A-ECAT có tương thích với các công tắc lượng tử 200Gb / s không?

A:Vâng, nó tương thích với NVIDIA Quantum QM8700 / QM8790 chuyển đổi khi sử dụng chế độ HDR100 (100Gb / s mỗi cổng).

Q: Có thể sử dụng bộ chuyển đổi này cho Ethernet cũng như InfiniBand?

A:Vâng, nó hỗ trợ cả InfiniBand và Ethernet giao thức. phần mềm cố định tự động phát hiện loại chuyển đổi và cấu hình các chế độ thích hợp.

Q: Nó có hỗ trợ RoCE (RDMA trên Converged Ethernet)?

A:Có, ConnectX-6 hỗ trợ đầy đủ RoCE, cung cấp RDMA độ trễ thấp trong môi trường Ethernet.

Q: Tỷ lệ nhắn tin tối đa là bao nhiêu?

A:Bộ chuyển đổi cung cấp lên đến 215 triệu tin nhắn mỗi giây, lý tưởng cho khối lượng công việc HPC gói nhỏ.

Q: Thẻ có tương thích với khe cắm PCIe Gen 3.0 không?

A:Vâng, nó hoàn toàn tương thích với khe cắm PCIe Gen 3.0 x16; hiệu suất sẽ bị giới hạn ở tổng số ~ 100Gb / s, tương ứng với tốc độ cổng.

Các biện pháp phòng ngừa và lưu ý về tính tương thích
  • Yêu cầu khe PCIe:Để có hiệu suất tối ưu, lắp đặt trong khe cắm PCIe Gen 3.0 x16 hoặc Gen 4.0 x8/x16.
  • Làm mát:Đảm bảo lưu lượng không khí đầy đủ trong khung máy chủ; làm mát thụ động đòi hỏi tối thiểu 200 LFM.
  • Cáp:Sử dụng các mô-đun đồng thụ động / hoạt động QSFP56 hoặc mô-đun quang được định mức 100Gb / s (EDR / HDR100).
  • Hỗ trợ lái xe:Sử dụng NVIDIA MLNX_OFED mới nhất cho Linux hoặc WinOF-2 cho Windows.
  • Nhiệt độ hoạt động:Giữ ở nhiệt độ từ -40 °C đến 85 °C.
Giới thiệu công ty
Card mạng InfiniBand Ethernet kép 100Gb/s hai cổng NVIDIA Mellanox ConnectX-6 MCX653106A-ECAT 0

Với hơn một thập kỷ kinh nghiệm, chúng tôi vận hành một nhà máy quy mô lớn được hỗ trợ bởi một đội ngũ kỹ thuật mạnh mẽ.Cơ sở khách hàng rộng lớn và chuyên môn lĩnh vực cho phép chúng tôi cung cấp giá cả cạnh tranh mà không thỏa hiệp về chất lượngLà nhà phân phối được ủy quyền cho Mellanox, Ruckus, Aruba, và Extreme, chúng tôi lưu trữ các công tắc mạng gốc, các giải pháp thẻ mạng (nic card), điểm truy cập không dây, bộ điều khiển và cáp.Chúng tôi duy trì hàng tồn kho 10 triệu USD để đảm bảo hoàn thành nhanh chóng trên các dòng sản phẩm khác nhauMỗi lô hàng được kiểm tra để xác minh độ chính xác, và chúng tôi cung cấp tư vấn 24/7 và hỗ trợ kỹ thuật.Các đội bán hàng và kỹ thuật chuyên nghiệp của chúng tôi đã giành được danh tiếng cao trên thị trường toàn cầu.

Muốn biết thêm chi tiết về sản phẩm này
Card mạng InfiniBand Ethernet kép 100Gb/s hai cổng NVIDIA Mellanox ConnectX-6 MCX653106A-ECAT bạn có thể gửi cho tôi thêm chi tiết như loại, kích thước, số lượng, chất liệu, v.v.

Chờ hồi âm của bạn.